Kuten moni ehkä tietää, ilmaiset geocities -sivustot suljetaan alle viikon sisällä.
Näilläkin sivustoilla on paljon hyödyllistä Delphi -materiaalia, joka ilmeisesti katoaa netistä, sikäli kun sivujen ylläpitäjät eivät varmuuskopioi ko. sivustoa ja etsi sille uutta kotia.
Linuxin wget -komennolla saa toki imutettua yksittäisiä tiedostoja http -protokollalla.
Mutta kun web -sivulla (joka itse on .htm tai .html -tiedosto) on usein kuvia ja ohjelmointiaiheisilla sivuilla on usein linkattu esim. .zip -tiedosto, joka sisältää esimerkkikoodia, niin mikä olisi helpoin tapa ottaa selville kaikki ne tiedostot johon yksittäinen htm(l) -sivu viittaa, olivatpa nuo toedostot sitten suoraan web -sivulla näkyviä kuvia tai linkkejä muihin tiedostoihin, esim. zip -tiedostoihin ?
näitä on varmaan ainakin (onko muitakin):
tai
sitten on vielä ainakin REL, kun muistaisikin miten tuota käytetään....
Onko valmisohjelmaa kokonaisten sivustojen imurointiin, vai pitääko koodata Delphillä oma ?
Ja vielä: jos imutatte, niin fiksuin startegia on imutusohjelma, joka pitää satunnaisen mittaisen tauon imutusten välillä, ns. "konekivääri" -imurointia eivät palvelimien omistajat katso yleensä hyvällä!
Delphi -sivustot netissä
delphikoodaaja
1
508
Vastaukset
Ketjusta on poistettu 0 sääntöjenvastaista viestiä.
Luetuimmat keskustelut
- 406983
- 323938
- 453330
- 402939
- 172716
- 372238
- 162196
- 412143
Voi ei! Jari Sillanpää heitti keikan Helsingissä - Hämmästyttävä hetki lavalla...
Ex-tangokuningas on parhaillaan konserttikiertueella. Hän esiintyi Savoy teatterissa äitienpäivänä. Sillanpää jakoi kons482077- 402048