Kuten moni ehkä tietää, ilmaiset geocities -sivustot suljetaan alle viikon sisällä.
Näilläkin sivustoilla on paljon hyödyllistä Delphi -materiaalia, joka ilmeisesti katoaa netistä, sikäli kun sivujen ylläpitäjät eivät varmuuskopioi ko. sivustoa ja etsi sille uutta kotia.
Linuxin wget -komennolla saa toki imutettua yksittäisiä tiedostoja http -protokollalla.
Mutta kun web -sivulla (joka itse on .htm tai .html -tiedosto) on usein kuvia ja ohjelmointiaiheisilla sivuilla on usein linkattu esim. .zip -tiedosto, joka sisältää esimerkkikoodia, niin mikä olisi helpoin tapa ottaa selville kaikki ne tiedostot johon yksittäinen htm(l) -sivu viittaa, olivatpa nuo toedostot sitten suoraan web -sivulla näkyviä kuvia tai linkkejä muihin tiedostoihin, esim. zip -tiedostoihin ?
näitä on varmaan ainakin (onko muitakin):
tai
sitten on vielä ainakin REL, kun muistaisikin miten tuota käytetään....
Onko valmisohjelmaa kokonaisten sivustojen imurointiin, vai pitääko koodata Delphillä oma ?
Ja vielä: jos imutatte, niin fiksuin startegia on imutusohjelma, joka pitää satunnaisen mittaisen tauon imutusten välillä, ns. "konekivääri" -imurointia eivät palvelimien omistajat katso yleensä hyvällä!
Delphi -sivustot netissä
delphikoodaaja
1
555
Vastaukset
Ketjusta on poistettu 0 sääntöjenvastaista viestiä.
Luetuimmat keskustelut
Sä olet epävakaa
tai ainakin yrität onnistuneesti vaikuttaa siltä. Ei sun kanssa uskalla ruveta yhtään mihinkään, menis hommat ojasta all472221Yksi viesti häneltä ja ottaisin takaisin
Mutta ei sitä tule. Ja ehkä parempi niin, tein jo valintani. En saanut häneltä tarpeeksi, kaikki muu meni minun edelle j492108Mieti miten paljon yritin
Löytää yhteyttä kanssasi uudelleen sen väärinymmärryksen jälkeen. Koen etten tullut puoleltasi hyvin kohdelluksi mies😔611934- 791289
Keskisarjan puheet
Onko kansanedustajan sopivaa puhua tuollai vai pitäisikkö potkia pois eduskunnasta?2741270- 641216
- 561007
- 631002
- 24934
- 73865