Registreer FAQ Berichten van vandaag


Ga terug   Scholieren.com forum / Technologie / Software & Hardware
Reageren
 
Topictools Zoek in deze topic
Oud 13-07-2006, 07:10
Verwijderd
Ik zoek een programma dat de gehele website structuur van een online website kan copieren.
Alleen de bestandsnamen zijn voldoende, er hoeven geen links ed gelegt worden en geen data erbij want dat zou een eeuwigheid duren.

Weet iemand hier een oplossing voor?
Met citaat reageren
Advertentie
Oud 13-07-2006, 11:49
Dr HenDre
Avatar van Dr HenDre
Dr HenDre is offline
dit kan alleen als er naartoe gelinkt wordt binnen de html. Dan heb je gewoon een spider nodig.
Je kan niet de complete structuur kopieren, aangezien dit een grote beveiligingsprobleem zou zijn
Met citaat reageren
Oud 13-07-2006, 17:38
freyk
Avatar van freyk
freyk is offline
Je kan kijken of je iets met wget kan regelen (windows port is wel te downloaden).
Maar er zijn veel sites die daartegen beveiligd zijn.
__________________
"Typefouten zijn gratis" | "Daar is vast wel een knopje voor" | "Ik weet, want ik zoek" | Powered by Firefox, Chromium, Mac OS X, OpenSuse, and Google.
Met citaat reageren
Oud 13-07-2006, 19:33
Manuzhai
Avatar van Manuzhai
Manuzhai is offline
Lijkt me ook niet zo moeilijk om daar een scriptje voor te schrijven.
__________________
Slechts beschikbaar via naamzoek/privebericht.
Met citaat reageren
Oud 13-07-2006, 21:35
Verwijderd
Citaat:
freyk schreef op 13-07-2006 @ 18:38 :
Je kan kijken of je iets met wget kan regelen (windows port is wel te downloaden).
Maar er zijn veel sites die daartegen beveiligd zijn.
Hoe wilde je daar tegen beveiligen.

Maar ik zeg wel heel stom dat ik niet wil dat de website gedownload word, maar zoals Hendre al zei dat moet wel :')
Want anders heb je natuurlijk niet de links.

Omg, wat dacht ik slecht na
Met citaat reageren
Oud 13-07-2006, 23:46
Dr HenDre
Avatar van Dr HenDre
Dr HenDre is offline
Citaat:
********** schreef op 13-07-2006 @ 22:35 :
Hoe wilde je daar tegen beveiligen.

Maar ik zeg wel heel stom dat ik niet wil dat de website gedownload word, maar zoals Hendre al zei dat moet wel :')
Want anders heb je natuurlijk niet de links.

Omg, wat dacht ik slecht na
ja hele pagina downloaden moet sowieso, maar je kan gewoon de pagina parsen (zoeken naar <a>) en weggooien als je eenmaal alle links op die pagina hebt

Laatst gewijzigd op 14-07-2006 om 00:27.
Met citaat reageren
Oud 14-07-2006, 06:59
Verwijderd
Citaat:
Dr HenDre schreef op 14-07-2006 @ 00:46 :
ja hele pagina downloaden moet sowieso, maar je kan gewoon de pagina parsen (zoeken naar <a>) en weggooien als je eenmaal alle links op die pagina hebt
Ja, snap ik. Maar dat maakt niet meer uit
Het ging e enkel om de filenames
Met citaat reageren
Advertentie
Reageren


Regels voor berichten
Je mag geen nieuwe topics starten
Je mag niet reageren op berichten
Je mag geen bijlagen versturen
Je mag niet je berichten bewerken

BB code is Aan
Smileys zijn Aan
[IMG]-code is Aan
HTML-code is Uit

Spring naar


Alle tijden zijn GMT +1. Het is nu 22:13.