Scholieren.com forum

Scholieren.com forum (https://forum.scholieren.com/index.php)
-   Software & Hardware (https://forum.scholieren.com/forumdisplay.php?f=20)
-   -   Website structuur copieren (https://forum.scholieren.com/showthread.php?t=1443313)

Triloxigen 13-07-2006 07:10

Website structuur copieren
 
Ik zoek een programma dat de gehele website structuur van een online website kan copieren.
Alleen de bestandsnamen zijn voldoende, er hoeven geen links ed gelegt worden en geen data erbij want dat zou een eeuwigheid duren.

Weet iemand hier een oplossing voor?

Dr HenDre 13-07-2006 11:49

dit kan alleen als er naartoe gelinkt wordt binnen de html. Dan heb je gewoon een spider nodig.
Je kan niet de complete structuur kopieren, aangezien dit een grote beveiligingsprobleem zou zijn :)

freyk 13-07-2006 17:38

Je kan kijken of je iets met wget kan regelen (windows port is wel te downloaden).
Maar er zijn veel sites die daartegen beveiligd zijn.

Manuzhai 13-07-2006 19:33

Lijkt me ook niet zo moeilijk om daar een scriptje voor te schrijven.

Triloxigen 13-07-2006 21:35

Citaat:

freyk schreef op 13-07-2006 @ 18:38 :
Je kan kijken of je iets met wget kan regelen (windows port is wel te downloaden).
Maar er zijn veel sites die daartegen beveiligd zijn.

Hoe wilde je daar tegen beveiligen.

Maar ik zeg wel heel stom dat ik niet wil dat de website gedownload word, maar zoals Hendre al zei dat moet wel :')
Want anders heb je natuurlijk niet de links.

Omg, wat dacht ik slecht na :D:D

Dr HenDre 13-07-2006 23:46

Citaat:

********** schreef op 13-07-2006 @ 22:35 :
Hoe wilde je daar tegen beveiligen.

Maar ik zeg wel heel stom dat ik niet wil dat de website gedownload word, maar zoals Hendre al zei dat moet wel :')
Want anders heb je natuurlijk niet de links.

Omg, wat dacht ik slecht na :D:D

ja hele pagina downloaden moet sowieso, maar je kan gewoon de pagina parsen (zoeken naar <a>) en weggooien als je eenmaal alle links op die pagina hebt :)

Triloxigen 14-07-2006 06:59

Citaat:

Dr HenDre schreef op 14-07-2006 @ 00:46 :
ja hele pagina downloaden moet sowieso, maar je kan gewoon de pagina parsen (zoeken naar <a>) en weggooien als je eenmaal alle links op die pagina hebt :)
Ja, snap ik. Maar dat maakt niet meer uit ;)
Het ging e enkel om de filenames :p


Alle tijden zijn GMT +1. Het is nu 07:58.

Powered by vBulletin® Version 3.8.8
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.