Hallo Leute!
Wie kann man von Websites ein lokales Abbild schaffen? Es sollen Webs incl. der Seiten, auf die alle in dem Web enthaltenen Links zeigen heruntergeladen werden können. Eine Filterfunktion sollte vorhanden sein, mit der man die Links durchscannen und unerwünschte Links entfernen kann.
In irgendeiner Ct wurde mal ein solches programm als free- oder sharaware vorgestellt.
Weis vielleicht jemand wo dieses oder ein anderes Programm mit der gewünschten Funktionalität heruntergeladen werden kann?
Schon man danke
gigabyte
Heimnetzwerke - WIFI, LAN, Router und Co 16.538 Themen, 81.400 Beiträge
Teste doch mal den web downloader.
Ich bin mit dem Programm sehr zufrieden.
http://www.geocities.com/SiliconValley/Vista/2865/download.htm
tschau
Wumpchild
oder Teleport Pro...
gibt's bei Tenmax.
WebSnake von Anawave wäre z.B. auch so ein Programm.
httrack kann ich empfehlen:
http://www.httrack.com/page0.php
GNU wget - unter Linux und Windows erste Wahl für den Job. Ist aber ein Kommandozeilenprogramm - etwas frickelige Installation und Bedienung, aber dafür mächtig ;-)
Have fun,
Z.
oder guck mal bei google.de nach WebCopier.
damit bin ich ganz zufrieden