Ich habe eine Internetseite gefunden auf der viele tolle Landschaftsfotos sind. Nun würde ich gerne alle Bilder die sich auf dieser seite befinden runterladen, allerdings habe ich keine Lust alle Bilder einzeln zu speichern. Wie kann ich das machen? Mir geht es nicht unbedingt um die ganze Seite, sondern hauptsächlich um alle Bilder.
Homepage selbermachen 7.852 Themen, 35.619 Beiträge
hallo alter hase. Das thema urheberrecht lass ich jetzt mal weg :-)
Es kommt drauf an wie die Struktur der seite ist. wenn die bilder alle schön in normalen html links verlinkt sind, kannst du einen sogenannten SITERIPPER oder WEBSITESPIEGLER benutzen. Google mal mit den Begriffen Website runterladen kopieren spiegeln.
Da bei wirst du fündig.
Wenn du hinterher mal laut gibst, was du gefunden hast, sag ich dir welches Programm ich für sowas z.b. bei www.250kb.de benutze.
also ich probiere es gerade mit dem programm blackwidow. schein ganz ok zu sein, aber bin noch am testen.
@Mario32
kennst du das programm? ist es gut?
kennst du das programm? ist es gut?
bis jetzt noch nicht, aber ich schau es mir mal an!
hallo alter hase
habe grade mal gegoogelt: blackwidow ist shareware. kann also sein, das du sofern du sie nicht kaufst mit einschränkungen leben mußt.
Ich würde dir zu einem vollwertigen freewaretool raten. Ich persönlich bevorzuge httrack. ist von 'nem franzosen gibts als console version und auch mit GUI unter windows. Das Tool kann wie das von T-REX genannte wget auch in alle richtungen suchen. Es ist sogar theoretisch möglich (aber wohl praktisch nicht durchführbar/Speicherplatz!) bei entsprechender Konfiguration das gesamte Internet auf deine Platte zu ziehen ;-)
Trotz der super Einstellmöglichkeiten ist die standarteinstellung für DAU's ideal: Gib die startadresse der Page ein klick ohne weitere konfiguration auf weiter und downloaden und mit 4 verbindungen und maximal 25KB lädt er dir die seite runter. KINDERLEICHT!
http://www.chip.de/downloads/c_downloads_10534482.html
Falls Du was für die Kommandozeile suchst, ist wget wahrscheinlich das geeignetste Tool. Hier kannst Du auch die Rekursionstiefe angeben (also die Ebene der Links, die von der urspünglichen Seite aus aufgerufen werden können).
oder nimm flashget.
da gibbet im kontextmenü eine funktion "alles mit flashget laden".
danach kannst du die gewünschten dateien auswählen, bestätigen, fertich...
ich hab das mal mit "web downloader" gemacht. Hat super geklappt (damals). findet man noch hier: http://www.geocities.com/SiliconValley/Vista/2865/download.htm
Weiß aber nciht, ob das share- oder freeware ist
mfg, thomas
Mozilla Firefox und die Extension "Linky", oder mit der ReGet-Extension und dem Downloadmanager ReGet...