Ich würde gern alle Links von dieser Seite
http://www.photozone.de/8Reviews/index.html
inclusive der darin enthaltenen Dateien hier lokal speichern. Automatisch.
Ich würde gern alle Links von dieser Seite
http://www.photozone.de/8Reviews/index.html
inclusive der darin enthaltenen Dateien hier lokal speichern. Automatisch.
nein, scrapbook und Downthemall speichern nicht mit den Unterverzeichnissen. Es sollte in dem lokalen Zielordner die ganze Seite incl. der Subfolder und deren Inhalte gespeichert werden. Absicht ist es, jemandem ohne Internet die Inhalte lesbar zu machen, indem das per USB-Stick dort auf den Computer geladen wird.
das man die Archivierungstiefe einstellen kannst kennst du aber schon?
[Blockierte Grafik: http://img406.imageshack.us/img406/9255/scrapbookny5.png]
Das nützt leider nichts. Scrapbook wirft nun alles in einen Topf, legt keinerlei Unterverzeichnisse an, vermischt alle Dateien in einem einzigen, dann natürlich riesigen Ordner. Zudem sind die Links nach wie vor original und nicht relativ, so dass der Browser sich das aus dem Internet holt und nicht lokal.
Ich habe mir jetzt ein paar von den Links mittels Firefox von Hand lokal gespeichert, das funktioniert wunderbar.
Gibt es denn nicht ein Programm, das diese Website
http://www.photozone.de/8Reviews/index.html
incl. der ersten Hierarchieunterebene lokal und mit relativen Links automatisch speichert? Firefox kann es völlig problemlos, jedoch nur mit einzelnen Links.
Zitat von tester13Das nützt leider nichts. Scrapbook wirft nun alles in einen Topf, legt keinerlei Unterverzeichnisse an, vermischt alle Dateien in einem einzigen, dann natürlich riesigen Ordner. Zudem sind die Links nach wie vor original und nicht relativ, so dass der Browser sich das aus dem Internet holt und nicht lokal.
Zunächst: Ich bin mir sicher (aus Erinnerung), dass Scrapbook das kann, dazu ist es doch da. Habe das aber grad nicht mehr installiert.
Alternativen gibt es aber genügend im Netz, Beispiel:
Hallo tester13
WebCopier dürfte das richtige Programm sein.
ZitatDieser Offlinebrowser lädt zuverlässig komplette Websites samt Unterverzeichnissen herunter und stellt sie offline zur Verfügung. Bis zu 100 Dateien werden gleichzeitig gesaugt, auf Wunsch automatisch und zeitgesteuert. Die Ausbeute kann man sofort im integrierten Browser betrachten.
http://www.maximumsoft.com/
http://www.maximumsoft.com/products/wc_pro/overview.html
http://www.zdnet.de/downloads/prg/w/w/000YWW-wc.html
gruß Sambubaly
Auch ich halte ScrapBook für die erste Wahl für den genannten Zweck. Allerdings erscheint mir der von Wawuschel vorgeschlagene Archivierungsumfang viel zu hoch. Auf Audio, Filme, Archive, pdf- und doc-Dateien kann man sicher verzichten (falls soetwas auf den Seiten überhaupt vorhanden ist) und eine Archivierungstiefe von 1 sollte vernünftigerweise ausreichen. Damit erhält man zwar keinen Offline-Zugriff auf den Inhalt der Links auf den Unterseiten (z.B. auf die Originale der Testfotos), aber die sind es ja, die ewig dauern und den Speicher explodieren lassen (etliche GB?). Auch so dürfte das Archiv groß genug werden; ich schätze, man landet im GB-Bereich.
Die Links zu gespeicherten Elementen sind sehr wohl relativ (das ist doch gerade der Trick bei ScrapBook), die zu nicht gespeicherten Elementen bleiben natürlich absolut, sodass man diese aus dem Netz nachladen kann.
Gruß, Sünndogskind