Webseiten mitsamt Links Speichern

  • Hallo,

    kann mir jemand bei einer Frage bitte weiterhelfen? Ich habe vor, einige von meinen meistbesuchten Seiten zu archivieren, also offline zu speichern, falls diese mal vom Netz verschwinden sollten. Ich habe ja einmal die Möglichkeit über Datei>>Seite speichern unter...! Daraus entsteht ja eine .html Datei. Mit der ich die Seite inkl. aller links speichern kann. Ist dann das Addon "Scrapbook" dafür besser geeignet? Ich blick bei dem Addon einiges nicht. Wenn ich jetzt eine Seite (z.Bsp. "http://www.wer-weiss-was.de/theme40/article1654089.html" )über "Extras>>Mehrere URLS archivieren" und in das leere Feld diese Adresse eingebe werden in dem Ordner den ich extra für dieses Addon angelegt habe eine Unzahl an zusätzlichen Dateien gespeichert die ich doch eihgentlich nicht brauche, oder? Mir kommt es auf die Links und max. die Bilder auf der zu speichernden Seite an. Wie speichert Ihr Seiten ab? Melche Methode wählt Ihr denn? Verbraucht das viel Speicherplatz?

  • Willst Du nur einzelne URLs sicher und einfach speichern, dann:

    1. Scrapbook. Speichert hervorragend mit Verzeichnisbaum. Die vielen Dateien brauchst Du. Das sind die Einzelteile der Seite.
    Die Seite wird in Einzelteilen gespeichert und bei jedem Aufruf neu zusammengesetzt. Ergibt sowohl Vorteile als auch Nachteile. Die Links bleiben aktiv und klickbar und die Seite verhält sich weitgehend wie frisch aufgerufen.

    2. Speichern unter kannste vergessen. Wenn Du es ab und zu mal benutzen willst, installiere FileTitle. Das gibt Dir wenigstens einen brauchbaren Namen unter dem gespeichert wird.

    3. Eine gute Möglichkeit, einzelne Seiten zu sichern, ist, den kompletten Browser abzufotografieren, incl. der momentan nicht sichtbaren Teile der Seite. Ergibt ein .jpg/.png. Gut sind dazu Screengrab und Fireshot. Auf dem Bilderfile ist nix mehr klickbar. Die Namen der Links kannst Du lesen, aber nicht die Adresse, wo die Links hinzeigen. Die ist verloren.


    4. Um eine ganze Domain zu sichern nimmt man Httrack. Ist aber kompliziert zu bedienen.

    Viele Grüße!

    Danke. Schön, überall so liebe Leute zu treffen.

  • Vielen Dank für Deine Hilfe :)

    Ok, ich schätze mal das mit Scrapbook scheint der kompletteste Weg zu sein. Werde ichversuchen.
    Ich habe mal schon länger von jemanden einen File zugeschickt bekommen der war 12MB groß und darin war die gesamte Webseite enthalten. Für je eine Seite war immer nur eine einzelne .HTML Datei, die ich dann wie immer über Firefox aufrufen konnte. dort waren die Links auch alle noch an-klickbar. auch die Bilder waren zu sehen. Was denkst Du denn welche Methode da genutzt wurde. Scheint die "Datei>>Speichern unter..."-Methode gewesen zu sein, oder?
    Leider erreiche ich die Person seit einiger Zeit nicht mehr sonst hätte ich ihn selbst gefragt.

  • Zitat

    Scheint die "Datei>>Speichern unter..."-Methode

    Nein. Hier gibt es einen .htm File und ein gleichnamiges Directory, in dem die weiteren Einzelteile drin sind. Du brauchst beide. Hast Du vielleicht die Dirs übersehen?

    Danke. Schön, überall so liebe Leute zu treffen.

  • Ergänzend:
    Quelle: hoppel

    Zitat von hoppel

    Speichern unter kannste vergessen. Wenn Du es ab und zu mal benutzen willst, installiere FileTitle. Das gibt Dir wenigstens einen brauchbaren Namen unter dem gespeichert wird.

    Den Namen der Datei kann man im Übrigen frei wählen.

    Zitat

    Um eine ganze Domain zu sichern nimmt man Httrack. Ist aber kompliziert zu bedienen.

    Auch ScrapBook kann in die Tiefe archivieren.