Offline-Reader

  • Suche einen Offline-Reader für Firefox...

    Hab's gerade mit ScrapBook probiert. Das ist leider daran gescheitert, dass zum einen Cookies nicht berücksichtigt werden (es geht um ein Forum), der User also ausgeloggt wird und zum anderen auch externe URLs mit gespeichert werden, sobald ich die eine Linktiefe größer 0 einstelle.

    Ich will aber nicht das gesamte Web speichern sondern nur EINE URL, die aber komplett (inklusive Forum).

    Jemand eine Idee was es da so gibt bzw wie ich das mit ScrapBook realisiere? Wegen mir auch als eigene Anwendung (sollte halt Freeware sein, brauche das möglichst bald für eine Präsentation der Webseite (ist ein eigenes Projekt)).

    Vielen Dank
    Gruß, Dave

  • D@ve wrote:

    Zitat

    Das ist leider daran gescheitert, dass zum einen Cookies nicht berücksichtigt werden

    Doch die werden berücksichtigt. Ich kann Zugangsgeschützte Inhalte damit archiviere, die Cookies werden bei den Requests gesendet.

    Zitat

    der User also ausgeloggt wird

    Du solltest eher prüfen, ob ScrapBook nicht den Link zum Ausloggen aufruft.

    Zitat

    und zum anderen auch externe URLs mit gespeichert

    Das lässt sich über die Filter verhindern.

    Zitat

    sondern nur EINE URL, die aber komplett (inklusive Forum).

    Also willst du nicht eine URL, sondern eine komplette Website speichern.

    Zitat

    wie ich das mit ScrapBook realisiere?

    In Foren sind die Linktiefen teilweise recht groß. Auch hängt es von der Struktur der Seite ab, ob dies mit ScrapBook noch bequem machbar ist. Um welche Seite geht es?

    Zitat

    Wegen mir auch als eigene Anwendung

    HTTrack

  • Zitat

    Das lässt sich über die Filter verhindern.


    Filter wie geht das? Hab auch bei nochmaligem Suchen nix gefunden. Damit könnte ich dann sicher auch die Logoutlinks blocken.
    Ich hab hier im Menü eine Option "Erweiterte Funktionen". Unter dem Menüpunkt ist aber nichts vorhanden...

    Zitat

    In Foren sind die Linktiefen teilweise recht groß. Auch hängt es von der Struktur der Seite ab, ob dies mit ScrapBook noch bequem machbar ist.

    Nein, sollte kein Problem sein. ist eine eigene Entwicklung. Das sind nur 2000 Beiträge.

    Gruß, Dave

  • Zitat

    Filter wie geht das?

    Schau dir mal das Fenster genau an, wenn du einen Capturing-Vorgang gestartet hast. Drück sofort nach dem Öffnen des Dialogs auf Pause. In den Optionen findet man das leider nicht.
    Mehr als die dort angebotenen Möglichkeiten hast du zudem nicht. Das ist imho die größte Schwäche von ScrapBook.
    Man kann damit die Probleme umgehen, allerdings ist das nicht sehr bequem.

  • Vielen Dank...

    Zitat

    chau dir mal das Fenster genau an, wenn du einen Capturing-Vorgang gestartet hast. Drück sofort nach dem Öffnen des Dialogs auf Pause. In den Optionen findet man das leider nicht.

    Da wäre ich jetzt nicht drauf gekommen... Hmmm da kann ich aber nur nach Domain filtern... Den Logoutlink kann ich da nicht unterdrücken... :(

    Gruß, Dave

  • Zitat

    da kann ich aber nur nach Domain filtern

    Auch nach Strings.

    Zitat

    Den Logoutlink kann ich da nicht unterdrücken

    Den kannst du auch in der Liste deselektieren.

    Aber wie gesagt, die Anwendung der Funktion ist so nicht besonders gelungen. Da empfiehlt sich eher etwas wie HTTrack. Dort kann man vor dem Capturing-Vorgang White- und Blacklists angeben.