programmierter Umgang mit firefox

  • Firefox-Version
    91.0.2
    Betriebssystem
    Linux Ubuntu 18.04.5 LTS

    Hallo

    Ich bin Linuxer aber kein Firefox Experte.

    Ich möchte (möglichst über ein Bash-Script) eine Web-Seite aufrufen, diese dann nach Inhalten durchsuchen (z.B. Schlüsselwörter im Source code) und dann wieder schließen, wenn die Schlüsselwörter im source code nicht gefunden wurde.

    Programmgesteuert eine Seite im Firefox aufrufen geht mit:

    firefox -new-tab <URL>

    Jedoch, wie kann ich den angezeigte Text oder den source code programmgesteuert nach Schlüsselwörtern durchsuchen. Vielleicht kann ich ja den Firefox dazu veranlassen den source coder der URL zu loggen?

    Hat jemand eine Idee oder einen Vorschlag :?:

  • Ich weiss kaum was über Linux, aber wenn es so wie unter windows ist, bleibt dir nur eine Art Hotkey-Program, Firefox lässt sich bis auf wenige Parameter nicht fernsteuern. Es dürfte vermutlich erheblich einfacher sein, per firefox, wget o.ä. die Seite herunterzuladen und anderweitig zu durchsuchen. Sollte das eine Seite mit dynamischen Inhalt sein (baut sich beim Scrollen auf), dürfte es eh fast unmöglich sein. Unter Windows nutze ich diverse Scriptsprachen, um Seiten herunterzuladen und dann zu durchsuchen, eine Fernsteuerung per Hotkey gelingt mir aber auch nur mit einem eigenen Browserfenster, dass derzeit noch vom IE aufgebaut wird.

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 93.

  • Hier muss ich .DeJaVu einmal vollumfänglich recht geben (8|, o Gott, gleich mal den Tag im Kalender markieren, so was darf nie wieder vorkommen! ;)) .

    Entweder per 'wget' und den Rest 'zu Fuß' erledigen oder mit autokey ( https://wiki.ubuntuusers.de/autokey/ ) die Seite über den Firefox lokal speichern(Ctrl+S) und dann durchsuchen oder die Webseitensuche benutzen (Ctrl+F), das dürfte allerdings schwierig zu steuern sein.

  • wget gibt es auch für Linux. Ob man damit aber dynamische Seiten runter laden entzieht sich meiner Kenntnis. Statische Seiten sollten kein Problem darstellen. Diese müssten dann lokal gespeichert werden und dann durchsucht werden. Ggf. könnte man auch einen Crawler per wget und bash auslösen:

    How to crawl website using #bash script?
    Bash script is one of the amazing scripting language used to automate tasks in Linux &amp; Unix and i...
    dev.to

    HP Chromebook 15a-nb0225ng, i3N-305, 8 GB LPDDR5-4800 MHz RAM (integriert), 256GB UFS, - chromeOS 126 (Stable Channel) - Linux Debian Bookworm: Firefox Nightly, Beta und Main Release (Mozilla PPA), Android 13: Firefox Nightly und Firefox (Main Release)

    Smartphone - Firefox Main Release, Firefox Nightly, Firefox Klar (Main Release)

  • Da klingelt es hier, hat doch neulich schon jemand gefragt.Danke.

    WebDriver | MDN
    WebDriver is a remote control interface that enables introspection and control of user agents. It provides a platform- and language-neutral wire protocol as a…
    developer.mozilla.org

    Wir sind keine Beschwerdestelle, hier gibt es nur Lösungen! Meine Glückszahl hier: 93.

  • Wow!!

    So viele gute Ideen hätte ich nicht erwartet. Also vielen Dank! :thumbup:

    Ich habe mich dazu entschlossen den Vorgang in mehreren Teilen zu erledigen.

    1. Teil Runterladen mit

    elinks -source "$url" >/tmp/term

    2. Teil Inhalt suchen mit

    grep $inhalt /tmp/term

    3.teil Wenn $inhalt gefunden dann

    firefox /tmp/term

    4. Wenn $inhalt nicht gefunden, dann /temp/term verwerfen.