Auflösung hin oder her, manche Sachen lassen sich nicht mit elastischen Designs machen. Und eine Beschränkung auf eine Optimierung von 800*600 Bildpunkten ist schon von daher sinnvoll, weil mit Sicherheit über 90% aller Browserfenster diese Größe haben. Die meisten Statistiken bedenken nicht, dass die Desktopauflösung nicht gleichzusetzen ist mit der des Webbrowsers. Denn bei dem, was häute dank LCDs etc. an Auflösungen möglich ist, surft mit Sicherheit ein nicht zu unterschätzender Anteil der Leute, mit einem nicht maximierten Browserfenster, da dies der Übersicht sehr zuträglich ist.
Beiträge von unweak
-
-
-
-
Ein Masterpasswort würde dir nicht helfen wenn jemand per Internet Zugriff auf deinen Rechner erlangt, da er dann genauso gut alle Passworteingaben von dir mitloggen kann und die Verschlüsselung dadurch hinfällig wird.
-
Zitat von pencil
Darin selbst sagt
Daraus schließe ich, daß ein existierendes Problem noch ausgebaut/erweitert wird. Meine simple Frage: Muss das sein?
Ihr gebt technische Antworten, aber wollt ihr nun eine Implementierung (wann auch immer), oder nicht?Darin sagt, dass das "Privatsphärenproblem", also das Tracken von Linkklicks, bereits existiert. Durch den Einbau von <a ping> wird dieses nicht verschlimmert. Vielleicht liest du dir einfach nochmal die vorherigen Posts durch und versuchst ernsthaft zu verstehen, warum man glaubt, dass die Unterstützung dieses Attributs (möglicherweise) sinnvoll wäre.
Zitat von pencilUnd was wäre wohl in diesem Forum passiert wenn IE dieses "Feature" eingeführt hätte?
Das kann ich dir genau sagen: Der IE würde von den gleichen Leuten, die jetzt rumheulen, zerrissen werden. Zustäzlich würden sich diese "Ich hab keine Ahnung, worum es geht, aber -> Firefox rulez, IE suckz!"-User anschließen und weitere Gründe finden warum der Internet Explorer viel schlechter, böser etc. ist.
Die (wenigen?) Leute, die verstehen würden worum es geht, würden sich vielleicht nicht einmal äußern. FlameWars mit Trollen zu führen ist sowieso sinnlos. Trolle wollen nicht verstehen. -
Es wird nicht exakt deine Hardware simuliert. Treibertest werden damit wohl nicht möglich sein. Allerdings lassen sich dort sehr gut Alpha- und Beta-Versionen von Software testen, ohne dass es gefährlich werden würde. Internetzugang bzw. Netzwerkzugriff ist selbstverständlich nur möglich, wenn auch das Hostsystem diesen Zugriff besitzt.
-
Der Ist-Zustand:
Jede Webseite, die Benutzer tracken möchte, also z.B. beobachten möchte auf welche Links ein Benutzer klickt, kann dies tun.
Dafür gibt es verschiedene Möglichkeiten, u.a. werden dazu Redirects oder aber auch JavaScripts benutzt, beide haben aber Nachteile. Falls der Redirect nicht funktioniert (Server down, Backendprobleme, 404, etc.) kann der Benutzer dem Link nicht folgen. JavaScripts funktionieren nur, wenn der Browser dies auch aktiviert hat (Normalfall). Da der Seitenbesitzer aber nicht 100%ig sicher sein kann, dass JavaScript wirklich aktiviert ist, könnte er den Link auf den Redirect setzen und falls dieser angeklickt wird und JavaScript eingeschaltet ist, den Linkklick per JavaScript tracken und den Link umwandeln (ebenfalls per JavaScript), so dass der Redirect nicht benutzt wird. Sowohl Redirect als auch ein JavaScript benötigen aber Zeit. Die eigentlich verlinkte Seite wird erst nach dem Tracken aufgerufen. Zusätzlich bemerkt der Benutzer sofern auf JavaScript gesetzt wird das Tracken erst gar nicht und auch der Browser weiß nicht, was er da überhaupt tut.Der Soll-Zustand:
Es wird nur noch das ping-Attribut des a-Tags zum Tracken benutzt. Beim Linkklick öffnet der Browser sofort die verlinkte Webseite. Gleichzeitig wird ein HTTP-Ping an die im Ping-Attribut angegebene URL gesendet. In diesem Fall weiß der Browser was er tut! Es gibt also die Möglichkeit per Einstellungen oder Nachfrage etc. dies für den Benutzer konfigurierbar zu machen. Wenn er nicht will, dass ein Ping gesendet wird, dann sagt er einfach nein.
Selbstverständlich lässt sich so ein Zustand nur erreichen, wenn diese Technik sich etabliert hat und es kein Fallback auf JavaScript etc. gibt. Das ping-Attribut würde also ein problemloseres Surfen ermöglichen (und wahrscheinlich auch eher zum Datenschutz beitragen).Des Weiteren ist diese Funktion derzeit nur in den Firefox-Trunk-Builds enthalten und wird falls sie nicht, aus welchen Gründen auch immer, entfernt wird, erst mit Firefox 3.0 ausgeliefert werden, also wahrscheinlich erst frühestens im nächsten Jahr. Sollte es noch keine Einstellungen zu dem Senden von Pings dort geben, hat es wohl den Grund, dass diese noch nicht eingebaut sind, es handelt sich ja bekanntlich auch um eine _Entwicklungsversion_.
-
Eigentlich dachte ich das Thema wäre erledigt. Dies wäre allerdings auch fast unglaublich gewesen: Man stelle sich vor, jeder hätte verstanden worum es geht... :twisted:
-
Wer sehen möchte, woran die Konkurrenz gerade arbeitet:
http://www.microsoft.com/windows/ie/ie7/ie7betaredirect.mspx -
Zitat von bugcatcher
der firefox-zug hat seine anhänger und alleine wenn man sieht wieviele noch 1.0 haben, sollte klar sein: die wechseln nichtmehr so schnell. die mehrheit updatet ja nichtmal. Und es bleibt wie gehabt: der grund warum firefox so erfolgreich ist, ist die leistung der community. die meisten haben firefox, weil er ihnen von jemanden empfohlen oder installiert wurde. ist wenigstens meine meinung.
Ich würde ebenfalls sagen, dass die rasche Verbreitung durch die Community vorangetrieben wurde, so dass ziemlich schnell auch in der Nicht-Fachpresse davon berichtet wurde (auch die ganzseitigen Werbeanzeigen die nicht von Mozilla finanziert wurden).
Das Problem mit Aktualisierungen ist immer das Gleiche: Die Leute sind sich nicht über die Konsequenzen bewusst (siehe Sicherheitsupdates), einfach zu faul Updates zu installieren oder verstehen vom Thema nicht genug (was auch zu verstehen ist). Aus dem Grund ist das neue Auto-Update-Feature eine der besten Neuerungen der letzten Zeit. Einfach die Updates herunterladen und installieren möglichst ohne das der Benutzer dies bemerkt. Wenn ihm vorher mitgeteilt wird, dass Erweiterung xy nicht funktioniert wird er zwar ebenfalls nicht updaten, aber das ist ein anderes Problem. So ein vollautomatisches Update ruft nur immer Probleme mit den Datenschutz-Verschwörungstheoretiker-Trollen hervor, die meinen was da bestimmt alles im geheimen übertragen wird etc.. Genau diese sind meiner Meinung nach auch für die ganzen Wurm- und Spamplagen verantwortlich, weil sie den (unwissenden) Leuten einreden wollen Microsoft ist von Grund auf böse, deshalb XPAntiSpy rein, automatische Updates aus. Die Folgen: Massenhaft Rechner mit gravierenden Sicherheitslücken. Wenn diese Personen wieder diesen eBay-Redirect oder Ping-Attribut-Müll und ähnliches aufgreifen haben auch ein Großteil der Firefox-User bald keine Updatefunktion mehrZitat von bugcatcherFakt ist aber (und das schon seit jahren): IE kann (und wird auch in zukunft) kein SVG nativ, sondern benutzt den adobe SVG-Viewer und der ist defakto-standard.
Mag sein, dass der Adobe SVG-Viewer quasi Standard ist. Ich kenne den nicht und hab ihn auch noch nie irgendwo im Einsatz gesehen (wenn er nicht automatisch von IE als PlugIn installiert wird wie Flash oder ähnliches, kann man sowieso nicht davon ausgehen, das der Benutzer ihn hat, keine Ahnung wie das in diesem Fall genau läuft).
An den Webstandards wird sich in der nächsten Zeit eh nicht großartiges ändern. Der IE7 wird wohl HTML4.01 (XHTML 1.x per text/html), CSS2, PNG und DOM1 einigermaßen unterstützen, also etwas besser als der IE6 jetzt. Ansonsten wird es keine "echte" XHTML-Unterstützung (Alternativ-Link) geben und damit ist der Zug für die nächsten paar Jährchen auch erst einmal wieder abgefahren. Ich hatte daraf spekuliert, dass der IE7 wenigstens SVG unterstützen wird, weil soviel Vektor-Grafik-Kram in Vista intergriert wird, falls aber nicht, dann werden uns weiterhin die bekannten W3C-Standards von 1998/99/2001 erhalten bleiben. Braucht man sich wenigstens nicht umstellen.
Oder aber WhatWG treibt HTML5 so schnell voran, dass Microsoft auch in Zukunft nicht extra einen XML-Parser für application/xhtml+xml schreiben muss. HTML-Parser freuen sich ja immer über alte, neue und öfters auch falsche Tags. =) -
Zitat von bugcatcher
Und ja, ich weiss... SVG ist schon ewig in entwicklung. Aber nur weil Opera ihre nutzlose SVG-Unterstützung einbaut, muss Mozilla das noch lange nicht.
Ich denke auch beide haben damit einen Fehler gemacht. SVG hätte nicht erst letztes Jahr standardmäßig aktiviert werden sollen, sondern schon viel, viel früher. Auch wenn das noch weniger gut funktioniert hätte als jetzt, dadurch, das es eingebaut gewesen wäre, hätten sich bestimmt mehr Leute aktiv darum gekümmert und das wär nicht so vor sich hinvegetiert. Das Opera dann nun doch damit angefangen hat SVG-Unterstützung einzubauen sehe ich eher positiv. Denn in der Praxis ist es so, dass Webfeatures erst genutzt werden können, wenn der Großteil (oder zumindest irgendwer) diese unterstützt und wenn niemand damit anfängt sind solche Webstandards nutzlos. Abesehen davon halte ich Plugins für W3C-Standards für nicht sinnvoll, der Browser sollte das nativ unterstützen.Vielleicht sehe ich das als End-Nutzer falsch, aber was hat sich seit Mozilla 1.0 / 1.4 / 1.7 großartiges an Gecko verbessert? OK, hier mal ein paar kleinere Bugs beseitigt, da ein bisschen Geschwindigkeit gewonnen, hauptsächlich wurden in der Zeit aber die Front-Ends verbessert (also Phoenix/Firebird/Firefox wurde entwickelt) um Marktanteile zu gewinnen. Wenn man die Entwicklerblogs liest, mag man was anderes glauben, aber für mich sieht es so aus. Man scheint sich darauf zu verlassen, dass die Erweiterungen den Erfolg von Firefox auch in Zukunft garantieren. Für mich sind Erweiterungen nur eine Spielerei, die ich definitiv nicht brauche, mir ist noch keine wirklich sinnvolle Erweiterung begegnet.
Opera hat in der gleichen Zeit, wenn man den Firmenaussagen glauben schenkt, eine komplett neue Rendering-Engine entwickelt (für Opera 7), die sich schon länger nicht mehr verstecken braucht und "gefühlt" deutlich schneller ist als alles andere. Dafür wurden aber viele andere Sachen vernachlässigt, wie z.B. die Betriebssystemintegration, Tab-Management (ich kennen keinen Weg bei dem einstellungsverliebten Browser zu konfigurieren, dass sich beim Tab schließen das rechte und nicht das zuletzt gewählte Tab in den Vordergrund schiebt, diese Verhalten kann einen in den Wahnsinn treiben ...).
Konqueror / KHTML scheint mir auch mächtig aufgeholt zu haben, was die Technik angeht. Allerdings komme ich mit Konqueror als Browser noch weniger klar als mit Opera oder dem Internet Explorer.
Mit dem Einbau von Cairo scheint die MoCo ja nun zu versuchen, den Performance- und Renderingbugs ein Ende zu bereiten. Nur fragt sich, ob bis dahin die Konkurrenz nicht nur aufgeholt hat, sondern sogar schon vorbei gezogen ist. Angepeilt für die Veröffentlichung ist Anfang 2007, nach der Erfahrung der letzten Jahre also ca. Ende 2007/Anfang 2008.
Auf den Marktanteil wird das sicherlich keinen Einfluss haben. Die Leute die sich wirklich für die Technik interessieren machen einen zu geringen Teil aus und die Mozilla Corporation / Foundation hat es tatsächlich geschafft den Browser erfolgreich zu vermakten. Das ist schon daran zu erkennen das der Einbau des Ping-Attributs in Nightly-Builds unendlich lange FlameWars entfacht hat... Und außerdem: Auch technisch veraltete Software kann sich locker weit über ein halbes Jahrzehnt mit einem Marktanteil von 80-90% halten. -
Beim derzeitigen Internet Explorer benötigt man ActiveX um AJAX sinnvoll zu nutzen, da XmlHttpRequests nur mit ActiveX-Objekten funktionieren. Dadurch das dies in IE 7.0 nicht mehr so ist, ergibt sich ja gerade der Vorteil: ActiveX kann ausgeschaltet sein und AJAX funktioniert trotzdem, wie bei allen anderen Browsern auch. Das widerspricht dem durch die Hintertür kommen. Es wird damit eher erreicht, dass ActiveX noch weniger benutzt wird.
-
Hat eigentlich gar nichts miteinander zu tun oder wie seh ich das?
-
Prinzipiell könnte für all das auch jetzt schon JavaScript benutzen. Nur wenn sich der Pingkram durchsetzt, könnte man darauf verzichten und wenn man kein Tracking wünscht, dieses deaktivieren und trotzdem JavaScript zulassen. Eigentlich ändert sich damit für den Benutzer gar nichts. Bisher kann man mit allen möglichen Methoden Daten sammeln, wenn man denn unbedingt will. Mit einer standardisierten Methode wüsste man aber genau was an Daten gesammelt wird und wer dies tut.
-
Zitat von nuja
Jetzt, fällt's mir wieder ein. Nach dem Update auf die letzte Version AutoGK 2.26 hatte ich das Verhalten (den Absturz) auch. (Ich habe DIVX 6.1 ebenfalls installiert, villeicht hängt das damit zusammen?).
DivX 6.1 wird vom aktuellem AutoGK nicht unterstützt, weil die Versionierung in den DLLs geändert wurde. Im Forum sagt der Autor, dass er keine Lust mehr hat, bei jeder Version Änderungen extra für DivX einzufügen und dass es vorerst kein Update geben wird und evtl. die Unterstützung für DivX ganz verschwindet.
-
Gab es da nicht zwischenzeitlich schon ein Update für, also im Dezember?
-
So wie ich das verstehe, benötigst du ungefähr die gleiche Tools wie bei einem DVD Backup. Aus diesem Grund würde ich dir Gordian Knot (ohne Auto vorne) empfehlen. Dort werden alle Programme die man benötigt bereits mitgeliefert. Wenn du den Ton (AC3 oder MP2) nach MP3 konvertieren willst, solltest du diesen seperat von Bild neucodieren und anschließend beides wieder zusammenfügen. Dann wäre es auch möglich eine Videodatei mit vorherbestimmter Größe zu erreichen.
Als Video-Codec ist XviD empfehlenswerter, da die Qualität bei Vergleichstest immer besser ausfällt als bei DivX (XviD-Binaries: Seite 1 oder Seite 2). Wenn du zu Standalone-Playern kompatible Videodateien erstellen willst, musst du die Optionen in XviD beschränken, z.B. kein GMC/QPel oder nicht mehr als 1 aufeinander folgendes B-Frame.
Der Ablauf sieht ungefähr so aus:
Die MPEG2-Datei in DGIndex laden, den richtigen Audio-Track wählen und als d2v-Projekt speichern (der Audio-Track wird automatisch extrahiert). Das Projekt in GordianKnot laden und damit eine AviSynth-Script erstellen (.avs). Die Audio-Datei lässt sich automatisiert per GordianKnot-Audio-Job umwandeln. In VirtualDubMod das AVS-Script laden und per FastRecompress und XviD als Codec das Video in 1 oder 2 Durchgängen neucodieren (Bitrate erfährt man in GordianKnot). Anschließen in Nandub oder VirtualDubMod per DirectStreamCopy Bild und Ton wieder zusammenführen.
Weitere Infos findet man auf Doom9.org. -
-
Zieht man per CVS nicht nur den Quellcode und muss Gaim dann anschließend noch kompilieren? Wenn es schon daran scheitern sollte, überhaupt den Checkout zu bekommen, würde ich lieber warten bis Binaries bereitgestellt werden.
Ansonsten schau auf der Gaim Downloadseite nach, wo die entsprechende Befehle aufgelistet sind.
-
http://packetstormsecurity.org/0512-exploits/…er-overflow.txt
http://www.digg.com/security/Kill_…_remote_exploit
https://bugzilla.mozilla.org/show_bug.cgi?id=319004Wenn man eine HTML-Seite mit dem angegebenen HTML und JavaScript Quelltext füllt und aufruft, ist es nach einem Browserneustart (fast) nicht mehr möglich Firefox zu irgendwelchen Reaktionen zu bewegen (z.B. beim Versuch eine URL einzugeben).