Webseiten-Optimierung mal anders

Beim Wort Webseiten-Optimierung denken die meisten SEOs gleich an Keywords, Title, Metatags oder Links. Man kann das aber auch anders verstehen. Tobias zum Beispiel denkt dabei auch an die Auslieferungsgeschwindigkeit von Webseiten. Und das hat seine Gründe. Denn was nutzen einem Webseiten-Betreiber alle SEO-Künste, wenn nachher ein nicht unbeträchtlicher Teil der Besucher aufgrund langer Ladezeiten vorzeitig wieder abspringt.

Im konkreten Fall geht es um die Optimierung von Javascript und CSS anhand komprimierter Auslieferung. Eine nette Sache, ohne großen Aufwand spart man seinem Server Zeit und Traffic und bietet seinen Besuchern eine bessere Surf-Erfahrung. Vor allem Modem-Nutzer werden das zu würdigen wissen.

Abgesehen von der gzip-Komprimierung kann man CSS und Javascript natürlich auch noch händisch optimieren. Das betrifft bei Javascript sowohl Laufzeiten / Ausführungszeitpunkt als auch Umfang. Zum Teil kann man diese Dinge mit Gehirnschmalz lösen, doch meist interessiert nur der Umfang des Quellcodes und dafür gibt es einige passende Tools/Scripte, die Variablen oder Codes kürzen, Leerzeichen und Kommentare heraus filtern und wer weiss was sonst noch an Bits und Bytes herausquetschen helfen. Und wer jetzt neugierig ist, ob seine Seite es nötig hat, dem empfehle ich den Web Page Analyzer von Andrew B. King.

6 Gedanken zu „Webseiten-Optimierung mal anders“

  1. Hmmm. also ich finde dafür das Firefox/Firebug Plugin „y!slow“ besser.
    http://developer.yahoo.com/yslow/
    Das Tools ist super schnell und gibt ähnliche Informationen direkt im Firebug aus.

    Wem das FAQ dazu nicht ausreicht, für den hat der Author ein Buch dazu geschrieben.

    Ich verzichte mal darauf das Buch hier mit meiner Amazon Partner ID zu verlinken ;-)

    Antworten
  2. Mit gzip-Komprimierung muss man leider sehr vorsichtig sein. Habe damit mal sämtliche Apple-User aus einem Online-Shop ausgesperrt, natürlich ohne es zu bemerken. Nachdem das Problem gemeldet und lokalisiert worden war, habe ich ein paar Tests gemacht und festgestellt, dass Zippen, Versenden und im Browser öffnen bei der gegebenen Serverkonfiguration ohnehin länger dauerte als der direkte Abruf ungezippter Originalseiten. Also wieder weg damit… Technik ist wohl dazu da, damit man sich mit ihr beschäftigt. ;-)

    Antworten
  3. @oliver, im hier geschilderten fall fällt das zippen ja weg, weil schon vorher passiert. und bei bedarf könnte man mod_rewrite auch noch aufbohren und nur user-agents beliefern, von denen man weiss, dass die mit zip-files zurande kommen. fehlt jetzt nur noch jemand, der eine passende liste liefern kann.

    Antworten
  4. Bei mir hatte sich herausgestellt, dass Safari-Browser mit gezippten Dateien nicht umgehen konnten. Das Problem ließ sich auch mit „Safari für Windows“ sehr gut nachvollziehen. Habe das Zippen deshalb abgeschaltet und durch Optimierung der Datenbank-Indizes deutlich mehr Performance rausholen können. Vielleicht könnte man dort, wo es Sinn macht, mit einer einfachen Browserweiche arbeiten?

    Antworten
  5. Sorry aber kann mir mal jemand sagen wovon Ihr da sprecht? Gibt es
    denn keine Seite mehr im Netz wo nicht ausschließlich von
    böhmischen Dörfern die Rede ist? Ich möchte doch bloß meine Seite
    so optimieren, damit ich von ein paar Leuten gefunden werde. Ich
    will doch nicht erst eine Professur in IT ablegen müssen. Gibt es
    denn keine Möglichkeit, ohne großen finanziellen Aufwand einen
    kleinen Handwerker zu unterstützen damit er sich wenigstens so
    halbwegs über Wasser halten kann und nicht dem Staat auf der Tasche
    liegen muß. Gibt es denn niemand der einfach nur helfen würde von
    Mensch zu Mensch?

    Antworten

Schreibe einen Kommentar