0251 / 590 837 15
info@a-coding-project.de

Meistbesuchten Websites = Schlecht entwickelte Websites?

Fehler

(c) gerald / Pixelio.de

Erschreckend: Die 15 meistbesuchtesten Websites haben sehr viele Fehler im Quellcode. Ist die Qualität des Quellcodes nicht mehr wichtig? Kann bald jeder so coden wie er will? Lese hier, wie die Websites abgeschnitten haben.

Die 15 Seiten, sind die die bei Alexa in den Top 15 für Deutschland sind. Alexa misst die Anzahl der Besucher und listet die dazugehörigen Seiten dann auf.

Platz bei Alexa Name Fehler Warnungen
1 Google.de 61 9
2 Google.com 65 8
3 YouTube.com 105 18
4 eBay.de 273 0
5 Wikipedia.org 0 0
6 Yahoo.com 34 8
7 Amazon.de 1905 145
8 Gmx.de 87 87
9 Facebook.com 36 6
10 Live.com 4 0
11 StudiVerzeichnis.com 1 0
12 Web.de 9 9
13 Wer-Kennt-Wen.de 6 6
14 Msn.com 0 0
15 Blogger.com 23 0

Wikipedia und Msn sind die einzigen Seiten der Top 15, die validen Code haben. Am schlechtesten Schnitt Amazon ab: 1905 Fehler im Code, das geht gar nicht.

Warum die Seiten schlechten Code haben

Meine Vermutung, warum diese Seiten schlechten Code haben, ist die, das die Seiten dadurch die Ladezeit verkürzen. Und da dem User die Qualität des Codes nicht interessiert, da er sie normalerweise nicht zu sehen bekommt, ist es ja schließlich auch nicht so wichtig wie der Code ist. Jedoch haben diese Seiten den Code in allen Browsern getestet und müssen zu guten Ergebnissen gekommen sein. Sie werden auch in Zukunft viel Arbeit haben, diesen an neue Browser anzupassen. Dies ist auch der Grund, warum ich Webmastern empfehle, den Code komplett richtig zu haben. Denn das ganze so zu testen, dass es überall passt ist sehr schwierig. Und wofür das Ganze nur für ein paar Hundertstel Sekunden? Die Ladezeit wird so oder so zum großen Teil besser bei sauberen Code, man muss also auch noch die passenden Abkürzungen finden. Das lohnt sich einfach nicht.

Verwandte Artikel