Google hat einen Bericht über Webseitenstatistiken veröffentlicht, der auf den 4,2 Milliarden von ihnen indizierten Webseiten basiert (Websites mit hohem PageRank haben möglicherweise eine höhere Gewichtung):
* Die durchschnittliche Kapazität einer Webseite beträgt 320 KB (einschließlich in die Webseite eingebetteter Skripte, Bilder und CSS). Es ist jedoch zu beachten, dass einige Websites Google-Crawler daran hindern, CSS- und JS-Skriptdateien über robots.txt abzurufen.
* Nur 2/3 der komprimierbaren Inhalte sind tatsächlich komprimiert. Es ist auch wichtig zu beachten, dass einige Websites komprimierte Inhalte für echte Browser, aber unkomprimiert für Google-Crawler bereitstellen.
* 80 % der Seiten enthalten 10 oder mehr Materialien vom gleichen Anbieter
* Die meisten gängigen Websites schreiben Skripte und CSS, die auf demselben Host gespeichert sind, nicht zusammen, was zu 8 weiteren HTTP-Anfragen führt
* Die Anzahl der auf jeder Webseite enthaltenen Bilder beträgt 29,39, was einer Größe von 205,99 KB entspricht
* Jede Webseite enthält 7,09 externe Skripte und 3,22 externe CSS. Die durchschnittliche Skriptgröße beträgt 57,98 KB und CSS beträgt 18,72 KB.
* Nur 17 Millionen Webseiten verwenden SSL-Verschlüsselung, was 0,4 % der Gesamtzahl ausmacht
* Die durchschnittliche Seitenladegeschwindigkeit beträgt 4,9 Sekunden und erfordert Anfragen von 49 verschiedenen Quellen
Der Schritt von Google besteht darin, die Aufmerksamkeit aller auf die Optimierung der Lesegeschwindigkeit von Webseiten zu lenken. Sie haben viele Hilfestellungen für Webentwickler bereitgestellt, um die Effizienz zu verbessern. Es gibt vier Hauptvorschläge von Google:
Komprimieren Sie Seiten mit Gzip. Optimieren Sie den JavaScript-Code mithilfe von HTTP-Caching. Führen Sie Skripte und CSS zusammen
Über GOS