В рамках проекта «Давайте сделаем интернет быстрее», Google опубликовал некоторые статистические данные о размере, количестве ресурсов и других показателях страниц во Всемирной паутине. Некоторые статистические данные о ресурсах и страницах в WWW.
Данные собираются из выборки в несколько миллиардов веб-страниц в процессе индексации и просмотра поисковым роботом Google. При обработке страниц принимались во внимание не только основные страницы но также все доступные вложения, такие как картинки, скрипты и каскадные таблицы стилей.
Основные параметры страниц
- Средний размер веб-страницы 320 Кбайт (при передаче по сети)
- Лишь две трети из сжимаемых данных были достаточно сжаты
- 80% из всех страниц загружают от 10 и более своих ресурсов с одного сервера
- Наиболее популярные сайты могут ликвидировать более 8 http-запросов на страницу, если они объединяют все скрипты на одном и том же хосте в один и все таблицы стилей на одном хосте в одну.
Основные недостатки
- Все ресурсы обрабатывались Гуглботом, таким образом они могли попасть под ограничения robots.txt. Некоторые сайты (например BBC) блокируют CSS и JS.
- Некоторые сайты могут представлять разный набор ресурсов для Гуглбота и для обычных пользователей. Например до недавнего времени собственные серверы Google хранили CSS и JS несжатыми для Гуглбота, но сжимали их для обычных браузеров.
- Если ресурсы страницы на сервере отличаются для Internet Explorer или Firefox, то в WebKit они будут не видны.
- Отбор страниц для обработки не является равномерно случайным и беспристрастным. Например, страницы с более высоким значением PageRank гораздо чаще включались в эту выборку.
Таблицы
Таблицы не требуют перевода и самостоятельно проанализировать их можно на родительском ресурсе а именно по адресу http://code.google.com/intl/ru-RU/speed/articles/web-metrics.html
Добавить комментарий