Черное SEO при ускорении сайтов

Занимаясь ускорением страниц сайта, есть соблазн заблокировать загрузку и обработку медленных ресурсов, например JavaScript или картинок.

Вы самостоятельно можете попробовать добавить отдельные файлы в robots.txt через Disallow: и проверить скорость сайта через PageSpeed. Результат вас удивит! Некоторые черные SEO-оптимизаторы взяли на вооружение этот способ ускорения сайта: поисковик не загружает запрещенные файлы, от чего скорость сайта только выигрывает.

Однако этот прием не приносит положительных результатов. Дело в том, что статистика скорости собирается также через браузер Хром, поэтому обмануть поисковик не удастся. Наоборот, без прогрузки необходимых элементов страница может "расползтись", что снизит ее качество для робота, плюс такая страница может перестать быть оптимизированной для мобильной версии в глазах поисковика.

Вот что пишет Google по этому поводу:

Блокировка JavaScript, CSS и графических файлов

Чтобы обеспечить правильное индексирование и отображение страниц, нужно предоставить роботу Googlebot доступ к JavaScript, CSS и графическим файлам на сайте. Робот Googlebot должен видеть ваш сайт как обычный пользователь. Если в файле robots.txt закрыт доступ к этим ресурсам, то Google не удастся правильно проанализировать и проиндексировать содержание. Это может ухудшить позиции вашего сайта в Поиске.

Правильными способами ускорения страниц являются, например, включение сжатия gzip и уменьшение размера изображений без потери качества.