Google начал внедрение крупного обновления алгоритма поиска, которое может заметно повлиять на позиции сайтов в выдаче. Одновременно компания уточнила технические детали лимита сканирования страниц поисковым роботом, что важно для владельцев ресурсоёмких сайтов. Также зафиксирован резкий рост трафика с искусственного интеллекта Gemini — впервые он обогнал Perplexity по количеству переходов на сайты.

Обновление алгоритма поиска: сроки и последствия

Мартовское обновление — первое масштабное изменение алгоритма поиска Google в 2026 году. Его развёртывание займёт до двух недель, а изменения в позициях сайтов могут быть заметны вплоть до начала апреля. Google подчёркивает: обновление нацелено на повышение релевантности и удовлетворённости пользователей контентом, а не на борьбу со спамом — этим занималось отдельное обновление, завершившееся двумя днями ранее.

По словам представителя Google Джона Мюллера, такие апдейты внедряются поэтапно разными командами и системами, поэтому колебания в выдаче могут происходить волнами. Google рекомендует анализировать изменения только спустя неделю после завершения развёртывания и сравнивать показатели с периодом до 27 марта.

Лимит сканирования Googlebot: что важно знать

Гэри Иллайес из команды поиска Google подробно описал архитектуру сканирования: Googlebot — лишь один из клиентов централизованной платформы, через которую проходят также Shopping, AdSense и другие сервисы. Для поиска действует лимит — 2 мегабайта на одну страницу, включая заголовки HTTP. Весь контент сверх этого объёма не попадает в индекс, но ошибки при этом не возникает — поисковик просто обрезает страницу.

Это критично для сайтов с крупными изображениями, тяжёлым CSS или большим количеством встроенного JavaScript. Важно, чтобы ключевой контент и данные для индексации размещались в первых 2 мегабайтах ответа сервера.

Рост трафика с AI: Gemini обогнал Perplexity

По данным SE Ranking, трафик с Google Gemini на сайты вырос более чем вдвое за два месяца и впервые превысил аналогичный показатель у Perplexity. В январе Gemini обеспечил на 29% больше переходов по миру и на 41% — в США. Однако доля всех AI-платформ в общем интернет-трафике пока невелика — около 0,24%.

Вывод

Владельцам сайтов и SEO-специалистам стоит внимательно следить за изменениями позиций в поиске, оптимизировать размер страниц и учитывать новые источники трафика с AI-сервисов. Google стал прозрачнее в вопросах работы своих систем, а новые лимиты и тенденции могут повлиять на стратегию продвижения.

Совет эксперта Analito

Проверьте размер ключевых страниц сайта: убедитесь, что основное содержимое, важные тексты и структурированные данные размещены в первых 2 МБ ответа сервера.

После завершения развёртывания обновления алгоритма сравните показатели поискового трафика и позиций с данными до 27 марта — не делайте выводы раньше.

Добавьте отслеживание переходов с AI-платформ (Gemini, Perplexity, ChatGPT) в аналитику и мониторьте их вклад в общий трафик.

Частые вопросы

Как проверить, не превышает ли страница лимит в 2 МБ для Googlebot?

Скачайте HTML-код страницы с помощью браузера или curl и проверьте размер файла, включая заголовки HTTP.

Что делать, если сайт потерял позиции после обновления алгоритма?

Оцените качество и релевантность контента, сравните изменения с базовым периодом, дождитесь окончания развёртывания и при необходимости доработайте страницы.

Нужно ли срочно оптимизировать все страницы под лимит 2 МБ?

В первую очередь проверьте крупные страницы с большим количеством медиа или скриптов — для большинства сайтов стандартные страницы укладываются в лимит.