Google начал внедрение крупного обновления алгоритма поиска, которое может заметно повлиять на позиции сайтов в выдаче. Одновременно компания уточнила технические детали лимита сканирования страниц поисковым роботом, что важно для владельцев ресурсоёмких сайтов. Также зафиксирован резкий рост трафика с искусственного интеллекта Gemini — впервые он обогнал Perplexity по количеству переходов на сайты.
Обновление алгоритма поиска: сроки и последствия
Мартовское обновление — первое масштабное изменение алгоритма поиска Google в 2026 году. Его развёртывание займёт до двух недель, а изменения в позициях сайтов могут быть заметны вплоть до начала апреля. Google подчёркивает: обновление нацелено на повышение релевантности и удовлетворённости пользователей контентом, а не на борьбу со спамом — этим занималось отдельное обновление, завершившееся двумя днями ранее.
По словам представителя Google Джона Мюллера, такие апдейты внедряются поэтапно разными командами и системами, поэтому колебания в выдаче могут происходить волнами. Google рекомендует анализировать изменения только спустя неделю после завершения развёртывания и сравнивать показатели с периодом до 27 марта.
Лимит сканирования Googlebot: что важно знать
Гэри Иллайес из команды поиска Google подробно описал архитектуру сканирования: Googlebot — лишь один из клиентов централизованной платформы, через которую проходят также Shopping, AdSense и другие сервисы. Для поиска действует лимит — 2 мегабайта на одну страницу, включая заголовки HTTP. Весь контент сверх этого объёма не попадает в индекс, но ошибки при этом не возникает — поисковик просто обрезает страницу.
Это критично для сайтов с крупными изображениями, тяжёлым CSS или большим количеством встроенного JavaScript. Важно, чтобы ключевой контент и данные для индексации размещались в первых 2 мегабайтах ответа сервера.
Рост трафика с AI: Gemini обогнал Perplexity
По данным SE Ranking, трафик с Google Gemini на сайты вырос более чем вдвое за два месяца и впервые превысил аналогичный показатель у Perplexity. В январе Gemini обеспечил на 29% больше переходов по миру и на 41% — в США. Однако доля всех AI-платформ в общем интернет-трафике пока невелика — около 0,24%.
Вывод
Владельцам сайтов и SEO-специалистам стоит внимательно следить за изменениями позиций в поиске, оптимизировать размер страниц и учитывать новые источники трафика с AI-сервисов. Google стал прозрачнее в вопросах работы своих систем, а новые лимиты и тенденции могут повлиять на стратегию продвижения.
Проверьте размер ключевых страниц сайта: убедитесь, что основное содержимое, важные тексты и структурированные данные размещены в первых 2 МБ ответа сервера.
После завершения развёртывания обновления алгоритма сравните показатели поискового трафика и позиций с данными до 27 марта — не делайте выводы раньше.
Добавьте отслеживание переходов с AI-платформ (Gemini, Perplexity, ChatGPT) в аналитику и мониторьте их вклад в общий трафик.
Частые вопросы
Как проверить, не превышает ли страница лимит в 2 МБ для Googlebot?
Скачайте HTML-код страницы с помощью браузера или curl и проверьте размер файла, включая заголовки HTTP.
Что делать, если сайт потерял позиции после обновления алгоритма?
Оцените качество и релевантность контента, сравните изменения с базовым периодом, дождитесь окончания развёртывания и при необходимости доработайте страницы.
Нужно ли срочно оптимизировать все страницы под лимит 2 МБ?
В первую очередь проверьте крупные страницы с большим количеством медиа или скриптов — для большинства сайтов стандартные страницы укладываются в лимит.