SEO-аудит сайта: полный чек-лист на 2026 год
SEO-аудит сайта -- это не разовая процедура, а регулярная диагностика, без которой даже качественный проект теряет позиции. Алгоритмы Google и Яндекса меняются каждый квартал, и то, что работало в 2024 году, в 2026-м может тянуть сайт на дно. В этом руководстве мы собрали полный чек-лист из 50+ пунктов проверки, сгруппированных по шести категориям: техническое SEO, Core Web Vitals, On-page SEO, контент, ссылочный профиль и AI Readiness.
Если вы владелец сайта, маркетолог или SEO-специалист -- сохраните эту статью в закладки. Она заменит десяток разрозненных инструкций.
Когда и зачем проводить SEO-аудит
Проводить аудит стоит минимум раз в квартал, а также после каждого крупного обновления сайта: редизайна, миграции, смены CMS или массового добавления контента. Вот ситуации, когда аудит нужен срочно:
- Органический трафик падает более двух недель подряд
- Google Search Console показывает рост ошибок сканирования
- Сайт попал под ручные санкции (уведомление в GSC)
- Вы запускаете новый раздел или языковую версию
- Конкуренты обогнали вас по ключевым запросам
Цель аудита -- найти технические ошибки, проблемы с контентом и упущенные возможности, которые мешают поисковым системам правильно индексировать и ранжировать ваш сайт.
1. Техническое SEO
Техническая основа -- это фундамент. Если поисковый робот не может нормально просканировать и проиндексировать страницы, никакой контент не спасёт.
1.1. robots.txt
- Файл доступен по адресу
https://вашсайт.ru/robots.txt - Не блокируйте CSS, JS и изображения -- Googlebot должен рендерить страницу целиком
- Убедитесь, что директива
Sitemap:указывает на актуальную карту сайта - Проверьте, что важные разделы не закрыты случайным
Disallow - Помните: robots.txt -- это не инструмент безопасности, а рекомендация для ботов
1.2. XML Sitemap
- Sitemap содержит только канонические URL со статусом 200
- Размер не превышает 50 000 URL или 50 МБ (иначе используйте индексный файл)
- Дата
<lastmod>соответствует реальной дате последнего изменения страницы - Sitemap отправлен в Google Search Console и Яндекс.Вебмастер
- Нет URL с редиректами, 404 или noindex
1.3. HTTPS и безопасность
- Все страницы работают по HTTPS (не HTTP)
- Сертификат SSL валиден и не истекает в ближайшие 30 дней
- Нет mixed content (HTTP-ресурсы на HTTPS-странице)
- Настроен HSTS-заголовок для принудительного HTTPS
- HTTP-версия делает 301-редирект на HTTPS
1.4. Канонические URL
- На каждой странице есть тег
<link rel="canonical"> - Каноникал указывает на предпочтительную версию URL (без дублей с
www, со слешем или без) - Канонические URL совпадают с URL в sitemap
- Страницы пагинации не канонизированы на первую страницу (если каждая страница имеет уникальный контент)
1.5. Редиректы
- Нет цепочек редиректов (A → B → C -- должно быть A → C)
- Используются 301-редиректы (постоянные), а не 302 (временные), если перенос окончательный
- Все старые URL после редизайна перенаправлены на релевантные новые страницы
- Нет редиректов на страницы, которые сами редиректят
1.6. Ответы сервера и ошибки
- Нет страниц со статусом 404, на которые ведут внутренние ссылки (битые ссылки)
- Страница 404 кастомная, содержит навигацию и ссылку на главную
- Время ответа сервера (TTFB) менее 600 мс
- Нет ошибок 5xx в логах сервера за последние 7 дней
- Сервер возвращает корректный статус 200 для существующих страниц
1.7. Индексация
- Проверьте покрытие в Google Search Console: сколько страниц проиндексировано vs. исключено
- Нет случайных тегов
<meta name="robots" content="noindex"> - Нет заголовка
X-Robots-Tag: noindexна важных страницах - JavaScript-контент рендерится корректно (проверьте через «Просмотр отрендеренной страницы» в GSC)
2. Core Web Vitals
С 2024 года Google использует обновлённый набор метрик. В 2026-м они остаются ключевым фактором ранжирования в блоке Page Experience.
2.1. LCP (Largest Contentful Paint)
Цель: менее 2,5 секунды.
- Оптимизируйте главное изображение: WebP/AVIF, правильные размеры,
fetchpriority="high" - Используйте CDN для статики
- Устраните render-blocking CSS и JS
- Настройте серверный кэш и предзагрузку критических ресурсов
- Используйте
<link rel="preload">для LCP-изображения
2.2. INP (Interaction to Next Paint)
Цель: менее 200 мс. INP заменил FID в марте 2024 и измеряет отзывчивость на протяжении всего визита, а не только первого клика.
- Разбивайте длинные задачи JavaScript на чанки через
requestIdleCallbackилиscheduler.yield() - Минимизируйте и отложите сторонние скрипты (аналитика, чаты, виджеты)
- Избегайте layout thrashing: не чередуйте чтение и запись DOM
- Используйте
content-visibility: autoдля тяжёлых секций ниже видимой области
2.3. CLS (Cumulative Layout Shift)
Цель: менее 0,1.
- Задавайте размеры для всех изображений и видео (
width,heightилиaspect-ratio) - Зарезервируйте место под рекламные блоки
- Не вставляйте контент выше видимой области после загрузки
- Используйте
font-display: swapс предзагрузкой шрифтов, чтобы избежать FOIT/FOUT
3. On-page SEO
On-page оптимизация -- это то, что вы контролируете напрямую: теги, заголовки, внутренние ссылки.
3.1. Title и Description
- Каждая страница имеет уникальный
<title>длиной 50-60 символов - Каждая страница имеет уникальный
<meta name="description">длиной 140-160 символов - Целевое ключевое слово присутствует в title (ближе к началу)
- Description содержит призыв к действию и отражает содержимое страницы
3.2. Заголовки H1-H6
- На каждой странице ровно один
<h1>, соответствующий теме страницы - Заголовки используются иерархически: H2 → H3 → H4 (не пропуская уровни)
- Ключевые слова и их синонимы распределены по заголовкам естественно
- Заголовки помогают сканировать текст глазами (не «Введение», а конкретный тезис)
3.3. Alt-теги изображений
- Каждое информативное изображение имеет осмысленный
alt - Alt описывает содержимое изображения, а не набит ключевыми словами
- Декоративные изображения имеют пустой
alt=""(не отсутствующий, а именно пустой) - Имена файлов изображений содержат описательные слова через дефис
3.4. Внутренняя перелинковка
- Каждая важная страница доступна не более чем в 3 клика от главной
- Анкоры внутренних ссылок содержат описательный текст (не «тут» и не «подробнее»)
- На сайте нет страниц-сирот (без единой внутренней ссылки)
- Хлебные крошки реализованы и размечены с помощью Schema.org BreadcrumbList
3.5. URL-структура
- URL короткие, читабельные, содержат ключевые слова
- Используются дефисы (не подчёркивания)
- Нет параметров сессий, UTM-меток или ID в канонических URL
- Структура URL отражает иерархию сайта
4. Контент
Контент -- это то, ради чего поисковые системы существуют. В 2026 году критерии качества контента стали строже, чем когда-либо.
4.1. Дублированный контент
- Нет полных дубликатов страниц (проверьте через Screaming Frog или Sitebulb)
- Нет near-duplicate страниц с различием менее 15% текста
- Печатные версии, AMP-версии и языковые дубли закрыты каноникалами или hreflang
- Фильтрация и сортировка каталога не создаёт тысячи индексируемых дублей
4.2. Thin Content
- Нет страниц с менее чем 300 словами полезного текста (кроме контактов и подобных служебных)
- Страницы категорий содержат вводный текст, а не только список товаров
- Каждая страница решает конкретную задачу пользователя (search intent)
4.3. E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness)
E-E-A-T -- не фактор ранжирования напрямую, но определяет, как quality raters оценивают сайт, а алгоритмы обучаются на этих оценках.
- Указан автор статей с биографией и ссылками на профессиональные профили
- Есть страницы «О компании» и «Контакты» с реальными данными
- Контент подкреплён ссылками на авторитетные источники
- Для YMYL-тематик (здоровье, финансы) авторы имеют подтверждённую экспертизу
- На сайте есть отзывы, кейсы, сертификаты, упоминания в СМИ
- Контент регулярно обновляется (даты публикации и обновления видны)
4.4. Актуальность и freshness
- Статьи со старыми датами обновлены, если информация устарела
- Удалены или объединены страницы, потерявшие актуальность
- На ключевых страницах указана дата последнего обновления
5. Ссылочный профиль
Внешние ссылки остаются одним из трёх главных факторов ранжирования в Google. Но в 2026 году качество важнее количества как никогда.
5.1. Анализ бэклинков
- Проверьте общее количество ссылающихся доменов (Ahrefs, SEMrush, Serpstat)
- Оцените динамику: растёт ли число бэклинков органически или были резкие скачки
- Проверьте, с каких страниц идут ссылки -- они должны быть тематически релевантны
- Соотношение dofollow/nofollow выглядит естественно (обычно 60-80% dofollow)
5.2. Анкорный профиль
- Нет переоптимизации: доля точных вхождений коммерческих анкоров не превышает 5-10%
- Большинство анкоров -- брендовые, URL или естественные фразы
- Нет спамных анкоров на языках, не связанных с вашим сайтом
5.3. Токсичные ссылки
- Выгрузите список бэклинков и проверьте на токсичность (Ahrefs, SEMrush Backlink Audit)
- Ссылки с порно-сайтов, казино, дорвеев и PBN -- кандидаты на Disavow
- Подготовьте файл Disavow и отправьте через Google Search Console, если токсичных ссылок больше 5% от общего профиля
- Мониторьте появление новых токсичных ссылок ежемесячно
5.4. Упущенные возможности
- Найдите страницы конкурентов, которые ссылаются на устаревшие ресурсы в вашей нише -- предложите свой контент взамен (broken link building)
- Ищите unlinked brand mentions и просите поставить ссылку
- Создавайте linkable assets: исследования, калькуляторы, инфографики
6. AI Readiness -- новый блок в 2026 году
Поисковые системы активно интегрируют AI: Google AI Overviews, Yandex Нейро, Bing Copilot, SearchGPT. Чтобы ваш контент попадал в AI-ответы, нужны дополнительные шаги.
6.1. llms.txt
Файл llms.txt -- новый стандарт, который помогает LLM-моделям понять структуру вашего сайта. Он размещается в корне домена (аналогично robots.txt) и содержит краткое описание сайта, ключевые разделы и ссылки на основные страницы.
- Создайте файл
https://вашсайт.ru/llms.txt - Укажите название проекта, краткое описание, основные разделы
- Перечислите ключевые URL с аннотациями
- Обновляйте файл при добавлении новых важных разделов
6.2. Schema.org (структурированные данные)
Структурированные данные помогают и поисковикам, и AI-системам извлекать факты из ваших страниц.
- Используйте JSON-LD формат (рекомендация Google)
- Разметьте Organization, WebSite, BreadcrumbList как минимум
- Для статей: Article или BlogPosting с author, datePublished, dateModified
- Для услуг: Service, Offer, AggregateRating
- Для FAQ: FAQPage -- повышает шанс попадания в AI Overviews
- Проверяйте разметку через Rich Results Test и Schema Markup Validator
6.3. FAQ Schema
FAQ-разметка -- один из самых эффективных способов попасть в расширенные сниппеты и AI-ответы.
- Добавьте блок FAQ на ключевые страницы (3-7 вопросов)
- Вопросы должны совпадать с реальными запросами пользователей (проверьте через «Люди также спрашивают» в Google)
- Разметьте FAQPage через JSON-LD
- Ответы должны быть полными, но компактными (40-60 слов)
6.4. Оптимизация для AI-цитирования
- Пишите чёткие, фактологические ответы на конкретные вопросы в первых абзацах
- Используйте списки и таблицы -- AI-модели извлекают из них данные эффективнее
- Указывайте источники и даты -- это повышает доверие модели к вашему контенту
- Создавайте контент, который отвечает на вопросы «что», «как», «почему», «сколько»
Как провести аудит: пошаговый план
-
Сканирование сайта. Используйте Screaming Frog, Sitebulb или CheckSEO для полного краулинга. Это даст список всех URL, заголовков, статусов, канонических тегов и мета-тегов.
-
Google Search Console. Проверьте отчёт «Страницы» -- там видны все ошибки индексации. Отчёт «Основные интернет-показатели» покажет проблемы с Core Web Vitals.
-
PageSpeed Insights. Проверьте 5-10 ключевых страниц. Обращайте внимание на полевые данные (CrUX), а не только лабораторные.
-
Анализ контента. Выгрузите все страницы и проверьте на дубликаты, thin content, отсутствующие мета-теги. Оцените соответствие search intent.
-
Ссылочный профиль. Выгрузите бэклинки через Ahrefs или Semrush. Проверьте анкоры, токсичные ссылки, динамику роста.
-
AI Readiness. Проверьте наличие llms.txt, Schema.org разметки, FAQ-блоков. Протестируйте, появляется ли ваш сайт в AI-ответах по целевым запросам.
-
Приоритизация. Разбейте найденные проблемы на три группы: критические (блокируют индексацию), важные (влияют на ранжирование), желательные (улучшают UX). Исправляйте в этом порядке.
Автоматизация SEO-аудита
Ручной аудит по чек-листу из 50+ пунктов занимает от 4 до 8 часов для среднего сайта. Для сайтов с тысячами страниц это может растянуться на дни. Поэтому разумно автоматизировать рутинные проверки.
CheckSEO проводит автоматический SEO-аудит за 30 секунд: проверяет техническое SEO, мета-теги, Core Web Vitals, структурированные данные и AI Readiness. Вы получаете отчёт с конкретными рекомендациями и приоритетами -- без необходимости разбираться в десятках инструментов.
Автоматический аудит не заменяет экспертный анализ контента и ссылочного профиля, но закрывает 70-80% технических проверок и экономит часы работы.
Заключение
SEO-аудит в 2026 году -- это не только про robots.txt и мета-теги. Это комплексная проверка шести направлений: техническое SEO, Core Web Vitals, On-page оптимизация, качество контента, ссылочный профиль и AI Readiness. Последний пункт -- новинка, которую большинство сайтов пока игнорирует, а значит, это ваше конкурентное преимущество.
Сохраните этот чек-лист и проходите по нему хотя бы раз в квартал. А для быстрой проверки между полными аудитами используйте CheckSEO -- бесплатный мгновенный аудит, который покажет критические проблемы за секунды.
Источники
- Google Search Console — основной инструмент анализа индексации
- Core Web Vitals — web.dev
- LCP — web.dev
- INP — web.dev
- CLS — web.dev
- Sitemaps — Google Search Central
- Канонические URL — Google
- E-E-A-T и полезный контент — Google
- Руководство для асессоров Google (PDF)
- PageSpeed Insights
- Screaming Frog SEO Spider
- Структурированные данные — Google
- Rich Results Test
- Яндекс.Вебмастер