Jump to content
RA.BY

Какой ИИ контент хорошо ранжируется в поисковых системах


MLrus

Recommended Posts

Использование нейронки прилично упрощает создание контента, но не всегда такой материал способен привлекать трафик. Как поисковые системы Google и Яндекс вообще относятся к AI-контенту, по каким принципам его ранжируют и что нужно сделать чтобы улучшить позиции страниц в выдаче? Об этом сегодня и поговорим.


 

Как AI-контент повлиял на трафик сайта: причины роста и падения

 

После появления чат-ботов типа ChatGPT и Claude, компании, как и многие агенства— запустили собственную контент-ферму. Команды подбирали ключевые запросы, формировали корректные промпты, массово генерировали ИИ-статьи для блога и создаваемые по шаблонам лендинги, практически не выполняя ручную вычитку.

 

Материалы были с низкой информативностью: много воды, слабая конкретика, часто переспам.Несмотря на это по формальным SEO-показателям тексты выглядели корректно: большой объем, хорошая структура, подзаголовков, прямые и разбавленные вхождения ключей. Даже такая стратегия действительно приносила результаты.

Ситуация изменилась в марте 2024 года после выхода обновления Google Helpful Content. Алгоритм начал жестко оценивать качество и пользу материалов, и в итоге трафик сайта снизился почти вдвое.

 

Почему произошёл обвал трафика

 

На что компании ссылались, причины падения позиций:

Google начал  жестко «штрафовать» сайты за использование AI-контента.
 

  • Быстрые публикации, было опубликовано много страниц с низкокачественными материалами.
     
  • пользователи не находили полезную информацию и сталкивались с большим количеством «воды».
     
  • переспам, тексты содержали избыточное количество ключевых слов.
     
  • Также сайты попали под фильтр из-за малополезного контента.

 

Как создавался этот контент

Для генерации использовали разные ИИ модели, например Claude AI.

Загружали в нейросеть качественные статьи конкурентов.
 

На их основе просила сформировать структуру будущего материала — outline.

Ставила задачу написать текст по каждому пункту плана.

Минимально вычитывала полученные фрагменты и объединяла их в единую статью.
 

Процесс выглядел логичным и визуально грамотным:
— была собрана и кластеризована семантика ядра.
— кластеры вручную распределили по страницам.
— для каждого блока подготовили подробную структуру с ключами, LSI.
— ИИ давали задачу писать по 2-4 смысловых блока за раз, чтобы упростить генерацию.

 

Производимые материалы соответствовали параметрам топовых статей: длина, структура, абзацы. Вхождений ключевых слов было больше нормы, но в рамках нормы — любые текстовые проверки показывали «зелёные» показатели.

В общем к СЕО и контенту претензий не было. Но главный недостаток — отсутствие реальной пользы для человека. Материалы создавались прежде всего для поисковых систем.

 

Почему это критично в текущих алгоритмах Google

 

Google ориентируется в первую очередь на пользовательский интент — на то, какое намерение стоит за поисковым запросом. Человек приходит на страницу с чёткой задачей: получить документ, найти ответ, увидеть таблицу, инструкцию, видео и т. д.

Именно интент определяет, какая информация должна быть на странице, чтобы она ранжировалась. Если текст не решает проблему пользователя, он автоматически становится не полезным — вне зависимости от того, создала ли его нейросеть или эксперт с ученой степенью.

 

Также если сайт открывается в разных профилях или агентство тестирует выдачу через разные браузеры, лучше использовать

Пожалуйста, войдите или зарегистрируйтесь для просмотра скрытого контента.
.  Чем точнее сайт соответствует ожиданиям аудитории в разных условиях, тем выше вероятность стабильного ранжирования.


 

Как вернуть трафик

 

Чтобы вернуть утраченный трафик, команды начали с переработки коммерческих страниц. Они были созданы с помощью ИИ и не проверялись из-за чего важные для пользователя сведения — стоимость услуг, примеры работ, ключевые преимущества — оказались спрятаны глубоко на странице, проще говоря клиент ничего дельного не видил. Контент переписали, убрали излишнюю «воду», усилили тематической лексикой, чтобы поисковая система точнее определяла релевантность запросам. Важные блоки перекинули к началу страницы, чтобы пользователь сразу видел ключевую информацию.

 

Повысили качество уже опубликованных статей. После появления более продвинутой модели Claude 3 Opus часть материалов сгенерировали заново, но на этот раз подключили живого редактора, который тщательно вычитывал тексты и приводил их в соответствие с человеческими ожиданиями. На страницах добавили контент, который интент посетителей, а не просто заполнял структуру.

 

Дополнительно провели очистку блога и удалили материалы которые больше не приносили никакой ценности.

В итоге уже через две недели сайты с такими изменениями вышели из-под фильтра Google Helpful Content, а поисковое ранжирование и трафик полностью восстановились. 

 

Итог

 

Если страница не отвечает на запрос, она не будет считаться ценной, независимо от формального качества.

Важно учитывать, что Google оценивает не только конкретную страницу, но и сайт в целом. Если на домене мусор большого объема слабых материалов, отдельные качественные статьи будут проигрывать более сильным конкурентам.

Также не рекомендуется создавать страницы под запросы, которые пользователь решает за несколько секунд: быстрее визиты негативно влияют на поведенческие факторы и ухудшают позиции сайта в выдаче.

Link to comment
Share on other sites

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...