Как искусственный интеллект повлияет на SEO-продвижение сайтов

Андрей Буйлов

Автор статьи
Андрей Буйлов

Подробнее об авторе

Подписчик спрашивает: «С появлением искусственного интеллекта и ChatGPT бытует мнение, что эти технологии будут встроены в поиск и сильно поменяется алгоритмы выдачи. Перестанут работать прежние SEO-техники. Хотелось бы узнать мнение специалиста по этому вопросу. Как повлияет искусственный интеллект на SEO?»

Что изменится в SEO-продвижении с развитием ИИ

То, что такие технологии будут встроены в поиск — это полбеды. Под них можно будет подстроиться и продолжать продвигать сайты. Другой вопрос — что поменяется? Уже сейчас изменилась стратегия и тактика работы по продвижению сайтов — неважно, в in-house, внутри команд или продвижение на заказ в виде фриланса или агентского SEO. Какие изменения нас могут ждать дальше?

1. Простые работы будет делать ИИ

Первое, что поменяется — простые работы также будет делать искусственный интеллект. Так как на стороне поисковых систем уже сейчас нейросети в значительной степени решают, какой сайт на какое место поставить, то и на стороне SEO-специалистов, владельцев площадок тоже будут выступать нейросети. Которые в будущем уже можно будет называть ИИ, то есть это будет вполне себе искусственный интеллект. Но к этому еще нужно прийти. И можно будет говорить о том, что это будет битва роботов, и человек здесь будет выступать в роли инженера или промт-инженера.

Промт-инженер — это человек, которые умеет создавать запросы для нейросети так, чтобы получить наилучший из возможных результат, соизмеримый или даже лучше по качеству, чем при работе реального живого человека. И уже сейчас это становится новой профессией.

Большую часть простых работ — таких как работа с текстами, ключевыми словами, объединение ключевых слов и много еще всего — будет делать нейросеть. Думаю, что со временем её можно будет научить делать и более сложные задачи, например такие, как аудиты сайтов. То есть она сама будет:

  • анализировать панель Вебмастера, Search Console, Я.Метрику и Analytics;
  • смотреть прошлую историю работы с этим проектом — как именно этот проект реагировал на постановку ссылок, на изменение текстов, на улучшение коммерческих факторов, улучшение юзабилити и т.д.

Сейчас пока такого она не может. Но в будущем, когда вы всю эту работу отдадите нейросети, то она вам сможет давать комплексную оценку: что вот такой-то сайт в поисковой системе (например, Яндекс) лучше всего реагирует вот на это и на это.

Пока вы это не можете спросить у ChatGPT или другой схожей системы, которая мало взаимодействует с внешним миром, а просто вобрала в себя много различной информации и из этого массива выбирает и выдает правильные, а часто и поддельные факты.

Так как любую нейросеть можно «кормить» дополнительными данными — то есть дообучать — то все пойдет в эту сторону. К примеру, уже сейчас можно дообучать существующие системы, подгружать в них свои данные, а можно свои нейросети создавать.

В общем, большую часть простых работ, которые сейчас делают так называемые junior seo-специалисты (иногда их называют «рутинщики»), будут делать нейросети. И заметная часть работ уже переходит на них.

2. Нейросеть возьмет на себя все виды работ, связанные с текстами

Если говорить про тексты и контент на сайте, то сейчас лучше всего для SEO-продвижения работает связка «копирайтер+редактор». Алгоритм работы на данный момент примерно такой:

  • сеошник ставит задачу;
  • редактор составляет задание для копирайтера, транслирует ему задачу;
  • копирайтер выполняет работу и сдает;
  • редактор проверяет на соответствие той задачи, которая ставилась, выявляет и исправляет ошибки;
  • затем либо возвращает сеошнику на дополнительную проверку, либо сразу передает контент-менеджеру на размещение.

Но теперь, с развитием нейросети, порядок работы изменится, связка «копирайтер+редактор» сменится на:

  • редактор, обученный создавать промты (запросы к нейросетям) + ИИ (вернее нейросети, которые для простоты пока назовем ИИ, хотя это не совсем так);
  • и вот если нейросеть не справилась, то уже добавляется копирайтер, который может это все доработать. 

3. Возрастет роль автоматизации в целом

Нейросети это, в сущности, сама по себе автоматизация. Поэтому владельцы сайтов гораздо большую отдачу будут получать не от того, что сеошник нашел какую-то ошибку и исправил, прописал ключевые слова и так далее. То есть если были какие-то серьезные ошибки, то от их исправления безусловно польза огромная. Но в большинстве случаев, когда к нам приходят сайты на продвижение, обычно это не новореги и над ними уже проведена какая-то работа, простые и очевидные ошибки исправлены. И с ними уже нужно поработать серьезнее, покопаться и посмотреть, почему этот сайт не растет или растет медленно.

И здесь можно пойти по стандартному пути — понемногу начать оптимизировать страницы сайта, создавать новые и т.д. А можно придумать схему или взять одну из уже отработанных, когда собираешь семантику на несколько тысяч ключевых слов (неважно, нейросетью или самостоятельно) и:

  • либо в ручном режиме внедряешь ее на сайт и проектируешь новые страницы;
  • либо придумываешь, какую задачу поставить программисту, чтобы он, используя такую-то и такую-то нейросеть, нагенерировал нужное;
  • либо сгенерировать самому в какой-нибудь Google Таблице. Я показывал пример в одном из своих видео, как это можно сделать с помощью OpenAI (ChatGPT как раз их продукт).

Это довольно легко сделать уже сейчас — в табличке можно создать все метатеги (title, description, h1) для многих страниц вашего сайта — новых, старых, не важно. Точно так же можно нагенерить тексты. С картинками в этом отношении пока все сложно — особенно, если у вас товары, нейросети рисуют всякую ерунду. Но что касается наполнения текстовым контентом, особенно техническим текстовым контентом (title, description), то нейросеть уже решает эту задачу. И можно либо научить программиста с ней работать и напрямую забирать данные нейросети, либо сеошник сам генерирует в таблице, дает указание программисту занести полученные данные в базу, чтобы они выводились в нужном месте.

Таким образом, роль автоматизации растет и будет расти еще больше. И всем компаниями, которые работают с продвижением сайтов, нужно будет в этом направлении так или иначе двигаться.

4. Усилится проверка реального опыта и авторитета

У Google появилась дополнительная буква E (Expertise) в A-T-факторах (Authoritativeness и Trustworthiness). То есть добавилась проверка того, имеется ли реальный опыт в определенной теме у людей, которые пишут статьи. К примеру, если говорим про обзор продукта, действительно ли они им пользовались.

Уже сейчас опыт реальных людей учитывается в Яндексе и Google и будет учитываться еще больше. Потому что нейросети генерят огромное количество фейкового контента. 

Если запрашивать на какие-то неочевидные вещи ответы у того же ChatGPT, то он заметную часть этого контента придумает. То есть информация будет далека от действительности, особенно, если это сложная тема. Поэтому поисковые системы, чтобы не утонуть в огромном количестве фейкового контента, массового сгенерированного таким образом, будут стараться больше проверять реальный опыт. То есть смотреть;

  • на каком проекте вышла статья;
  • проверяет ли этот проект какие-то факты;
  • какой автор это написал? Есть ли у него другие хорошие статьи или он только начинает? А возможно это вообще фейковый автор?

Проверка подобных моментов будет усиливаться, потому что иначе уже через несколько лет интернет просто утонет в ненастоящем контенте, который не соответствует фактам, а просто придуман недостаточно умной нейросетью.

5. По коммерческим запросам возрастет учет силы бизнеса

Вырастет роль по коммерческим запросам «учет силы бизнеса». Уже сейчас Яндекс и Google стараются это учитывать: они берут сайты и смотрят, насколько он может удовлетворить коммерческую потребность пользователя, сможет ли тот купить или заказать у этой компании то, что ему нужно. Для того чтобы это понять, они рассматривают:

  • брендовый трафик на сайт;
  • как его упоминают на разных других сайтах;
  • ссылки на него и т.д. 

Поисковики будут стараться избавиться от подделки этих данных и не учитывать поддельные моменты. В целом они будут стараться усилить контроль, потому что уже сейчас нейросети умеют делать сайты целиком. Пока не лучшего качества, но выглядит правдоподобно, и это будет развиваться.

Я думаю, что в течение года появится еще пачка сервисов, которые будут делать сайты целиком, комплексно. Когда просто задаешь им некоторый набор данных на вход, к примеру, заливаешь свой ассортимент в таблице или еще что-то. А в наиболее утопичной модели он будет брать просто: «Сделай мне интернет-магазин сантехники, товары возьми такие же, как у этих и тех конкурентов» — и нейросеть всё соберет, и получится правдоподобно выглядящий интернет-магазин, сайт услуг или статейник.

И поисковым системам нужно будет как-то с этим разбираться. По информационным запросам он будет смотреть на авторитетность, опыт и т.д. А по коммерческим, прежде всего, на силу бизнеса. Если это какой-то новый стартап, то у поисковиков будет еще меньше повода, чем сейчас, доверять ему и сразу хорошо ранжировать.

Это то, что нас ждет в будущем. Это будет битва нейросетей (в будущем ИИ). Нам, как сео-специалистам нужно идти в ногу с необходимостью быть такими же умными, как поисковая система. То есть тоже использовать нейросети для того, чтобы продолжать в каких-то моментах жестко манипулировать поисковыми системами, а в каких-то подстраиваться под их алгоритмы, которыми управляют нейросети.



Остались вопросы? Задавайте! Мы обязательно ответим.
Последние статьи