Уфа
Как искусственный интеллект повлияет на SEO-продвижение сайтов
Подписчик спрашивает: «С появлением искусственного интеллекта и ChatGPT бытует мнение, что эти технологии будут встроены в поиск и сильно поменяется алгоритмы выдачи. Перестанут работать прежние SEO-техники. Хотелось бы узнать мнение специалиста по этому вопросу. Как повлияет искусственный интеллект на SEO?»
Что изменится в SEO-продвижении с развитием ИИ
То, что такие технологии будут встроены в поиск — это полбеды. Под них можно будет подстроиться и продолжать продвигать сайты. Другой вопрос — что поменяется? Уже сейчас изменилась стратегия и тактика работы по продвижению сайтов — неважно, в in-house, внутри команд или продвижение на заказ в виде фриланса или агентского SEO. Какие изменения нас могут ждать дальше?
1. Простые работы будет делать ИИ
Первое, что поменяется — простые работы также будет делать искусственный интеллект. Так как на стороне поисковых систем уже сейчас нейросети в значительной степени решают, какой сайт на какое место поставить, то и на стороне SEO-специалистов, владельцев площадок тоже будут выступать нейросети. Которые в будущем уже можно будет называть ИИ, то есть это будет вполне себе искусственный интеллект. Но к этому еще нужно прийти. И можно будет говорить о том, что это будет битва роботов, и человек здесь будет выступать в роли инженера или промт-инженера.
Промт-инженер — это человек, которые умеет создавать запросы для нейросети так, чтобы получить наилучший из возможных результат, соизмеримый или даже лучше по качеству, чем при работе реального живого человека. И уже сейчас это становится новой профессией.
Большую часть простых работ — таких как работа с текстами, ключевыми словами, объединение ключевых слов и много еще всего — будет делать нейросеть. Думаю, что со временем её можно будет научить делать и более сложные задачи, например такие, как аудиты сайтов. То есть она сама будет:
- анализировать панель Вебмастера, Search Console, Я.Метрику и Analytics;
- смотреть прошлую историю работы с этим проектом — как именно этот проект реагировал на постановку ссылок, на изменение текстов, на улучшение коммерческих факторов, улучшение юзабилити и т.д.
Сейчас пока такого она не может. Но в будущем, когда вы всю эту работу отдадите нейросети, то она вам сможет давать комплексную оценку: что вот такой-то сайт в поисковой системе (например, Яндекс) лучше всего реагирует вот на это и на это.
Пока вы это не можете спросить у ChatGPT или другой схожей системы, которая мало взаимодействует с внешним миром, а просто вобрала в себя много различной информации и из этого массива выбирает и выдает правильные, а часто и поддельные факты.
Так как любую нейросеть можно «кормить» дополнительными данными — то есть дообучать — то все пойдет в эту сторону. К примеру, уже сейчас можно дообучать существующие системы, подгружать в них свои данные, а можно свои нейросети создавать.
В общем, большую часть простых работ, которые сейчас делают так называемые junior seo-специалисты (иногда их называют «рутинщики»), будут делать нейросети. И заметная часть работ уже переходит на них.
2. Нейросеть возьмет на себя все виды работ, связанные с текстами
Если говорить про тексты и контент на сайте, то сейчас лучше всего для SEO-продвижения работает связка «копирайтер+редактор». Алгоритм работы на данный момент примерно такой:
- сеошник ставит задачу;
- редактор составляет задание для копирайтера, транслирует ему задачу;
- копирайтер выполняет работу и сдает;
- редактор проверяет на соответствие той задачи, которая ставилась, выявляет и исправляет ошибки;
- затем либо возвращает сеошнику на дополнительную проверку, либо сразу передает контент-менеджеру на размещение.
Но теперь, с развитием нейросети, порядок работы изменится, связка «копирайтер+редактор» сменится на:
- редактор, обученный создавать промты (запросы к нейросетям) + ИИ (вернее нейросети, которые для простоты пока назовем ИИ, хотя это не совсем так);
- и вот если нейросеть не справилась, то уже добавляется копирайтер, который может это все доработать.
3. Возрастет роль автоматизации в целом
Нейросети это, в сущности, сама по себе автоматизация. Поэтому владельцы сайтов гораздо большую отдачу будут получать не от того, что сеошник нашел какую-то ошибку и исправил, прописал ключевые слова и так далее. То есть если были какие-то серьезные ошибки, то от их исправления безусловно польза огромная. Но в большинстве случаев, когда к нам приходят сайты на продвижение, обычно это не новореги и над ними уже проведена какая-то работа, простые и очевидные ошибки исправлены. И с ними уже нужно поработать серьезнее, покопаться и посмотреть, почему этот сайт не растет или растет медленно.
И здесь можно пойти по стандартному пути — понемногу начать оптимизировать страницы сайта, создавать новые и т.д. А можно придумать схему или взять одну из уже отработанных, когда собираешь семантику на несколько тысяч ключевых слов (неважно, нейросетью или самостоятельно) и:
- либо в ручном режиме внедряешь ее на сайт и проектируешь новые страницы;
- либо придумываешь, какую задачу поставить программисту, чтобы он, используя такую-то и такую-то нейросеть, нагенерировал нужное;
- либо сгенерировать самому в какой-нибудь Google Таблице. Я показывал пример в одном из своих видео, как это можно сделать с помощью OpenAI (ChatGPT как раз их продукт).
Это довольно легко сделать уже сейчас — в табличке можно создать все метатеги (title, description, h1) для многих страниц вашего сайта — новых, старых, не важно. Точно так же можно нагенерить тексты. С картинками в этом отношении пока все сложно — особенно, если у вас товары, нейросети рисуют всякую ерунду. Но что касается наполнения текстовым контентом, особенно техническим текстовым контентом (title, description), то нейросеть уже решает эту задачу. И можно либо научить программиста с ней работать и напрямую забирать данные нейросети, либо сеошник сам генерирует в таблице, дает указание программисту занести полученные данные в базу, чтобы они выводились в нужном месте.
Таким образом, роль автоматизации растет и будет расти еще больше. И всем компаниями, которые работают с продвижением сайтов, нужно будет в этом направлении так или иначе двигаться.
4. Усилится проверка реального опыта и авторитета
У Google появилась дополнительная буква E (Expertise) в A-T-факторах (Authoritativeness и Trustworthiness). То есть добавилась проверка того, имеется ли реальный опыт в определенной теме у людей, которые пишут статьи. К примеру, если говорим про обзор продукта, действительно ли они им пользовались.
Уже сейчас опыт реальных людей учитывается в Яндексе и Google и будет учитываться еще больше. Потому что нейросети генерят огромное количество фейкового контента.
Если запрашивать на какие-то неочевидные вещи ответы у того же ChatGPT, то он заметную часть этого контента придумает. То есть информация будет далека от действительности, особенно, если это сложная тема. Поэтому поисковые системы, чтобы не утонуть в огромном количестве фейкового контента, массового сгенерированного таким образом, будут стараться больше проверять реальный опыт. То есть смотреть;
- на каком проекте вышла статья;
- проверяет ли этот проект какие-то факты;
- какой автор это написал? Есть ли у него другие хорошие статьи или он только начинает? А возможно это вообще фейковый автор?
Проверка подобных моментов будет усиливаться, потому что иначе уже через несколько лет интернет просто утонет в ненастоящем контенте, который не соответствует фактам, а просто придуман недостаточно умной нейросетью.
5. По коммерческим запросам возрастет учет силы бизнеса
Вырастет роль по коммерческим запросам «учет силы бизнеса». Уже сейчас Яндекс и Google стараются это учитывать: они берут сайты и смотрят, насколько он может удовлетворить коммерческую потребность пользователя, сможет ли тот купить или заказать у этой компании то, что ему нужно. Для того чтобы это понять, они рассматривают:
- брендовый трафик на сайт;
- как его упоминают на разных других сайтах;
- ссылки на него и т.д.
Поисковики будут стараться избавиться от подделки этих данных и не учитывать поддельные моменты. В целом они будут стараться усилить контроль, потому что уже сейчас нейросети умеют делать сайты целиком. Пока не лучшего качества, но выглядит правдоподобно, и это будет развиваться.
Я думаю, что в течение года появится еще пачка сервисов, которые будут делать сайты целиком, комплексно. Когда просто задаешь им некоторый набор данных на вход, к примеру, заливаешь свой ассортимент в таблице или еще что-то. А в наиболее утопичной модели он будет брать просто: «Сделай мне интернет-магазин сантехники, товары возьми такие же, как у этих и тех конкурентов» — и нейросеть всё соберет, и получится правдоподобно выглядящий интернет-магазин, сайт услуг или статейник.
И поисковым системам нужно будет как-то с этим разбираться. По информационным запросам он будет смотреть на авторитетность, опыт и т.д. А по коммерческим, прежде всего, на силу бизнеса. Если это какой-то новый стартап, то у поисковиков будет еще меньше повода, чем сейчас, доверять ему и сразу хорошо ранжировать.
Это то, что нас ждет в будущем. Это будет битва нейросетей (в будущем ИИ). Нам, как сео-специалистам нужно идти в ногу с необходимостью быть такими же умными, как поисковая система. То есть тоже использовать нейросети для того, чтобы продолжать в каких-то моментах жестко манипулировать поисковыми системами, а в каких-то подстраиваться под их алгоритмы, которыми управляют нейросети.