Повлияет ли на индексацию поисковика переход по страничкам по фильтру на Ajax?

Андрей Буйлов

Автор статьи
Андрей Буйлов

Подробнее об авторе

В данном материале разберем, как повлияет на индексацию поисковика, если   на сайте переход по страницам, применение фильтров и другие элементы осуществляются через Ajax запросы. То есть многие элементы на сайте можно выводить динамически. И при клике по очередной ссылке не будет перезагружаться страничка на новом адресе, а прямо там контент подставится.

Почему не стоит использовать эту технологию

Если подобные динамические сайты полностью сделаны по такой технологии, то у них возникает огромное количество проблем, связанных с тем, что формально поисковики умеют с этим работать (с костылями, но умеют), однако по факту данные сайты продвигаются гораздо хуже. Даже когда все сделано так, как рекомендовали поисковики — с отрендеренными страницами на отдельных адресах с указанием, где этот адрес находится — все равно продвигаются плохо. Прежде всего потому, что поисковик не может применить к ним стандартные механизмы понимания, как ведут себя пользователи на сайте.

С этим же связаны и проблемы продвижения у тех ресурсов, которые не целиком на такой технологии, а на них подгружаются только отдельные элементы. То есть есть и обычные ссылки, но когда пользователь ходит по сайту, то ему динамически что-то выводится.

Поисковые системы до сих пор очень плохо это воспринимают: Google — чуть лучше, Яндекс — чуть хуже, но по факту это для них очень сложно. Даже если стоит счетчик, и браузер тот, который передает данные поисковику, все равно для него это непонятная, нестандартная система.

Вроде бы таких сайтов много, но на самом деле в общей массе всего интернета — маленькие доли процента, тысячные доли. Поэтому все стандартные механизмы у поисковиков «говорят», что такой сайт странный, и не дают ему трафик. Поэтому не рекомендуется любую внутреннюю навигацию, важные действия на сайте делать с помощью такой механики. Потому что поисковым системам, при всем их желании, увидеть это будет сложно.

В том числе поэтому такие агрегаторы, как «Юла», «Авито» и другие не используют эти технологии, а идут по классическому варианту, давая тем самым поисковым системам увидеть, что у них есть столько-то ассортимента, есть страницы, и пользователь по этим страницах ходит, смотрит столько-то из них. И на данный момент и еще на много лет вперед — это формула успеха, которую нужно продолжать использовать и масштабировать, пока поисковые системы не выйдет на новый уровень. Рано или поздно это произойдет, но не в ближайшие 3-5 лет.



Остались вопросы? Задавайте! Мы обязательно ответим.
Последние статьи