Уфа
Уфа
Москва
Россия
Адрес в Уфе:
ул. Зорге 11/1 корп.2, офис 408
пн–пт 8:45 – 17:45
обед 13:00 – 14:00
Адрес в Москве:
ул. Большие Каменщики, д. 1, офис 304
пн–пт 6:45 – 16:45
обед 13:00 – 14:00
- Главная
- Блог
- Видеоуроки по SEO
- Повлияет ли на индексацию поисковика переход по страничкам по фильтру на Ajax?
Повлияет ли на индексацию поисковика переход по страничкам по фильтру на Ajax?

Автор статьи
Андрей Буйлов
В данном материале разберем, как повлияет на индексацию поисковика, если на сайте переход по страницам, применение фильтров и другие элементы осуществляются через Ajax запросы. То есть многие элементы на сайте можно выводить динамически. И при клике по очередной ссылке не будет перезагружаться страничка на новом адресе, а прямо там контент подставится.
Почему не стоит использовать эту технологию
Если подобные динамические сайты полностью сделаны по такой технологии, то у них возникает огромное количество проблем, связанных с тем, что формально поисковики умеют с этим работать (с костылями, но умеют), однако по факту данные сайты продвигаются гораздо хуже. Даже когда все сделано так, как рекомендовали поисковики — с отрендеренными страницами на отдельных адресах с указанием, где этот адрес находится — все равно продвигаются плохо. Прежде всего потому, что поисковик не может применить к ним стандартные механизмы понимания, как ведут себя пользователи на сайте.
С этим же связаны и проблемы продвижения у тех ресурсов, которые не целиком на такой технологии, а на них подгружаются только отдельные элементы. То есть есть и обычные ссылки, но когда пользователь ходит по сайту, то ему динамически что-то выводится.
Поисковые системы до сих пор очень плохо это воспринимают: Google — чуть лучше, Яндекс — чуть хуже, но по факту это для них очень сложно. Даже если стоит счетчик, и браузер тот, который передает данные поисковику, все равно для него это непонятная, нестандартная система.
Вроде бы таких сайтов много, но на самом деле в общей массе всего интернета — маленькие доли процента, тысячные доли. Поэтому все стандартные механизмы у поисковиков «говорят», что такой сайт странный, и не дают ему трафик. Поэтому не рекомендуется любую внутреннюю навигацию, важные действия на сайте делать с помощью такой механики. Потому что поисковым системам, при всем их желании, увидеть это будет сложно.
В том числе поэтому такие агрегаторы, как «Юла», «Авито» и другие не используют эти технологии, а идут по классическому варианту, давая тем самым поисковым системам увидеть, что у них есть столько-то ассортимента, есть страницы, и пользователь по этим страницах ходит, смотрит столько-то из них. И на данный момент и еще на много лет вперед — это формула успеха, которую нужно продолжать использовать и масштабировать, пока поисковые системы не выйдет на новый уровень. Рано или поздно это произойдет, но не в ближайшие 3-5 лет.
