Каждый алгоритм поисковых систем обладает определенным набором фильтров, которые применяются к сайтам в определенных случаях. Одним из таких фильтров системы «Яндекс» является фильтр за плохую структуру сайта. В тех ситуациях, когда он начинает работать против сайта, веб-ресурс, несмотря на наличие большого количества страниц в индексе, становится практически невидным в поисковой системе. Чаще всего от этого фильтра страдают интернет-магазины.
В том случае, когда сайт стал невидным из-за плохой структуры, вебмастеру нужно провести пересмотр структуры веб-ресурса. Главной целью в данном процессе является выявление дублей страниц. После нужно будет поставить запрет на присвоение им индекса. Данный процесс осуществляется благодаря изменениям в таком файле как robots.txt.
Изменение этого файла является весьма простым, как и большинство различных процессов. Некоторые из них могут быть связаны с электронными деньгами.
Страницами, которые могут повлечь действие вышеупомянутого фильтра, являются страницы сортировок товара, страницы печатной версии, результаты поиска и дубли, которые создают CMS в автоматическом порядке.
Для выхода из-под действия этого фильтра нужно поработать над уникализацией заголовков title, мета-тегов description, keywords. В той ситуации, когда для уникализации последних тегов нужно потратить очень много времени, то лучше их полностью удалить, нежели оставить такими как есть.