200еместо

-1

-2
+1

robots.txt для InstantMaps

Хочется robots.txt для InstantMaps в котором будут закрыты для индексации все дубли, все не нужные страницы. Например страницы "сравнения" - нечего делать в индексе. Много других не нужных страниц, которые "загрязняют" индекс поисковиков и из-за них теряется действительно нужный контент для индексации.

Павел Шумилов, 23.08.2012, 01:09
Статус идеи: ожидает рассмотрения

Комментарии

У идеи нет комментариев

Оставить комментарий