199еместо

0

-1
+1

robots.txt для InstantMaps

Хочется robots.txt для InstantMaps в котором будут закрыты для индексации все дубли, все не нужные страницы. Например страницы "сравнения" - нечего делать в индексе. Много других не нужных страниц, которые "загрязняют" индекс поисковиков и из-за них теряется действительно нужный контент для индексации.

Павел Шумилов, 23.08.2012, 00:09
Статус идеи: ожидает рассмотрения

Комментарии

У идеи нет комментариев

Оставить комментарий