проблема: дупликация url из-за itemid и компонентво для читаемых url. цель создать файл роботс.тхт, исключающий возможность вычитывания гуглом множественных линков к одной цели. вот наработки: Disallow: /*?* - глобально убирает из индексации все динамические урлы. по отдельности: Код (CODE): User-agent: Googlebot Disallow: /*.php$ Disallow: /content/$ Disallow: /index2.php$ Disallow: /index.php$ Disallow: /*itemid* Disallow: /*view* Disallow: /*task* Disallow: /*id* Disallow: /*option=* Disallow: /*component* Disallow: /*letter* Disallow: /*threaded* Disallow: /*replyto* Disallow: /*catid* Disallow: /*func=* Disallow: /*bot.html$ Disallow: /*AdsManagerTab* дополняйте и исправляйте. ps: неясно, как убрать из индекса дублицированные при пагинации линки...
Ответ: правильный файл роботс.тхт Гум... в robots.txt работают маски : ) http://webmaster.yandex.ru/faq.xml?id=996583#specsymv Но я сильно подозреваю, что в гугле такое не проканает.