Вопрос по robots.txt

Тема в разделе "Общие вопросы SEO", создана пользователем stendapuss, 27.11.2012.

  1. Offline

    stendapuss Пользователь

    Регистрация:
    09.09.2011
    Сообщения:
    324
    Симпатии:
    4
    Пол:
    Мужской
    Вопрос по robots.txt.
    Страница сайта разбита на под страницы. Есть меню страницы. В этом меню в самом низу присутствует пункт все страницы. Открываются все под страницы сразу. Думаю этот пункт не должен индексироваться роботом. Или не так?
    Его адрес
    h ttp://сайт/uchebnie_rolikivideo?showall=1&limitstart=
    Как правильно прописать в robots.txt, чтоб поисковый робот не индексировал этот пункт меню?
    На странице h ttp://help.yandex.ru/webmaster/?id=996567
    ответ не нашел.
    Там написано как ограничить каталог, ведь 1&limitstart получается не каталог ?, нет разделения /, только разделение =
    Если прописать Disallow: /1&limitstart
    Будет не правильно?
    Или опять что то не дочитал
    Спасибо.
     
  2.  
  3. OlegM
    Offline

    OlegM Russian Joomla! Team Команда форума

    Регистрация:
    12.04.2007
    Сообщения:
    4 311
    Симпатии:
    375
    Пол:
    Мужской
    Не дочитал.

    Смотри пункт Использование спецсимволов "*" и "$"
    Правильно
    Код (CODE):
    1. Disallow: /*?showall=1&limitstart=

    или
    Код (CODE):
    1. Disallow: /*1&limitstart
     
  4. Offline

    stendapuss Пользователь

    Регистрация:
    09.09.2011
    Сообщения:
    324
    Симпатии:
    4
    Пол:
    Мужской
    спасибо, написал так
    Disallow: *1&limitstart

    Понял так:
    В данном случае слэш можно писать, а можно и не писать - правило от этого не изменится, так как каждая страница в своём адресе обязательно содержит этот символ.

    проверил яндексом, пишет запрещена в робот тхт.
    Значит правильно.
    Спасибо.
     
    Последнее редактирование: 29.11.2012
  5. Offline

    stendapuss Пользователь

    Регистрация:
    09.09.2011
    Сообщения:
    324
    Симпатии:
    4
    Пол:
    Мужской
    Вопрос, а надо ли закрывать?
    Дубли страниц это?
    Или все равно закрыть, чтоб робот время не убивал?
    Спасибо
     

Поделиться этой страницей

Загрузка...