На сайте страница: http://www.сайт/retseptiprigotovlenie/soleniyakonservirovanie На ней под страница, меню справа: http://www.сайт/retseptiprigotovlenie/soleniyakonservirovanie?showall=&start=1 При добавление её в Sitemap, при проверке в Валидатор яндекса файлов Sitemap, валидатор пишет: Результаты проверки Произошла внутренняя ошибка. Попробуйте повторить попытку позже. Превышено время ожидания ответа. Ошибка в XML Строка 416: Неизвестное имя в конструкции &XXX;. Возможно не выполнено экранирование символа &. Нашел это : Дело в том, что в соответствии со стандартом ( http://www.sitemaps.org/ru/protocol.html#escaping ) в файле sitemap необходимо использовать маскирование определённых символов. В том числе и символа амерсанд. Таким образом, во всех ссылках & Вам необходимо заменить на & После того как сделаете это, подобных ошибок при анализе и обработке файла sitemap возникать не будет. Но была ссылка: http://сайт/retseptiprigotovlenie/supbor?showall=&start=1 сделать: http://сайт/retseptiprigotovlenie/supbor?showall=&start=1 Или что то еще прописать надо, знак какой то? если так как у меня, открывается другая страница. Если не чего не исправлять, какие будут последствия? Робот по ссылкам не пойдет или весь файл sitemap будет не действтительный. Ручками каждую не исправишь и адрес меняется. Как быть. Спасибо. Как робот не пойдет, если ссылки есть на сайте. Он же по ним ходит.
Советую через page weight, sitemap writer... sitemap.org и так далее... в общем вначале просканируйте весь сайт, потом проанализируйте, составьте правила для robots.txt, потом уже создайте sitemap.xml а валидатор на xmap и прочие часто ругается, через ПО и сервисы лучше делать.
Робот я сделал. Бесплатные проги не встречал, только SiteMap Generator, и то она после нескольких раз начала не все сканировать. На сервер не хочу ставить. Сейчас платным сервисом сделаю посмотрю что сделают. Да и переделывать надо будет его, как понял. Менять &
Напишите урл сделаю sitemap (если сайт не громадный, с учетом robots.txt) интересный момент с амперами.
h ttp://www.mani-mani-net.com Заказал на h ttp://htmlweb.ru/ , делает скрипт со вчера. Как понял 4000 страниц сделала, деньги кончались. Доплатил вроде до сканирует. Вечером посмотрим. неужели с амперами вопрос не у кого не вставал. По идее джомла ссылки у всех одинаковые делает. или нет ? там страниц примерно 5-6 тыс., делал прогой SiteMap Generator, перестал сканировать нормально. Наверно ограничение на запуски стоит. Винду на днях переставлю, посмотрю как сканировать будет. но не знаю все ли она делала, и по роботу её не писал, верней не всё. Сколько страниц с учетом робот.тхт получиться не знаю. Спасибо.
Вот Ваша карта сайта с учетом robots.txt делал целый сегодняшний день : Всего страниц: 13173 XML и HTML версия sitemap.xml sitemap.html можете проверить, где дубли у Вас страниц и не желательные и запретить их в robots.txt
СПАСИБО. тоже по моему страницы типа http://www.mani-mani-net.com/retseptiprigotovlenie/salat/6?showall=&start=2, не добавляет, вечером толком проверю. Все в основном шпарят почему то по адресам типа http://www.mani-mani-net.com/component/odudecard/ И Далее. По моему ручками надо делать, долго но надежно. Все проги все равно проверять надо,а это тоже время.
Зачем руками? это самоубийство. Мне нравится 2 проги: Sitemap Writer PRO и PageWeight. У Вас закрыт: components, но не категория component - поэтому такое вышло. (считай возможно дубли).
Если закрыть категория component страницы с картинками не будут в индексе, адреса component/odudecard/ и так далее. Там можно кое что закрыть еще, посмотрю. Проги все платные эти?
в robots можете через dissalow запретить и через allow разрешить отдельные папки. Ну эти да, по сути цены не кусаются покупаются навечно P.S. С Учетом, что вы платно делали sitemap и в будущем также предстоит делать.