Народ, я знаю что мне надо создать карту сайта но не знаю как, в интернете куча всяких способов создания карты сайта, но в 100%-ной достоверности их я не уверен, так что пожалуйста скажите как и каким способом лучше сделать мне карту сайта вот на этот сайт: news-gameworld.ru
Если страниц много, Х-мап не подойдёт, потому как она генерит простыню - не всегда удобно когда на странице несколько тысяч ссылок. Лучше юзать SEF Service Map. Она умеет разбивать генерить страницы по 20-100 ссылок, xml по тысяче, умеет пинговать поисковики, кэш может храниться в БД, а может на хосте. На голую Жумлу встаёт на ура, под компонеты надо ставить плагины, коих овер 9000.
А можно в роботе прописать такой XML карты сайта? http://news-gameworld.ru/index.php?option=com_xmap&sitemap=1&view=xml не за длинный ли он?
А можно в роботе прописать такой XML карты сайта? http://news-gameworld.ru/index.php?option=com_xmap&sitemap=1&view=xml не за длинный ли он?
Я имею в виду в robot.txt можно прописать вот такое?)) Sitemap: http://news-gameworld.ru/index.php?option=com_xmap&sitemap=1&view=xml ?
1. Значит такое http://news-gameworld.ru/index.php?option=com_xmap&sitemap=1&view=xml лучше в робот.тхт лучше не кидать?), какже само как и в панеле вебмастера гугл, и яшу карту сайта тоже такую не кидать?)) 2. Кстати, я не могу понять, у меня тут http://news-gameworld.ru/index.php?option=com_xmap&sitemap=1&view=xml 100 страниц а яша только 60 проиндоксировал, почему?
Да. Лучше не кидать, если варианта нет то можно.... если бы все страницы из карты сайта брал и индексировал.... Уважаемый вы озы ПС знаете?)) в общем это все стандарты и рекомендации. А от того, попадет ли страница в индекс - все зависит от контента (материала) на сайте.
1. Тоесть все страницы сайта полюбому ПС даже с .XML формате карты сайта не проиндексирует? 2. А почему ПС не могут сразу все страницы ПС проиндексировать?, или я чёт не доганяю 3. А почему тогда у меня в гугле 170 страниц, а в яше 73? Контент у меня уникальный, делаю качественное переделывание ( или как там, по ходу рераит ) статей.
1. Конечно Она сама выбирает что ей необходимо. 2. Нафига ПС ГС (какошко-сайты) или же дубли контента, или же тупо копипасты... поэтому и суровы. 3. Я бы не сказал что разница оч. велика. Яша более требователен в принципе чем гугл у Яндекса фильтры злее. Рерайт проверяй через программы (advego plagiatus) - etxt и т.п. P.S. (плюсик под аватаром)
Я переделываю чудые статьи качественно, нет не одной статьи ниже 85% уникальности, в среднем 90-95%, и проверяю через программу advego plagiatus, но всё равно я в шоке, в гугл уже 300 страниц проиндексировано, а в яше как было 73 так и осталось, чё за херня?((. Или может перелинковка поможет?. И если её делать то как посоветуешь ты?)) через что ты делаешь и как, или вручную?))
1. Так extra news plugin по ходу это окошко с похожими статьями, каторое будет показыватся где я выберу. И этот плагин действительно лучше ручной перелинковки? Или лучше делать вручную перелинковку и заодно использовать плагин extra news? 2. Вручную делается перелинковка через плагин Редактор - TinyMCE ??, тоесть когда редактируешь статью с включенным этим редактором, то там есть картинка похожая на цепь, и когда на неё наводишь курсор мыши появляется такая надпись: "Вставить.изменить ссылку". Это и называется ручная перелинковка сайта?, и если так делать то не нада больше некаких тегов добавлять? 3. А ты сам как перелинковку делаешь? 4. Я не совсем понимаю как работает плагин extra news. Ведь это окошко в котором показываются похожие статьи, так как его может бот увидеть? ведь при ручной перелинковке выделяется текст и вставляется ссылка на другую страницу, а плагином ХЗ как он работает. Или я чёто не доганяю?)