Google xml sitemaps 4 проблемы с robots.txt для WP
|
Всем привет. Ситуация следующая после обновления WP до последней версии, произвел обновление плагина Google XML Sitemaps до версии 4.0.8 то есть до последней. В итоге в вебмастерской гугла вижу такое сообщение URL blocked by robots.txt или Файл Sitemap содержиn URL-адреса заблокированные файлом robots.txt.
Нюанс состоит в том что до обновления проблемы не было. Пока стояла старая версия плагина все работало нормально. Файл robots настроен уже давно и всегда все было прекрасно. Сейчас же вылезла проблема. Плагин переустанавливал. роботс переписывал на разные варианты плагин перенастраивал, из вебмастерской удалял добавлял новый один хер появляется проблема. Но например если сначала как будто бы все решилось проблемы пропали то потом опять появляются ошибки. Приговор тот же мол блокирует роботсом. Только количество отличается вчера после перенастройки все пропало было порядка 500 замечаний сегодня под вечер снова появилось около 40. Если сказать что у меня горит от этого то ничего не сказать. Пока есть ошибки гугла трафик почти не дает с.ка. Кто сталкивался может что то подскажете?
|