Ответ
DeepCrawl: определение и решение SEO проблем сайта Опции темы
Старый 18.10.2015, 23:44
  #1
Nataly
 
Регистрация: 30.07.2014
Сообщений: 474

DeepCrawl: определение и решение SEO проблем сайта
Данная статья предназначается для тех, кто начинает знакомство с DeepCrawl. Интернет-маркетологи любят осуществлять технический аудит сайта. Мы радуемся, видя рост органического трафика после обнаружения источника проблем и устранения его. DeepCrawl является необходимым инструментом для проведения технического анализа. Он помогает лучше понять источник проблемы, анализируя сотни тысяч страниц.

Хотя существует множество инструментов и методов, доступных для решения проблем сайта, DeepCrawl это самый быстрый и простой способ выработать стратегию и решать общие проблемы каждый день. Здесь я опишу 14 распространенных SEO проблем, которые вы можете легко решить с помощью DeepCrawl.

1. Перенос сайта/изменение структуры URL-адресов

Перенос сайта - это один из самых трудоемких процессов. Я знаю много компаний, которые потеряли органический трафик из-за неправильного проведения данной операции. Переносите ли вы сайт на новую инфраструктуру или меняете структуру URL-адресов, DeepCrawl упростит данный переход.

Существует несколько способов использования DeepCrawl для переноса сайта:

• Составьте список старых URL-адресов и импортируйте его в DeepCrawl с помощью опции List Crawl. Убедитесь, что они правильно открываются в новой структуре URL-адресов. Прежде чем осуществить переход, используйте DeepCrawl, чтобы обнаружить любые проблемы со старыми страницами.

• Если все URL-адреса записаны в файле sitemap, вы можете использовать функцию Sitemap Crawl, чтобы импортировать файл sitemap и получить информацию о старых URL-адресах. Если новые URL-адреса закрыты от индексирования в Google, вы можете использовать тест Test Site Basic Authentication в расширенных настройках, чтобы найти любые ошибки.

Вы также сможете решить другие важные проблемы перед публикацией: убедиться, что для всех адресов редирект 301 настроен правильно, синхронизировать любой дублированный контент и проверить, что ни одна из страниц не выдает ошибку 4xx.

• Не забудьте экспортировать страницы, получающие наибольший объем органического трафика. Экспортируйте страницы с самым большим числом показов и кликов через Google Search Console и загрузите этот список в DeepCrawl с помощью опции List Crawl, чтобы исправить ошибки до или после перехода.





Введите адрес промежуточного тестового домена сайта в поле Test Site Domain, чтобы четко увидеть ошибки в отчете.

2. Низкий объем органического трафика

Иногда мы наблюдаем падение объемов органического трафика на сайте и не можем исправить это, что бы мы ни делали. Бывают случаи, когда мы не можем контролировать этот спад. Но если снижение обусловлено техническими проблемами, DeepCrawl может легко обнаружить и решить их.

Используя Google Analytics или любой другой аналитический инструмент, выберите даты до того, как начался спад трафика. Экспортируйте и затем загрузите эту информацию в DeepCrawl с помощью функции List Crawl. Далее проверьте наличие каких-либо изменений, которые вы ранее не замечали.

Аналогично изучите страницы с самым большим числом показов до и после скачка трафика с помощью Google Search Console. Данные, полученные из Google Search Console, помогут дополнить сведения из Google Analytics.





Наконец, экспортируйте страницы с самым большим числом обратных ссылок с помощью таких сервисов, как Majestic или Ahrefs для проверки каких-либо существенных технических изменений. Я работал с клиентом, который получал 404 ошибки, появляющиеся на страницах с самым большим числом обратных ссылок и, спустя некоторое время, они потеряли свои позиции по высокочастотным ключевым словам, и их органический трафик начал снижаться.

3.Создание мобильного сайта/адаптивного дизайна

Согласно заявлению, сделанному в апреле Google, сайты без мобильной версии или адаптивного интерфейса могут потерять позиции в мобильном поиске. Данное изменение требует, чтобы разработчики тщательнее относились к публикации мобильного интерфейса сайта. Здесь на помощь приходит DeepCrawl. Если выбрать Google’s mobile agent в дополнительных настройках, то можно просканировать мобильную версию сайта до ее публикации.

Например: как вы можете быть уверены, что самые важные страницы не возвращают 404 ошибку при просмотре с мобильного устройства без тестирования? С помощью DeepCrawl вы можете ответить на любые подобные вопросы.





Еще одно преимущество DeepCrawl заключается в том, что вы можете сканировать любой мобильный интерфейс, выбирая «mobile» в качестве устройства в разделе Search Analytics в Search Console.

4. Анализ ранжирования страниц на основе ключевых слов конкурентов и позиций

Это одна из моих любимых функций DeepCrawl. Экспортируя страницы конкурентов, занимающие высокие позиции в рейтинге, вы можете определить конкретные ключевые слова, которые они используют. Существует много инструментов для этого, но я использую сервис под названием SERP Research Tool. Вы можете определить страницы конкурентов с помощью таких инструментов, как SEMrush.

Используя определенные ключевые слова, вы сможете анализировать страницы конкурентов, чтобы лучше понимать, что они делают по-другому. Кроме того, можно добавлять ссылочные показатели и данные по числу шаров в социальных сетях к своему анализу.

5. Определение URL-адресов, которых нет в файле SITEMAP

Файл sitemap необходим, чтобы поисковые системы могли обходить сайт быстрее и проще, индексируя его таким образом. Но как определить и добавить страницы, которых нет в файле sitemap? Чтобы добавить страницы в существующий файл sitemap с DeepCrawl, выберите опцию Universal Crawl и введите URL-адрес файла sitemap при запуске сканирования. Затем вы сможете идентифицировать и экспортировать URL-адреса, которые отсутствуют в файле sitemap.





6. Определение старых перенаправленных URL-адресов в файле SITEMAP

Возможности поисковой системы по сканированию сайта ограничены. Так что если вы используете эту информацию в своих интересах, то сможете получить преимущество над конкурентами. Один из способов сделать это - с помощью перенаправления URL-адреса. Если старые перенаправления URL-адреса остаются в файле sitemap в течение длительного периода времени, они окажут негативное влияние на показатели SEO.

С помощью DeepCrawl вы можете обнаружить перенаправленные URL-адреса в файле sitemap и управлять ими более эффективно. Для этого выберите опцию Universal Crawl при создании проекта. Затем нажмите на кнопку Redirecting Sitemap URLs, когда сканирование закончится, чтобы узнать больше о том, куда перенаправляются данные URL-адреса.





7. Выявление дублирования страниц и контента

Если оптимизируемый вами сайт содержит тысячи страниц, дублирование контента становится скучным и утомительным для потребителя. Практически невозможно вручную обнаружить дубликаты страниц, когда их число достигает нескольких тысяч. Но используя расширенный алгоритм дублирования контента от DeepCrawl, маркетологи могут избавиться от дублированного контента, который избегают поисковые системы.

Для предотвращения дублирования контента настройте коэффициент сходства в Duplicate Precision в настройках Report Settings перед запуском проекта. Есть два способа увидеть результаты:

1. В разделе Duplicate Pages на вкладке Indexable Pages.

2. В разделе Duplicate Body Content на вкладке Content.

8. Проверка длины тега title

Помните, что необходимо контролировать длину мета-тегов title и description. Если она будет превышать необходимое значение, то Google обрежет остаток текста в результатах поиска.





Вы можете использовать DeepCrawl, чтобы проверить соответствует ли длина мета-тегов title и description нужным значениям, чтобы поисковым системам не приходилось искать оставшуюся часть предложения. Выберите «mobile user-agent» для определения страниц, которые превышают лимит длины мета-тегов для мобильного поиска.

9. Выявление страниц с небольшим объемом контента

Для того, чтобы занимать высокие позиции в результатах поисковой выдачи контент, который мы создаем, должен быть определенной длины. Не следует ждать высоких позиций от страницы, если на ней опубликован лишь один абзац текста с вхождением высокочастотных ключевых слов. SERPIQ показывает, что с длинным контентом легче получить высокие позиции:





DeepCrawl анализирует отсканированные страницы, вычисляет объем контента и показывает страницы с низким числом слов. Если вы хотите, чтобы эти страницы ранжировались на первой странице поисковой выдачи, необходимо написать большее длинный контент для них. Чтобы определить, каким страницам будет полезно увеличить объем текста на них, используйте раздел Min Content/HTML Ratio на вкладке Validation.

10. Отслеживание исходящих ссылок

Если сайт содержит сотни тысяч страниц, и авторы создают большую часть контента, вы можете ссылаться на другие сайты, не осознавая этого. Несмотря на то, что наличие ссылок на другие сайты может быть полезным, если имеется тысячи исходящих ссылок, не закрытых от индексирования, это может негативно сказаться на SEO.





Я столкнулся с этой проблемой у одного из моих клиентов. Компания позволяла каждому сайту добавлять его адрес в профиль страницы. Все искали способы добавить ссылки на сайт компании, так как их ценность в Google была высокой.

При решении этой проблемы мы поняли, что ПО одного из сайтов автоматически создавало профили страниц и устанавливало исходящие ссылки на данный сайт.

Главное, что эти ссылки были «nofollow». С помощью DeepCrawl мы смогли обнаружить эти страницы, удалить все ссылки и предотвратить падение позиций сайта. Для анализа исходящих ссылок проверьте раздел All External Links на вкладке Validation.

11. Идентификация неканонических страниц

Мы, SEO оптимизаторы, любим все контролировать, не так ли? Но все усложняется, когда мы имеем дело с дублями страниц. Если страница, которую вы пытаетесь оптимизировать, имеет неканонические страницы, то у вас есть риск создания дублированного контента. Не осознавая этого, параметр «links», который будет присвоен неканоническим страницам с любого сайта, будет индексироваться поисковиками и дублироваться с вашей страницей.

Например, допустим, у нас есть следующий URL-адрес:

www.example.com/product-a/

и на этой странице нет канонических мета данных:

www.example.com/product-a/?utm_source=google&utm_medium=text&utm_campaign=pr oduct

В этом случае при наличии обратной ссылки, указывающей на вторую страницу, поисковые системы перейдут по этому URL-адресу и обойдут страницу, поэтому они могут воспринять ее в качестве отдельного адреса и проиндексировать соответственно. А это означает дублирование контента, что является негативным фактором для SEO.

Например, если имеется 96000 страниц, проиндексированных таким образом, то у вас будет почти 96000 дублей, потому что на страницах нет канонических мета данных:

https://www.google.com/webhp?sourcei...ource%3Dgoogle

С помощью DeepCrawl можно обнаружить страницы, которые не содержат тег «canonical», и исправить их.

12. Обнаружение некорректных атрибутов hreflang

Если вы ведете SEO работы в нескольких разных странах, я уверен, вы знаете, как важен атрибут hreflang. Неправильное добавление на страницы этих тегов, которые помогают поисковым системам учитывать разные языки, причинит значительный вред ранжированию.





DeepCrawl может обнаружить неправильные атрибуты hreflang в разделе Inconsistent hreflang Tags на вкладке Validation. Укажите, если страница имеет, к примеру, турецкую версию, что отличит ее от английской версии. Если вы не пометите таким образом страницы на разных языках, поисковой системе будет сложнее их сканировать и индексировать.

13. Определение страниц с низкой скоростью загрузки

В 2010 году Google заявил о том, что скорость загрузки страниц и сайтов оказывает непосредственное влияние на ранжирование. С тех пор Google борется за то, чтобы снизить позиции «медленных» сайтов. Недавно в Google даже обсуждали возможность добавления специального значка на медленные страницы в результатах поиска, чтобы предостеречь пользователей о том, что они могут получить негативный опыт на этих страницах.





Хотя существует множество инструментов (включая Google Page Speed, GTmetrix, Pingdom page speed), которые могут пригодиться для ускорения медленных сайтов, необходимо сначала определить источник проблемы, прежде чем исправлять ее. Применение DeepCrawl - один из лучших способов выяснения причины низкой скорости загрузки сайта. DeepCrawl отфильтровывает медленные страницы в разделе Max Load Time на вкладке Validation.





14. Увеличение объемов трафика из социальных сетей





Facebook и Twitter - крупнейшие платформы для направления нового трафика на сайт, но важно оптимизировать эти страницы с помощью Open Graph tags и Twitter Cards.

Используя теги Facebook и Twitter, вы можете исправить возможные ошибки и оптимизировать контент, гарантируя, что пользователи увидят изображения, заголовки и описания в наиболее привлекательном виде, что должно способствовать увеличению кликабельности. Чтобы проверить наличие тегов социальных сетей с помощью DeepCrawl, откройте вкладку Content в разделе Social Tagging.





Бонус

Fetch подобно Google дает возможность увидеть, как поисковые системы просматривают страницы с разных user-agents, таких как Applebot, а также IP-адресов других стран. Вы можете также использовать Fetch, чтобы увидеть, какой HTTP код выдают страницы и определить, будут ли они проиндексированы.




Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием

Ответ
 
 

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Анонимный постинг и решение проблем с Proxy Bentley Файлообмен 26 31.07.2014 12:16
Определение реального PageRank и не только... creativius Статьи 4 17.11.2013 13:54
DeepCrawl - краулинг дублированного контента Alsu Сервисы 0 25.08.2013 06:18
Идеальное решение для андроид трафика Classic Партнёрки 0 22.05.2013 16:26
СДЛ-проект: определение, разновидности, раскрутка 0pium Статьи 3 06.05.2013 13:41

Метки
deepcrawl, seo, дубли страниц, контент, обратные ссылки, оптимизация, органический трафик, поисковые системы, технический аудит


Здесь присутствуют: 1 (пользователей: 0, гостей: 1)
 
Опции темы

Быстрый переход


Текущее время: 15:36. Часовой пояс GMT +3.