Ответ
Накормим Panda и Penguin трастовыми бэклинками Опции темы
Старый 19.08.2013, 18:44
  #1
Alsu
 
Аватар для Alsu
Регистрация: 02.07.2012
Сообщений: 648

Накормим Panda и Penguin трастовыми бэклинками
Добрый день, уважаемые форумчане.

Сегодня мы с вами найдём квинтэссенцию, которую не так-то просто разыскать, это что найти белого медведя в снегах Антарктики во время общей метели. Но не всё так плохо, ведь мы из тех, кто оказывается каждый раз в нужном месте в нужный час. И как это удаётся? Путём неимоверных усилий, а может у вас брат работает в Google.com или Yandex.com? Ага, как бы ни так. А может мы башляем кой-кому, а он нам сливает инсайдерскую информацию? Опять, мимо. Все мы замешаны из одного теста и формула ему, здравомыслящая голова руководящая руками, растущими, откуда надо. Вот такой подход помогает справиться с теми перипетиями, которые подбрасывают ПС-ы.

Современный зоопарк Гугла хочет, чтоб не было СЕО, хочет, чтоб были поведенческие факторы и реальные социальные сигналы, хочет, чтоб сайт был для людей и шёл реальный трафик, а при всём при этом выдачу не то, что мотает, её так колбасит, что и не охота вообще лезть в поиск Google. А надо, иначе конкуренты схавают и не подавятся.

В общем, сегодня займёмся добычей обратных ссылок, которые разнообразят наши бэки и привлекут дополнительный трафик. Как это замутить? Покупать мы ни чего не будем, инструмент будет один, так как применяемый софт для этого, работает по одному и тому же алгоритму, что атомарно даст практически для всех один и тот же результат, а это выходит, что один и тот же снаряд попадёт в одну и туже воронку сотню, а может даже и тысячу раз. Ну а это, прямое следствие того, что мы сами весь огонь Panda и Penguin вызываем на себя. Ну, их к лешему. Будем индивидуалистами, одиночками и «будем сажать там, где ни кто не сеет и жать там, где ни кто не жнёт»! Конечно, я не призываю к тому, чтоб отказаться от тех методов, которые вы сейчас эффективно используете, просто это будет ещё плюс один в ваш арсенал и не для коллекции, а для эффективного разнообразия.

Итак, все мы знакомы с трастовыми ресурсами: Hubpages, Squidoo, EzineArticles и прочие, прочие. Вот и будем сегодня прилипалами к этим мастодонтам поиска. Они аккумулируют трафик по многочисленным ключевым словам и если мы немного его у них экспроприируем, они этого даже не заметят.

Более того их меньше задвигают на задворки выдачи Серча, поэтому в топе они практически постоянно, а это – замечательно! Значит, через них мы тоже сможем подружиться с пандой и пингвином – скажи, кто твой друг и я скажу кто ты! Вот так просто, но оно работает.

Шаг 1: Аккумулируем первую идею для Google

Как мы с вами базарим с Google? Ботаем по фене! Да, нет же, благодаря всем известным запросам, которые могут быть простыми, а могут быть сложносоставными. Вот их мы и будем сегодня вспоминать и склонять по-разному. И первым с кого начнём, будет Squidoo.com:

"20..1000 Comments" "Ranked #500..1000 in Healthy Living" site:squidoo.com
Расшифровываем для простых зевак, чего мы Гугле набалакали – в первых кавычках задали количественный критерий комментариев от 20 до 1000, далее во вторых кавычках попросили ранжировать комменты по репутации от 500 до 1000 по фразе Healthy Living, ну и последняя часть запроса указывает цель для анализа - Squidoo.com. Почему не такие популярные линзы мы ищем? Ну логика упрямая вещь и она сигналит, что там и без нас всё уже давно заспамили и более того активно продолжают это делать. А значит, там наши старые знакомые зверьки ищут себе очередных жертв для ежеквартального отчёта по борьбе со спамом.
Вы можете изменить запрос, поэкспериментировать с изменением ранга и диапазоном комментариев, а также с более релевантными категориями для вас. Ещё сюда можно подтянуть сортировку по "Likes" или твиттам.





На скриншоте выше, результат с аватаром в подписи которого 240 лайков, значит мы можем заказать нашу выдачу, вот так : "50..100 Like", указываем лимит на результаты выдачи по лайкам от 50 до 100. Как видите, все, что мы видим в выдаче по линзам в плане качества и популярности, мы можем смело использовать для грамотной фильтрации поиска!

Теперь сгенерируем приток товарно-сырьевого трафика с Amazon.com по запросу:

"100..500 customer reviews" "Rank: #5000..10000 in Cell Phones & Accessories" "out of" site:amazon.com
Практически тоже, что и в первом примере с линзами, только сейчас уже сортируем не комменты, а отзывы клиентов в диапазоне от 100 до 500, также сортировка по внутреннему рангу Амазона от 5000 до 10000 в категории Сотовые телефоны и аксессуары, последняя часть уже знакома, запрос действителен для сайта amazon.com. На Амазоне работает своя оценка качества, выраженная в звёздочках – самая круть 5 звёздочек, нас же будет, интересовать средняя оценка в 3,9 звездарей из 5, это весьма хороший показатель того, что продукт актуален и пользуется спросом:





Но с отзывами, как вы сами знаете, может быть и просак, вдруг там на пять отзывов, два-три негативных, так, что лишний раз лучше перепроверить, просмотрев ту или иную позицию. Поэтому первый запрос можно, дополнить фильтром по звёздному рейтингу от 3,9 до 5 - "3.9..5 out of", что будет фильтровать выдачу по средней оценки на продукт от 3,9 звёзд и выше. Но такого рода дополнение к запросу немного тормозит Google и время генерации выдачи может, увеличиться по времени.

Вот и подошли к Hubpages.com, для него заюзаем такой сложносоставной запрос:

"Sports and Recreation" "by * 300..1000 followers" "level 6..8 commenter" "50..1000 comments" site:hubpages.com
Его значение вы наверняка, уже сами вкурили. Но для тех кто «не курит», уточняю – первые кавычки содержат предпочитаемую категорию – Спорт и рыбалка, далее идёт сортировка по фолловерам(подписчикам/читателям) от 300 до 1000, следующий за ним фильтр по уровню авторов комментариев от 6 до 8, потом фильтр по самим комментариям от 50 до 1000, ну и как обычно ресурс с которого это всё надо собрать - hubpages.com.





На чём стоит отдельно остановится и объяснить, это для чего использован дополнительно фильтр по уровню авторов комментариев, не секрет что сейчас идут накрутки поведенческих факторов, в том числе лайков, твиттов, плюсов и конечно же комментариев, поэтому данный фильтр чётко обозначит, что топик в котором отписался автор шестого разряда, не просто накручен, но реально представляет живой интерес у пользователей, своего рода тот же эталон качества. Сами же знаете, что присутствие в теме авторитетного модератора у посетителей вызывает больше доверия и меньше скепсиса, так как его комменты не будут очередным спамом.

Про Ezinearticles.com, вообще можно ни чего не писать, реальная притча во языцах статейного продвижения под буржнет, для парсинга в Гугле забацаем такой запрос:

"Internet and Businesses Online" "Submitted On * *, 2013. Viewed 100..1000 times" site:ezinearticles.com
Ну, кому не известен этот запрос? Разве, что только тому, кто делает первые шаги в продвижении статьями. Этот запрос ищет статьи в категории «Интернет и бизнес онлайн» опубликованных в 2013 году, с количеством просмотров от 100 до 1000 раз:





Модифицировать под себя этот запрос не возбраняется. Например, вы можете пойти по такому варианту поиска, найти статьи с определенным количеством слов в статье - "Word count: 500..600" или по рейтингу статей автора, которые он опубликовал на сайте -"500..2000 Articles". Ещё как вариант, можно поискать авторов с историей, которые уже продолжительное время публикуются: "Joined December *, 2009" (фильтрация авторов, которые были зарегистрированы в декабре 2009). Либо, найти статьи, опубликованные в определенную дату: "Submitted On August 19, 2013"

Шаг 2: пробиваем ключевые слова с бэков

Этот шаг является прямым следствием первого.

После того, как вы собрали в выдаче Серча URL-адреса конкретных страниц, у которых как вы предполагаете, есть потенциал, то составив список адресов, их можно с лёгкостью проанализировать на ключевики в SEMRush.com. Конечно, на это уйдёт ещё время, но оно окупится со сторицей. Вот, пример анализа первого результата из статьи по линзам Squidoo:





Как вы можете, видеть эта линза в топе-10 по нескольким ключам с более чем 1000 поисков в месяц. Для перепроверки можно залезть в инструмент подсказки ключевых слов Google, где картина практически идентична





Так, что вполне можно, заключить, что по полученным отчетам от SemRush потенциал по трафику имеется и можно работать. Ещё, что мне нравится в таком подходе, это то, что не надо приобретать платную подписку в Семраше, так как опций бесплатного доступа, вполне хватает для анализа первых десяти ключевых слов.

Шаг 3: расширяем список бэклинков

На этом шаге, мы используем список URL-адресов, который составили во втором шаге и через сервис Ahrefs, мы с легкостью можем увидеть так востребованные беки. Как уже ранее упомянала, бесплатной версии вполне хватит. Примечательно то, что мы получаем отчёт по бекам в виде статистики распределения веса и других срезов анализа. Но самое главное, на чём стоит, акцентировать внимание это – анкоры. Ведь грамотные анкоры сейчас рулят, чтобы рвать топы, главное не переборщить, чтоб не быть зааффилированными, то есть не нахватать лишних фильтров от ПС, в том числе за спам.

Вам ведь не стоит напоминать, что сейчас времена диверсификации, когда надо не только продвигать по одному какому-то ключу, но и стремится к двух, трёх, четырёх словникам, а для этого надо, грамотно разбавлять анкоры.

Бонусный шаг: процесс автоматизации

А кто откажется от автоматизации? Только глупый. Поэтому не даром вкалывают роботы, а не человек. Так, что тут нет ни чего проще, как составить точный алгоритм, который будет брать наши сотни или тысячи сложносоставных запросов, далее парсить выдачу Серча, после чего получив URL-адреса, сохранять полученный результат в удобочитаемый файл, к примеру CSV для дальнейшего анализа в специализированных сервисах.

Конечно, результаты у каждого в отдельности будут разными, так как тут много переменных, всё зависит от конкурентности в вашей тематики, но как вы видите путей решения обхода Панды и Пингвина, не так то и мало, главное всем правильно воспользоваться в личных интересах.

Пока.
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 20.08.2013, 04:01
  #2
miraida
 
Аватар для miraida
Регистрация: 11.02.2012
Сообщений: 2,241

Алсу, вы пишите слишком туманно - разжовывайте для других.
На кой черт мы потратили столько времени и что надо сделать в конце?
Я ничего не понял. Для чего мы все это собирали?
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 20.08.2013, 19:37
  #3
Alsu
 
Аватар для Alsu
Регистрация: 02.07.2012
Сообщений: 648

Да, miraida прав, так всё запургенила, что и вы в тексте потерялись

А вообще, что дальше делать с данной базой, думаю тут всё прозрачно. Смотрим, каким образом получена ссылка в топике, где она стоит и т.п., и повторяем все то же, но с утроенной мотивацией.
Обычно для этого регаются или покупаются профайлы, которые планомерно прокачиваются. Схема тут простая - берутся новости с одного места, постятся в другое. Где нельзя проставить активный линк, проставляют неактивный, хоть и переходов по второму будет значительно меньше чем по первому, но свой траф получим. Умудряются даже через профайлы на трастовых сайтах продавать популярные товары, практически как и одностраничники.

Подходов масса было бы желание
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 21.08.2013, 10:28
  #4
Varai
 
Регистрация: 11.08.2012
Сообщений: 162

Как нибудь можно сейчас попасть в инструмент подсказки ключевых слов Google AdWords? Там теперь открывается Планировщик ключевых слов, а он что то мне совсем не нравиться.
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 21.08.2013, 15:26
  #5
Alsu
 
Аватар для Alsu
Регистрация: 02.07.2012
Сообщений: 648

Привет, когда не входить в профиль Гугла то по линку

https://adwords.google.com/o/Targeti...AS#search.none

попадаешь на Инструмент подсказки ключевых слов, но там предупреждение, что В ближайшие несколько месяцев внешний инструмент подсказки ключевых слов будет отключен. Варианты можно получать с помощью Планировщика ключевых слов в аккаунте AdWords. Так что хочешь не хочешь, а придётся свыкнуться с новым интерфейсом
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 21.08.2013, 16:34
  #6
Varai
 
Регистрация: 11.08.2012
Сообщений: 162

Понял. Спасибо!
Лично меня не интерфейс пугает, а то что там результаты разные выдает по одному и тому же запросу. На пример в старом кажет 90 запросов в месяц, а в новом 0
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 22.08.2013, 09:20
  #7
Nekitch
 
Регистрация: 06.01.2013
Сообщений: 74

Сообщение от Alsu Посмотреть сообщение
Так, что тут нет ни чего проще, как составить точный алгоритм, который будет брать наши сотни или тысячи сложносоставных запросов, далее парсить выдачу Серча, после чего получив URL-адреса, сохранять полученный результат в удобочитаемый файл, к примеру CSV для дальнейшего анализа в специализированных сервисах.
Интересная мысль
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 23.08.2013, 13:08
  #8
Alsu
 
Аватар для Alsu
Регистрация: 02.07.2012
Сообщений: 648

Varai - не за что

Nekitch - мысль не моя, а те кто её уже давно реализовал, сидят в топах и трастом банчат...
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 25.08.2013, 12:01
  #9
CoolOne
 
Регистрация: 24.08.2013
Сообщений: 3

Alsu, прочел почти все Ваши статьи на данном форуме. Вы явный протеже старого SEO. Согласитесь, что ссылки на Панду ну никак не повлияют, т.к. данный алгоритм следит за контентом на сайте и описанный Вами метод работает до введения очередных поправок в алгоритм Пингвин, т.е. очень краткосрочен. Уверен, что формульный поисковый алгоритм способен отличить спамную ссылку от не спамной.
Хотя, полгода назад я бы сказал, что материал очень полезен для ссылочного.
Спасибо!
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием
Старый 25.08.2013, 12:37
  #10
Alsu
 
Аватар для Alsu
Регистрация: 02.07.2012
Сообщений: 648

CoolOne - всё новое это хорошо забытое старое. Это я к тому, что на конкурс принимаются статьи разного формата и каждый вправе оставить свой отзыв о том, актуальную тему затронул автор статьи или нет.
Спасибо вам за ваш комментарий
Нравится 0   Не нравится 0
Пожаловаться на это сообщение 0  
Ответить с цитированием

Ответ
 
 

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Google Penguin 2.0 запущен miraida Статьи 19 10.07.2013 20:42
Google Penguin 2 на подходе: Как подготовиться Bentley Статьи 2 24.04.2013 13:34
7 шагов в SEO после обновления Penguin Holly Статьи 6 06.03.2013 14:59
Еще немного про SEO после Panda и Penguin Holly Статьи 0 04.03.2013 18:19
Выводим сайт из под Google Penguin 0pium Статьи 1 25.12.2012 01:31

Метки
ahrefs, amazon, ezinearticles, google, hubpages, panda, penguin, semrush, squidoo


Здесь присутствуют: 1 (пользователей: 0, гостей: 1)
 
Опции темы

Быстрый переход


Текущее время: 12:49. Часовой пояс GMT +3.