Всем привет! Даже достаточно совершенные алгоритмы гугла нуждаются в ручном вмешательстве и в этой статье речь пойдет про инструмент disavow-links-main.
После выхода алгоритма Пингвин и получения так называемых писем счастья в гугл панели многие оптимизаторы почувствовав на себе проседание трафика бросились исправлять ситуацию и начали снимать покупные ссылки, менять анкоры и тд. В итоге некоторые даже сделали хуже, потеряв позиции и в яндексе. Исходя из реалий современного интернета, недобросовестной конкуренции и прочего был выпущен инструмент disavow-links-main, позволяющий указать поисковику на те ссылки, которые по мнению вебмастера негативно влияют на сайт и мешают ему правильно ранжироваться.
Инструмент получился достаточно спорный. Но с другой стороны допустим ваш конкурент решил вас "потопить” ссылочным взрывом и наставил ссылок с гавносайтов и сайт улетает под фильтр, то вполне разумно воспользоваться данным инструментом и снизить до нуля влияние этих ссылок. Но работает ли он на практике?
Это и попробуем сделать с помощью… данного блога. Как вы уже заметили, статьи тут достаточно редко затачиваются под ключевики и в основном это просто авторский текст с минимальной долей оптимизации. До пингвина трафик с гугла на блог составлял где-то 60%, при чем в ТОПе были такие относительно сочные запросы как СЕО БЛОГ, SEO БЛОГ, SEO – теперь же ситуация в корне поменялась и по этим запросам ТОП в яндексе, а в гугле все печально. Вот пример трафика за вчера:
Общий трафик с ПС на блог
Собственно гуглу есть за что сердиться, тут и покупные ссылки и ссылки с шаблонов и прогоны и еще куча всякой всячины. Естественных ссылок отсилы штук 80-100 и то с SEO форумов и блогов. Что же я попробую сделать?
Для начала выгружу ВСЕ ссылки, которые выдаст ЯНДЕКС вебмастер, для тех кто не в курсе, нужно поставить вот такую галочку:
Экспорт ссылок из яндекс вебмастер
Затем ссылки также будут экспортированы из панели вебмастера google:
Экспорт ссылок из гугл вебмастерс
Затем спарсена вся выдача по запросам вида: seoonly.ru
http://seoonly.ru
"http://seoonly.ru/” "seoonly.ru” и тд
5-7 поисковых систем. Далее все ссылки будут объединены в один большой файл и встанет вопрос, а что с этим добром делать?
**** ТУТ МОГЛА БЫТЬ ВАША РЕКЛАМА СЕРВИСОВ И СОФТА ДЛЯ ПРОВЕРКИ ТРАСТА САЙТА ****
Есть 4 пути: Руками проверить все сайты, визуально оценить их качество и тд и отобрать "плохие ресурсы”. Забить все это дело в программы для оценки траста или сервисы и по условной величине "траста” ниже среднего отобрать "плохие сайты” и загнать их в инструмент гугла Сделать экспресс анализ на число страниц в поиске, ТИЦ, PR и уже по этим параметрам отсеять сайты. Скажем больше 100 страниц в индексе, PR отличный от нуля, ТИЦ>10. Положить болт на все это дело – сделать постобработку ссылок, удалить дубликаты и тупо все домены без разбора вогнать в список для отклонения ссылок.
Пока я склоняюсь к 4 варианту, но есть вопросы – как это повлияет на сайт, обнулится ли PR, пропадет ли весь трафик или увеличится? Ответов пока нет.
К слову сказать файлик с нежелательными ссылками можно загружать лишь 1, но его можно редактировать. Ссылки я с блога уже как полтора года не продаю, трафик с гугла сейчас смешной, так что почему бы и не рискнуть?
После прочтения важного предупреждения, которое можно сформулировать одной фразой – ” не сделай хуже ":
Предупреждение от google
можно приступать к добавлению. Конструкция достаточно простая, либо ссылка на страницу, где размещена ссылка ( вот такая тавтология), либо : domain:domain.com Соответственно будет дано указание не учитывать все ссылки с конкретного домена, это как раз мой случай и файлик будет подготовлен именно в таком формате. Далее просто необходимо загрузить .TXT документ и ждать…
Как отразится отклонение ~85-90% всей ссылочной массы сайта сказать сложно. Эффект судя по всему стоит ожидать не раньше 3-4 недель. Посмотрим что из этого выйдет.