Продолжение эксперимента по выводу блога из АГС фильтра
Действие второе: устранение причин фильтра и работа с внутренними факторами.
Как я уже говорил в первой части, поддержка Яндекса не сообщает напрямую причины фильтра, чтобы ушлые оптимизаторы не смогли разгадать алгоритмы поисковой системы.
Но в ответе всегда содержатся тонкие намеки, из которых можно понять в какую сторону плясать.
Так и в этот раз произошло. При первом моем обращении, Платон ответил вот что: «…На решение алгоритма может оказать влияние использование поискового спама, наличие на сайте страниц предназначенных для робота-индексатора, а не для чтения пользователями, размещение уникальной информации и др. факторы. …»
Рассмотрим каждый перечисленный пункт:
1. Использование поискового спама. Что это значит? К поисковому спаму можно отнести:
- излишнее включение ключевых слов в текст страницы. Т.е. проще говоря текст переоптимизирован;
- использование облака ключевых слов или меток;
- многократное выделение слов тегом strong;
- большое количество внутренних ссылок из текста статей;
- плагины, отображающие ключевые слова, по которым пользователи заходят на сайт, плагины, создающие внутреннюю перелинковку статей (если переборщить с количеством внутренних ссылок).
2. Наличие на сайте страниц предназначенных для робота-индексатора. Сюда можно отнести страницы с повторяющимся контентом, такие как:
- страницы тегов (меток);
- страницы рубрик (разделов, категорий);
- страницы создающиеся под каждый отдельный комментарий;
- страницы, одинаковые по содержанию, но имеющие разные адреса (например, из-за особенностей шаблона сайта);
- страницы с обменными ссылками;
- прочие страницы, не несущие пользу для посетителя, и в тоже время, влияющие на ранжирование других страниц.
3. Размещение уникальной информации. Ну, тут, я думаю, все понятно. Если у вас уникальные авторские тексты, то исправлять нечего, но если вы покупали тексты, делали рерайт или брали из каких-либо источников, то стоит задуматься и проверить их на уникальность (чем я проверяю уникальность текстов, расскажу в ближайшем посте, подписывайтесь, чтобы не пропустить).
Итак, что было сделано по первому пункту:
- убрал плагин, выводящий в конце каждого поста, ссылки на популярные статьи (т.к. получалось что на каждой странице были одни и те же ссылки);
Второй пункт:
- запретил страницы тегов в файле robots.txt, архивы уже были закрыты до этого, категории оставил пока;
Третий пункт:
- как я уже рассказывал, на блоге были размещены статьи из газеты, которые позже оказались не уникальными. Вот с этого я и начал. Проверил на уникальность все тексты и оставил только от 90% уникальности, а остальные убрал.
После выполнения всех этих действий, было написано письмо в поддержку Яндекса и… о чудо!!! Шаблон ответа изменился! Это говорит, в первую очередь, о том, что были произведены верные действия, но факторы были устранены не полностью, а потому продолжаем выводить блог из под фильтра и ждем следующий пост!
P.S. В следующем посте расскажу какие требуются внешние факторы при выведении сайта из АГС. В том числе, как увеличить траст и поднять сайт в yandex, google и прочих поисковиках. А это в свою очередь поможет выкарабкаться из под фильтра.
P.S. Понравился пост? Скорее жми -
P.P.S. НЕ забудьте про обмен постовыми!
Советую почитать:
SeoTitan отвечает:
Апрель 8th, 2011 at 18:48
Нет, это не опечатка. Такие страницы для пользователя не несут никакой пользы и нужны скорее для увеличения общего количества страниц.
[Ответить]