Всё о веб-дизайне - главная
Как раскрутить сайт - Фильтры поисковых систем и траст сайта
     
сузить
1.1 Составление семантического ядра
1.2 Выбор целевых страниц
1.3 Внутренняя оптимизация
1.4 Чёрные методы оптимизации
1.5 Влияние хостинга и домена на продвижение
1.6 Индексация сайта
1.7 Мониторинг продвижения
1.8 Основы внешней оптимизации
1.9 Способы получения внешних ссылок
1.10 ТИЦ и PR
1.11 Фильтры ПС и траст сайта
1.12 Поведенческие факторы ранжирования
1.13 Региональность и персонализация выдачи
2.1 Виды интернет-рекламы
2.2 Контекстная реклама, основные принципы и понятия
2.3 Контекстная реклама, основные принципы и понятия (продолжение)
2.4 Рекламируем сайт в Google Adwords
2.5 Рекламируем сайт в Бегуне
2.6 Рекламируем сайт в Яндекс.Директ
Все статьи
Все только обзорные статьи
Главная
Как раскрутить сайт - Фильтры поисковых систем и траст сайта (обн. 2.09.2013)

Предыдущая статья рассказывала о ТИЦ и PR. В этой статье - о борьбе поисковых систем с оптимизаторами, о применяемых ими фильтрах и санкциях, о таком понятии, как траст или трастовость сайта.

1.11 Борьба поисковиков с оптимизацией. Фильтры поисковых систем и траст сайта.

В статье "чёрные методы оптимизации" уже шла речь о противодействии поисковых систем попыткам оптимизаторов влиять на свою выдачу. Но там были перечислены очевидно грубые и мошеннические приёмы. Вместе с тем большинство мероприятий, предпринимаемых оптимизаторами для того, чтобы повысить сайт в результатах поиска, в т.ч., например, покупка ссылок, также не одобряется поисковыми системами, хотя их сотрудники и понимают, что такие попытки повлиять на их выдачу всё равно неизбежно будут предприниматься.

Чтобы помешать оптимизаторам легко и быстро вывести любой сайт в ТОП, ПС используют различные фильтры и санкции, применяемые к сайтам, владельцы которых чрезмерно активно пытаются их оптимизировать. Таких фильтров довольно много, как у Гугла, так и у Яндекса, в этой статье я перечислю те, с которыми чаще всего приходится сталкиваться вебмастерам и оптимизаторам.

Похожие фильтры Яндекса и Гугла

У Гугла и Яндекса есть как похожие, так и специфические фильтры.

1) "Песочница". Этим термином обозначается явление, когда новый, недавно созданный сайт находится в выдаче на более низких позициях, чем сайт, имеющий большой возраст. "Песочница" заметна и в Яндексе и в Гугле. Из-за неё новый сайт сложнее продвигать, чем старый. В Яндексе песочница выражена не слишком явно, тем не менее, можно заметить, что по прошествии полугода сайт, как правило, занимает более высокие позиции и начинает получать от Яндекса заметно больше трафика. У Гугла "песочница" выражена очень сильно в буржунете, в рунете же её влияние меньше.

Следует иметь в виду также, что молодой сайт обладает меньшим трастом и более подвержен влиянию разных фильтров, поэтому и продвигаться новый сайт должен более постепенно и осторожно, чем старый.

2) Санкции за резкий прирост ссылок ("ссылочный взрыв"). И у Яндекса и у Гугла есть санкции, которые накладываются за резкий прирост ссылок. Если купить или проставить иным образом (например, путём спама при помощи хрумера) слишком большое количество ссылок на сайт, это не приведёт к положительному эффекту, а приведёт к санкциям. Конкретное число единоразово проставленных ссылок, за которые можно получить санкции, зависит от разных факторов, например, от возраста сайта, от количества уже имеющихся ссылок на сайт, от имевших место до этого темпов прироста ссылочной массы, от качества этих ссылок. Если сайт новый или на него практически нет ссылок, вряд ли стоит закупать на него несколько сотен или тысяч ссылок одномоментно. Покупку большого числа ссылок стоит растянуть на некоторый период - несколько недель или даже месяцев.

Как проявляется действие фильтра за резкий прирост ссылок? В Гугле происходит резкое одновременное понижение позиций по всем запросам и, соответственно, резко падает трафик с этой ПС. При снятии фильтра позиции и трафик так же резко восстанавливаются. В Яндексе наблюдается более плавное и длительное падение по всем позициям, глубина его зависит от количества закупленных ссылок.

3) Фильтры за неуникальный контент. Если ваш сайт наполнен контентом, скопированным с других сайтов, со стороны Яндекса и Гугла на него могут накладываться санкции. Страницы с копипастом, как правило, не находятся в выдаче по цитатам из текста, позиции сайта в целом существенно понижаются, а при большом числе откровенного копипаста сайт выпадает из индекса этих ПС полностью.

Фильтры Гугла

Как я уже отметил, степень использования фильтров у Гугла сильно разнится в рунете и буржунете. Помимо описанных выше, в рунете вебмастера чаще всего сталкиваются со следующими фильтрами Гугла:

1) Дополнительная выдача ("Supplemental Results"). Часть проиндексированных страниц Гугл помещает в основной индекс, а часть - в дополнительный. При этом страницы из дополнительного индекса могут попасть в выдачу только тогда, когда в основном индексе находится мало страниц, релевантных этому запросу. Фактически, трафик с Гугла страницы, попавшие в дополнительную выдачу, могут получать только по очень редким и низкочастотным запросам. На попадание страниц в основной, а не дополнительный индекс влияет несколько факторов, главные из которых - уникальность и объём контента и наличие достаточного количества ссылок на данную страницу. Как правило, поставить несколько ссылок на страницу достаточно для того, чтобы она попала из дополнительного в основной индекс.

Понять, что страница в дополнительном индексе можно, если по запросам, представляющим цитаты из текста, она не показывается (или редко показывается) в выдаче Гугла. Хотя в 2007 году Гугл отменил специальные операторы, позволяющие узнать, какие страницы сайта в основном индексе, а какие - в дополнительном, считается, что узнать это можно при помощи запросов вида site:wseweb.ru (показывает все страницы, которые есть в индексе), site:wseweb.ru/* (показывает страницы в основном индексе) и site:wseweb.ru/ -site:wseweb.ru/* (показывает страницы в дополнительном индексе).

2) Опущенные результаты ("Omitted Results"). Если вы набираете какой-то запрос, вам показывают не все страницы, а в конце выдачи - приписку "Чтобы показать наиболее значимые результаты, мы опустили некоторые, очень похожие на ... уже показанных" и ссылку "повторить поиск, включив опущенные результаты". Те страницы, которые видны в выдаче лишь после нажатия на эту ссылку, и находятся под данным фильтром. Как правило, под него попадают страницы с дублированным контентом, либо с малым количеством контента.

3) Фильтр за долгую загрузку страниц. Скорость загрузки страниц напрямую влияет на ранжирование сайта в Гугле. Чем быстрее загружается страница, тем лучше. Если страницы вашего сайта грузятся слишком долго, они могут вообще не индексироваться Гуглом.

4) Фильтры за переоптимизацию. Изначально Гугл использовал санкции лишь за слишком чрезмерные и топорные попытки продвинуть свою страницу в ТОП. Например, фильтры за очень большое число или плотность ключевых слов на странице и за большое число ссылок с одинаковым анкором (т. н. "Гугл бомбинг"). Однако в последние годы разработчики Гугла просто-таки ополчились против оптимизаторов, решив массово наказать слишком усердных. Итогом их попыток бороться с SEO стали фильтры под кодовыми названиями "Панда" и "Пингвин". Примечательно, что если раньше Гугл проводил достаточно мягкую политику в отношении рунета и многие его фильтры работали здесь в "неполную" силу, в отличие от англоязычного сегмента, то после ввода "Панды" ситуация изменилась, и от новых алгоритмов не только западные, но и русские оптимизаторы схватились за голову.

"Панда", введённая первой, накладывала санкции в основном за некачественный контент. Под него попали в основном сайты, содержавшие много статей для сбора поискового трафика по определённым запросам, но при этом не слишком интересные пользователям. "Пигвин" ударил по тем, кто активно продвигал свои сайты покупкой ссылок. После его ввода многие сайты, закупавшие множество ссылок с "неестественными" (т. е. соответствующими популярным коммерческим запросам) анкорами для продвижения конкурентных запросов, потеряли позиции. После ввода "Пингвина" ссылочное продвижение под Гугл требует более осторожного подхода, который должен создать у алгоритмов Гугла впечатление "естественной" ссылочной массы.

Фильтры Яндекса

1) АГС. Знаменитый фильтр Яндекса, который ведёт к выпадению из индекса большей части страниц сайта (в индексе остаётся, как правило, лишь главная страница или главная и ещё несколько, до 10-15 страниц). АГС накладывается на сайты, которые, с точки зрения Яндекса, не представляют особой ценности для пользователей.

На накладывание АГС влияет большое число факторов (точный перечень их никому, кроме самих яндексоидов, не известен), и понять, что именно повлияло на попадание того или иного сайта под АГС, зачастую сложно. Среди наиболее частых причин попадания под АГС - неуникальный контент, дублированный контент внутри сайта (когда на сайте несколько страниц с одним и тем же содержанием), малое количество и плохое качество контента (например, бредотекст и уникализированный текст), малая посещаемость сайта, активная продажа ссылок с сайта в ссылочных биржах. Подробнее о фильтре АГС можно почитать здесь.

2) "Ты - спамный" (или, как его ещё называют, "портяночный" фильтр). Фильтр за переоптимизацию, который приводит к резкому падению позиции сайта по конкретному продвигаемому запросу. На наложение этого фильтра оказывает влияние комплекс факторов, среди которых излишнее количество употреблений ключевого слова в тексте страницы, слишком большое число ссылок на страницу с анкором, содержащим ключевое слово, популярность этого ключевого слова (чем более оно популярно, тем меньше вероятность наложения фильтра). Чтобы выйти из-под фильтра, нужно уменьшить число вхождений ключевого слова на странице, разбавить анкор-лист (т. е. уменьшить процент ссылок на страницу, содержащих ключевое слово). После этого позиция сайта обычно восстанавливается.

3) Фильтры за рекламу и порнофильтр. Некоторое время назад Яндекс решил поспособствовать чистоте рунета и ввёл фильтры за определённые виды назойливой рекламы, неприятной для пользователей. Сайты, которые использовали рекламу во всплывающих окнах ("попап"), появляющуюся сразу при загрузке страницы или открывали новое окно при клике в любое место страницы ("кликандер") стали понижаться Яндексом в результатах поиска. Кроме того, он стал использовать постоянно совершенствуемый порнофильтр, который не пускает сайты "для взрослых" в выдачу по нейтральным запросам. При этом под порнофильтр может попасть и сайт, который сам по себе не содержит материалы "для взрослых", но на нём есть ссылки, баннеры, ведущие на подобные ресурсы. В общем, если хотите, чтобы сайт нормально ранжировался в Яндексе, избегайте подобной тематики и назойливой рекламы.

4) Фильтр на аффилированные сайты (аффилиат-фильтр). Что такое аффилированные сайты? Это сайты, которые Яндекс считает связанными между собой, например, это могут быть сайты, принадлежащие одному и тому же человеку или одной и той же компании и направленные при этом на предоставление одной и той же услуги. Также аффилированными сайтами будут, например, сайты, представляющие собой партнёрские интернет-магазины одной и той же партнёрской программы. Конечно, неправильно, если некая компания создаст не один, а десять сайтов и все эти сайты выведет в ТОП, поэтому на такие сайты накладывается фильтр. Фильтр работает следующим образом - по любому запросу в ТОП может попасть только один из всех аффилированных между собой сайтов. Определяет аффилированность Яндекс по разным признакам, включая ассортимент товаров и услуг, номера телефонов, контактные данные, указанные на сайте и т. д.

Траст сайта

Траст сайта - достаточно обтекаемое понятие, которое, тем не менее, активно используется оптимизаторами и, безусловно, имеет отношение к реалиям поискового продвижения. Траст - некоторый показатель сайта, который определяет степень доверия к нему со стороны поисковой системы и влияет на ранжирование и вероятность наложения фильтров. Чем выше траст, тем выше позиции сайта, тем меньше вероятность, что на сайт будет наложен фильтр за какое-либо нарушение.

Понятие "траст ранк" было использовано в теоретической работе специалистов поисковой системы Яху, которые рассматривали его введение как способ противодействия спаму и чёрным методам оптимизации. В основе назначения траста - ручная оценка некоторых ресурсов сотрудниками ПС, как качественных и заслуживающих доверия и последующее распространение траста по ссылкам (т. е. сайты, на которые ссылаются трастовые сайты, также будут трастовыми).

Несмотря на то, что официально ни одна из ПС не подтвердила использование подобного показателя в своих алгоритмах, на практике хорошо заметно, что одни ресурсы считаются ПС более трастовыми, чем другие, что помогает им находиться в ТОПе без каких-либо существенных усилий по оптимизации и избегать фильтров за то, за что другие сайты были бы уже давно забанены. Типичными примерами реальности траста являются, например, википедия, которая постоянно оказывается на первых местах в выдаче по самым конкурентным запросам среди усиленно продвигаемых сайтов или сайты на доменах edu, которые, будучи взломанными хакерами, мгновенно попадают в ТОП Гугла по высоконкурентным запросам типа "buy viagra".

В общем, для любого сайта хорошо быть трастовым и не быть нетрастовым. Считается, что положительно на траст сайта влияют: возраст сайта (чем он больше, тем лучше), ссылки на него с трастовых сайтов, естественность ссылочной массы (много естественных ссылок, мало покупных), уникальность контента и дизайна, наличие неспамных комментариев и обсуждений (например, на форуме, прикреплённом к сайту), наличие сайта в авторитетных каталогах с ручной модерацией, таких как ЯК (Яндекс-каталог) и DMOZ. Отрицательно на траст влияют продажа ссылок, завешанность рекламой, наличие признаков его активного искусственного продвижения и т. д.

Далее - Поведенческие факторы ранжирования

Вам всё ещё непонятно, какие фильтры используют поисковики и что такое траст сайта? Задайте вопрос на форуме.