Фильтры от Google
|
В данной статье Мы рассмотрим разновидности фильтров поисковой системы Google.com и пути выхода из под их действия (выход из бана).
Пожалуй начнем.
- фильтр «Sandbox» (песочница).
Попадание под данный фильтр- учесть каждого сайта, в начале пути. Его цель- не допускать молодые сайты (сайты, в возрасте менее половины года) в результаты выдачи по ВЧ запросам. При этом сайт успешно находится по СЧ и НЧ запросам, но с неким принижением. Избавление от этого фильтра произойдет по пришествию 8-12 месяцев, но если ждать Вам не хочется, обзаводитесь ссылками с авторитетных тематических сайтов (сайтов с высоким Pr).
- фильтр «Too many links at once Filter» (Слишком много сразу связей).
Под данный фильтр попадают сайты, администраторы которых занимаются массовой его регистрацией. Тоесть под фильтр попадают сайты получившие мгновенный прирост ссылочной массы. Чтобы не попасть в данный бан занимайтесь раскруткой сайтов постепенно (каждый день но по чуть-чуть).
- фильтр «Google — 30″ (Топ- 30).
Данный фильтр накладывается на сайты, замеченные в перенаправлении пользователей по средствам JavaScript редиректа на другие интернет ресурсы. В случае попадания под этот фильтр, Ваш сайт выподает из ТОП-30-ти.
- фильтр «CO-citation Linking Filter» (фильтр со соединения).
Этот фильтр весьма интересен. Тут такова технология: Вы разместили на сайте ссылку на понравившийся сайт, тот в свою очередь разместил ссылку на сайт с «запрещенной тематикой», то поплатятся за эту ссылку оба сайта. То есть, за «запрещенную ссылку» с сайта на которую ссылаетесь Вы, можно попасть и под бан.
- фильтр «Bombing» (бомба).
Под этот фильтр попадают сайты, на которые ссылаются множество сайтов, но при этом у ссылок идентичный анкор. Для выхода из бана, в глобальной сети должны появится ссылки на Вас (Ваш сайт) с различным анкором.
- фильтр «Duplicate Content Filter» (дубликат контента).
Под данный фильтр попадают сайты, замеченные в плагиате, то есть сайты с не уникальным контентом, а так как поисковая система не очень хорошо определяет источник, то она доверяет сайтам с наибольшим TR (Trust Rank) (тут такая истина: кто больше, тот прав, ну а в нашем случае, прав тот у кого больше TR).
- фильтр «Too many pages at once Filter» (резкое появление множества ссылок).
Этот фильтр может стать результатом чрезмерно быстрого расширения сайта (то есть «мгновенного» увеличения числа его страниц).
- фильтр «Broken Link Filter» (ломанные связи).
В данный бан попадают ресурсы, имеющую плохую навигацию и слабую перелинковку страниц ( как это исправить читайте в статье: Перелинковка в статьях блога). Это скорее даже не бан, а невозможность поисковой системы полностью проиндексировать сайт.
- фильтр «Omitted Results Filter» (опущение результата).
Этот фильтр накладывается на интернет ресурсы, имеющие плохую структуру, или не большое количество внешних (обратных) ссылок на Себя. Результатом такого бана будет отсутствие сайта в основном поисковом запросе, и появление его в вкладке “Дополнительные результаты” (а трафика там практически нет). Для выхода из бана обзоведитесь внешними ссылками с разным анкором.
- фильтр «Supplemental Results» (дополнительные результаты).
Сюда попадают ресурсы, в которых наблюдаются страницы очень схожего содержания. Такие сайты так же отображаются лишь во вкладке «Дополнительные результаты» (как это исправить читайте в статье: Что есть Рерайтинг).
- фильтр «Over Optimization Filter» (переоптимизация).
Сюда попадают сайты, перенасыщенные тегами выделения текста (такими как: strong, b, h и т.д.). Для предотвращения попадания в фильтр соблюдайте правило: “ Во всем нужна мера”.
- фильтр «Links.htm Page Filter» (страница «link.html»).
У системы Google есть скрипт, который при индексации сайта отслеживает страницы с названием «link.html». И если таковые находятся, то сайту грозит бан (еще один способ отслеживания линкопомоек). Дабы не попасть в данный фильтр при обмене ссылками, создавайте для них отдельные страницы, но чтобы ее название отличалось от «link.html».
- фильтр «Domain name Age Filter» (Возраста доменного имени).
Это фильтр доверия, зависящий от возраста сайта. Т.е. чем сайт старше, тем доверие выше. Высокий TR позволяет попасть в данный фильтр.
- фильтр «Link Farming Filter» (обратная связь).
Фильтр для сайтов, перенасыщенных внешними ссылками (сайты- линкопомойки). Выход из данного бана гарантирует лишь уменьшения ссылок (ссылки на внешние не должны превышать 3-5 на страницу).
- фильтр «Trust Rank Filter» (фильтр разряда).
Фильтр ранга доверия. Чем выше значение TR, тем выше при ранжировании будут Ваш сайт. TR зависти от: возраста сайта, количество ссылок (входящих и исходящих) и TR ссылающихся на Вас интернет ресурсов.
- фильтр «Page Load Time Filter» (время загрузки страниц).
Фильтр для страниц с большим объемом (в Кб). Google просто не моет их загрузить для индексации и пропускает. Оптимальный вес страницы- 20-40 Кб. Не превышайте его, но и меньше не делайте (слишком легкие страницы могут также попасть в бан.
- фильтр «Reciprocal Link Filter» (взаимный).
Под этот фильтр попадают сайты, ведущие прямой обмен ссылками (Вы поставили ссылку на страницу, которая ссылается на Вашу страницу, с которой идет ссылка). То есть поисковые системы не любят зацикленные страницы. Здесь выход таков: Вы ссылаетесь со страницы «А» на внешнюю страницу «Б», владелец страницы «Б» ссылается на Вашу страницу «С» со своей страницы «Д» (http://1_сайт/А ссылается на http://2_сайт/Б, а http://2_сайт/Д ссылается на http://1_сайт/С).
До новых встреч.
Комментарии (2) на “Фильтры от Google”
Оставить комментарий
[...] Разновидности фильтров поисковых систем Yandex и Google), плотность ключевых выражений не должна превышать 7% [...]
[...] Да и перед раскруткой Своего Интернет ресурса ознакомьтесь со статьями: Разновидности фильтров поисковых системYandex.ru и Google.com. [...]