Программирование - это просто
Advertisement
Главная arrow Биржевые роботы arrow SEO-оптимизация. Продвижение сайтов arrow Черные методы поисковой оптимизации (спамдексинг, поисковый спам)
31.10.2024 г.
Главное меню
Главная
Интернет магазин
Программные продукты
Биржевые роботы
Искусственный интеллект
Математика и информатика
1С:Предприятие
Уроки C#
Уроки Delphi
Уроки программирования
Web-программирование
Дизайн и графика
Компьютер для блондинок
Исходники
Статьи
Платный раздел
Рассказы про компьютеры
Хитрости и секреты
Системный подход
Размышления
Наука для чайников
Друзья сайта
Excel-это не сложно
Все о финансах
.
Черные методы поисковой оптимизации (спамдексинг, поисковый спам) Печать E-mail
Автор megabax   
14.07.2010 г.
В этой статье будет пошагово описано создание на Delphi приложение

Черные методы поисковой оптимизации (спамдексинг, поисковый спам)

Сначала давайте разберемся, какие  методы получили название "черные" и почему модераторы поисковых систем так не любят их, безжалостно оправляя сайты, уличенные в этом, в бан. Думаю, вы знаете, как работают поисковые системы. Если нет, зайдите сюда (SEO-оптимизация).  И так, существует ряд методов, позволяющих обмануть поисковых роботов и по заданным запросам выдать свой сайт вверху списка поиска. Теперь представьте, что вы хотите найти в Интернете, например, рецепты изготовления пельменей. Но вместо этого вам выдается реклама разных дорогих кафе и ресторанов. Далее вы уточняете запрос, вводите фильтр, что бы в поиск не выводились запросы, содержащие слова "кафе"и "ресторан". Но на первом месте все равно эта раздражающая реклама. Какова будет ваша реакция? Скорее всего, вас сильно разочарует поисковый сервер и вы больше не будете им пользоваться. Таким образом, владелец ресурса потеряет посетителя.

Но зачем владельцам поисковых серверов посетители и почему они пострадают от их потери? Услуга по поиску информации предоставляется бесплатно. Но! Наряду с релевантными (соответствующими запросу) результатами поиска сбоку показывается так называемая контекстная реклама, которая ненавязчива и раздражения почти ни у кого не вызывает. Рекламодатели платят владельцам поисковых систем за каждый клик посетителя на этой рекламе.  Естественно, чем больше посетителей, тем больше кликов (если, предположим, на рекламу обращает внимание один из ста, то при посещении ресурса миллионом человек на рекламу кликнут десять тысяч).

Исходя из всего вышесказанного, владельцы поисковых ресурсов заинтересованы в том, что бы поиск был качественный. Поэтому они всяческими методами борются с попытками обмана поисковых роботов, включая автоматические средства обнаружения спамдексинга (поискового спама). 

Теперь перейдем к самим методам черной оптимизации:

  • Невидимый текст.
  • Ссылочный спам.
  • Дорвеи с редиректом.
  • Клоакинг.

СПОСОБ ПЕРВЫЙ: НЕВИДИМЫЙ ТЕКСТ


Уловка заключается в том, что web-мастер размещает на существующих страницах сайта длиннющие списки ключевых слов и фраз, соответствующих самым популярным в интернете запросам, никаким боком не совпадающие с тематикой сайта. Причем, при размещении, используется шрифт в цвет основного фона страницы - посетитель его не видит, а поисковый робот находит легко. Делается это только для того, чтобы заманив посетителя на web-сайт, получить дополнительный трафик. А то, что посетители - случайная, а совсем не целевая аудитория для вэб-сайта - никакого значения для оптимизаторов не имеет.

Чем чревато использование подобной хитрости? Первое, это  высокий риск попасть в бан: какой нибудь недовольный посетитель или внимательный конкурент может написать жалобу модератору. И сайт будет исключен из индекса поисковой системы. К тому же с алгоритмы ранжирования (сортировки) результатов запроса постоянно совершенствуются и снижают эффективность таких приемов.

СПОСОБ ВТОРОЙ: НЕПОТИСТКИЙ (ССЫЛОЧНЫЙ) СПАМ

 

Непотистский спам (Nepotistic spam) - простановка ссылок исключительно ради их учета поисковыми машинами и увеличения таким образом значений ссылочной популярности, с целью повлиять на положение сайта в результатах поиска. Для реализации метода ссылочного спама зачастую создаются либо специальные сайты, либо, так называемые, веб-клубы по обмену ссылками. Выявление такого клуба модератором поисковой машины может повлечь за собой исключение из индекса всех его участников.

Часто для этой цели создается специальная сеть так называемых сайтов-спутников или сайтов-фермеров (Link-Farm-ы), обычно все они располагаются на одном сервере.

Обычно сайты, уличенные в ссылочном спаме, караются не баном, а занесением этих ссылок в так называемый неполист, в результате чего ни перестают учитываться и сайт опускается вниз.

 

СПОСОБ ТРЕТИЙ:  ДОРВЕИ

 

Когда пользователь входит на сайт, «нашпигованный» ключевыми словами, он сразу же принудительно перенаправляется на нормальный сайт, не успевая заметить слова, предназначенные исключительно для поисковых роботов. Такой метод черной оптимизации получил название "дорвеи" (doorway) с редиректом. Эти входные страницы индексируется поисковыми роботами и попадают на верхние строчки результатов поисковых систем по размещенным на ней ключевым словам.  Естественно, что это не вызывает положительной эмоций ни у пользователей internet, ни у поисковых систем.

Конечно, когда такие дорвеи автоматически генерятся сотнями и тысячами то, после их индексации, раскручиваемый сайт получает за их счет ощутимый рост трафика. "Раскрученный" таким образом сайт проживает яркую - но очень короткую жизнь. Вероятность того, что уже спустя очень непродолжительное время он будет внесен в бан просто огромна. Впрочем "специалистов" по раскрутке этот факт мало тревожит, к этому моменту они, как правило, уже ушли - как и мавр, вовремя сделавший свое дело.

 

СПОСОБ ЧЕТВЕРТЫЙ: КЛОАКИНГ

 

Клоакинг (Cloaking) - от английского to cloak (маскировать) - Способ работы веб-сайта, когда пользователю показывается одно содержимое, а поисковому роботу - другое, благодаря которому страница выходит на первые места в поисковом списке. Основывается клоакинг на отслеживании IP-адресов поисковых роботов и выдачи им заранее определенной информации.  Технически это реализуется следующим образом:  специально написанные скрипты автоматически производят сверку ip-адрес посетителя страницы с имеющейся базой данных ip-адресов поисковых роботов. Если адрес посетителя не найден в базе данных, то программа "думает" что это обычный пользователь и выдает ему содержимое для юзера, если находит - то показывает страницу для робота, "нашпигованную" ключевыми словами. Таким образом этот метод позволяет скрыть спам, из-за влияния которого на поискового робота страница и занимает высокие места в результатах поиска.

Но, несмотря на кажущуюся "продвинутость" этого метода, определить клоакинг совсем не сложно. Недовольному пользователю или бдительному конкуренту для определения клоакинга будет достаточно посмотреть на страницу, выданную по результатам поиска и сравнить ее со страницей, находящейся в кэше поисковой системы. И если страницы разные, и, находящаяся в кэше, оптимизирована для поискового робота, то остается только оповестить о клоакин ге поисковую систему. В результате страница будет занесена в "чёрный список" (бан) поисковой системы, что приведет к прекращению ее индексации.

Последнее обновление ( 05.02.2013 г. )
 
« След.   Пред. »
 
© 2024 Программирование - это просто
Joomla! - свободное программное обеспечение, распространяемое по лицензии GNU/GPL.
Русская локализация © 2005-2008 Joom.Ru - Русский Дом Joomla!
Design by Mamboteam.com | Powered by Mambobanner.de
Я принимаю Яндекс.Деньги