Поговорим о распределении частот всех поисковых запросов, а также о вебмастерах и поисковых системах. Спамдексинг.

Поговорим о распределении частот всех поисковых запросов, а также о вебмастерах и поисковых системах. Спамдексинг.

Абсолютно все поисковые запросы очень часто повторяются. Совершенно разные люди, в абсолютно разных городах, в очень разное время и в разнообразные поисковые системы вбивают одинаковые поисковые запросы: к примеру «windows», «жизнь», «работа», «время» и так далее.

И конечно же частоту употребления каждого из запросов можно легко подсчитать. Некоторые из них можно встретить в среднем один раз в неделю, ну а есть и такие, которые ежедневно могут повториться сотни тысяч раз. И чем длиннее сам запрос, тем реже он может встретиться. И также наоборот, самый наиболее частотный запрос из всей группы, которая относится к какой-нибудь теме, всегда будет являться самым общим запросом – это будет одно слово или же словосочетание, которое определяет тему.

Поисковые машины на сегодняшний день становятся самым основным поставщиком все новых и новых пользователей на какой бы то ни было интернет-ресурс, и все вебмастера это замечательно знают. Знают они также и закономерности спроса. Вебмастер, который поддерживает сайт, к примеру, по трудоустройству, где-то в Санкт-Петербурге, вне всяких сомнений осведомлен, что такой поисковой запрос, как «работа» встречается действительно гораздо чаще, нежели запрос «работа в Питере». Однако такой нечеткий однословный поисковый запрос, как «работа» используют далеко не только лишь питерцы, а и множество москвичей, новосибирцев, казанцев и так далее… Вот почему всем вебмастерам подобных сайтов по трудоустройству всех и каждого из названных городов очень хочется попасть на самую первую страничку поиска именно по основному, “главному” однословному поисковому запросу. А ведь городов-то много, и на самой первой страничке всех результатов поиска может уместиться всего-навсего лишь 15-20 таких ссылок.

Для того, чтоб еще более улучшить свою собственную позицию во всех результатах поиска вебмастера всегда применяли и продолжают применять ряд таких технических приемов, которые предназначены именно для обмана, так называемого “накручивания” поискового робота. Это явление называют спамом поисковых машин или же другим словом – спамдексинг (от таких английских слов, как spam + indexing). И появилось оно, это явление, практически в одно время с появлением самих поисковиков.

Так как поисковые системы раньше всегда использовали лишь разнообразные текстовые критерии для того, чтоб ранжировать результаты, то типичный прием спамдексинга – это так называемая “накачка” – то есть искусственное, специальное завышение частот («весов») определенных нужных слов на определенной страничке.

Такие вот варианты, способы “накачивания”, могли использоваться самые разнообразные: от примитивного, так называемого “скрытого”, невидимого для обычного пользователя текста, аж до создания целых специальных текстов. В таких текстах «веса» слов особо тщательно рассчитывались соответственно с их значениями, снимаемыми со страничек, которые занимают первые позиции в поисковых ссылках по нужным запросам.

Накачиваются также и сами страницы, и титульные фразы, а также и теги noframes вместе с keywords. Еще ко всему этому специально создаются странички с похожими “оптимизированными” для поисковых систем текстами, попав на которые, посетителя автоматически перебрасывает на другой какой-то сайт. Либо же он, пользователь, просто видит большую надпись “ВХОД”. Эти страницы так и называют – входные страницы. Кроме того, была разработана специальная, особая техника (называется клоакинг), она заключается в том, что поисковому роботу показывается одна страничка, а пользователю – абсолютно другая.

Похожие действия являются так называемым бичом для поисковиков, потому как они довольно сильно перегружают все индексы, а также и уродуют весь внешний вид страничек с выдаваемыми результатами поиска и плюс к этому всему достаточно резко снижают релевантность всей системы. Это означает, что ее качество вместе с конкурентным преимуществом в процессе борьбы за популярность с прочими поисковиками снижается и конкретно страдает.

Вся целиком история разнообразных поисковиков – это и есть история их постоянной нелегкой борьбы со всяческим спамом. Еще совсем недавно в процессе поиска оружия против такой вот текстовой “накачки” поисковые машины начали использовать способ дополнения текстовых алгоритмов ранжирования всех результатов при поиске какими-либо нетекстовыми критериями – а конкретнее ссылочными.

Итак, нетекстовые критерии релевантности

Все нетекстовые критерии можем поделить на такие вот три основных типа. Дадим им условные названия, ведь устоявшихся терминов пока еще нет. Итак:

- ссылочно-расчетные критерии

- ссылочно-текстовые

- и каталожные.

Как уже было упомянуто, в случае нетекстового критерия на ранжирование странички будет влиять не собственно ее содержание, а прочие факторы.

Рассмотрим ссылочно-расчетные критерии. К таким критериям можно отнести алгоритмы поисковика «Google» – это так называемый «взвешенный» индекс цитирования PageRank (сокращенно PR). Интересно будет прочесть подробную статью о нем, автор которой – Крис Райдингс.

Индекс цитирования сам учитывает, насколько много ссылок содержится в сети Интернет на Ваш сайт, а также и степень авторитетности ссылающихся на Вас сайтов. Авторитетность такой вот системы “цитирования” можно определить также по количеству ссылочек на “цитирующего”. Для того, чтоб рассчитать индекс цитирования, например, «Google» и похожие на него системы регулярно “перетряхивают” ужасающе огромные матрицы связей меж всеми сайтами Сети, пересчитывая при этом вес всех ссылок, а также и авторитетность ресурсов (следует отметить, что поисковая система «Google» использует для всего этого “ферму” больше чем из 10 000 серверов!..). Похожий алгоритм также использует «Яндекс».

Следующие, каталожные критерии. К таким вот каталожным критериям можем отнести, например, индекс цитирования системы «Яндекс» (citation index, CY), а также и алгоритм подачи результатов поисковика «Рамблер». И в первом, и во втором случае принцип остается один – сверху от всех результатов поиска по определенному запросу в индексах появляется несколько ссылочек на разные сайты, которые зарегистрированы в соответственных принадлежащих порталам специальных тематических каталогах. К примеру в случае поисковой системы “Яндекс” показывается примерно до трех максимум ссылок на все сайты из каталога того же “Яндекса”, если конечно их описание содержит слова запроса. Ранжирование происходит тут по убыванию индекса цитирования самого “Яндекса”. Все каталожные ссылки в поисковых результатах “Яндекса” четко и ясно отличаются от простых счетных: они не просто нумеруются, а помечаются точками. Описание определенного ресурса в каталоге “Яндекса” хорошенько проверяется, а частенько случается и такое, что оно составляется вручную теми же составителями каталога (их еще называют модераторами). Ну а индекс цитирования, конечно же, рассчитывается автоматически.

А вот, “Рамблер”, в свою очередь, “замешивает”, как говорится, на самую первую страничку результатов своего поиска по определенному запросу аж до пяти ссылок на какие-либо сайты, которые зарегистрированы в собственном каталоге-рейтинге под названием Rambler’s Top100, конечно же если их посещаемость (судя по “хостам”) свыше определенного минимального установленного порога. Таким вот критерием на внесение данных ссылочек в списки результатов поиска по определенному запросу служит обязательное наличие слов этого запроса в описании данного сайта, которое сделано специально для Rambler’s Top100. В “Яндексе”, допустим, размер описания ограничивается двумя сотнями символов, не более, а вот в отличии от него на индексацию в каталоге Rambler’s Top100 можно подавать описание размером аж до 4000 символов.

Во время внесения в рейтинг описания сайта оно может также хорошенько проверяться каким-либо сотрудником “Рамблера” – например, модератором рейтинга.

Теперь пару слов о ссылочно-текстовых критериях. К ним можно отнести, например, алгоритм, который не так уж и давно появился на “Яндексе”. В этом случае система “Яндекс” индексирует текст определенной ссылки (то есть тот текст, который выделен как гиперссылка на страничке сайта). Говоря другими словами, процесс индексации проходит содержимое тега <a href=…>, и если вдруг запрос совпадет с данным содержимым, то в результатах поиска выдаст адрес, который указан в теге.

“Яндекс”, вероятно, запоминает лишь внешние ссылки со всех сайтов, то есть другими словами страница, на которой указана ссылка, ни в коем случае не должна принадлежать тому сайту, где размещена данная ссылка.

Причем во время показа всех результатов поиска похожая страница не содержит титула, и поисковая система “Яндекс” сопроводит эту ссылку на нее прямым указанием – например, “адрес найден по ссылке…”.


Карта сайта


Информационный сайт Webavtocat.ru