CHAIKA

Главная | Регистрация | Вход
Пятница, 22.11.2024, 00:09
Приветствую Вас Гость | RSS
Меню сайта
Категории раздела
Все статьи [165]
Сервисы [26]
Антивирусы [4]
Антивирусы - Удаление антивирусов [4]
Антивирусы - NOD 32 [5]
Антивирусы - KAV & KIS [4]
Браузеры [3]
Загрузка - Менеджеры загрузки [0]
Загрузка - Правила закачки [0]
Загрузка - Сервисы для хранения файлов и изображений [0]
Запись [0]
Эмуляция [0]
Защита [63]
Игры - Крэк [0]
Локальная сеть [15]
Мультимедиа [0]
Мультимедиа - Аудио [0]
Мультимедиа - Видео [0]
Мультимедиа - Графика [0]
Мультимедиа - Флэш [0]
Настройки - Инструкции [54]
Операционная система [4]
Провайдеры Твери [8]
Система - Активация [8]
Система - Восстановление [5]
Система - Контроль [0]
Система - Обслуживание [0]
Система - Оптимизация [0]
Система - Справка [1]
Flash-накопители [1]
WEB-master [14]
WINDOWS 7 [18]
Новые статьи [2]
Статистика

18.222.92.56
Онлайн всего: 4
Гостей: 4
Пользователей: 0
Форма входа





Дай пять!получить кнопку


Главная » Статьи » Все статьи

Клоакинг. Ловушка для робота
Клоакинг. Ловушка для робота

И не смей ржать над словом клоакинг! Это совсем не то, что ты подумал. К заднему проходу пернатых и пресмыкающихся это не имеет никакого отношения.
Этим термином (cloaking) обозначается один очень интересный эффект, который благодаря некоторым манипуляциям, можно произвести над поисковыми системами.
Идея эта конечно не нова. Дело в том, что кроме пользователей твою страничку посещает и огромное количество роботов. Эти монстры – боты, краулеры, спайдеры, да назови, как хочешь, собирают разного рода информацию о Сети и сайтах.
Вот, например TurnitinBot с IP-адресом 64.140.49.69 представляет собой краулер системы, производящей анализ всех сайтов всей сети для занесения в свою базу. Хитрые преподаватели университета Беркли придумали систему TurnitinBot, чтобы устроить веселую жизнь своим студентам.

Информация, полученная ботом заносится в базу данных. Студент, написавший реферат или курсовик сначала предоставляет свои работы для проверки системе, которая производит анализ работы и если выясняется, что учащийся попросту сдул свой курсовик с какого-нибудь сайта, его работа считается плагиатом и не подлежит дальнейшему рассмотрению.

Примерно так же работают и поисковые системы – Яндекс, Ремблер, Гугл и тд. Сначала страницу посещает бот, который проверяет ее наличие, заносит в базу отдает, команду другому боту, который проверяет содержание и в свою очередь, дает команду следующему боту, что бы тот проверил, к примеру, ссылки на странице. Я не претендую на то чтобы абсолютно правильно описать работу, производимую этими монстрами, а лишь рассказываю о принципе их действий

В каждой поисковой системе несколько ботов. Они имеют разные функции и производят анализ страницы по различным параметрам. Отличает этих монстров от обычных пользователей только два основных параметра. Это IP-адрес и тип браузера.

Иными словами можно выделить робота по параметрам значения переменных REMOTE_ADDR и USER_AGENT. Это значит, что для робота можно выдавать страницу с одними параметрами, а всем остальным пользователям с другими. Смысл в том, что роботу абсолютно все равно, удобочитаемый ли текст на странице или полная ахинея. Робот анализирует, к примеру, количество ключевых слов на странице. Так надо дать ему такое содержание, которое позволит вывести эту страницу на 1-е место по нужным ключевым словам. Мало того, возможен вариант, когда сайт про хомячков будет находится на фразу "крутое порно" и наоборот J

Вот эти манипуляции с ботами поисковых систем и называется клоакингом

Для клоакинга используются специальные скрипты. Язык скрипта может быть любой – PERL, PHP и тд. Можно, например, написать такой скрипт, который бы выполнял такие действия:

1. робот посещает страницу или человек
2. Если робот, проверить REMOTE_ADDR и USER_AGENT из базы
3 .Если значения этих переменных совпали, выдать страницу для роботов
4. Если этих значений нет в базе, но имеется подозрение что на страницу зашел робот, выдать страницу для робота, а его REMOTE_ADDR и USER_AGENT занести в базу
5. Если это робот, определить какой именно и сгенерировать страницу исходя из особенностей поисковой системы
6. … продолжишь сам, насколько хватит фантазии

Естественно поисковые системы борются с клоакингом. Есть методы, позволяющие отслеживать подобные страницы. Сайт, заподозренный в клоакинге будет немедленно внесен в бан-лист без малейшей надежды когда-либо быть проиндексированным заново.

Клоакинг приводит к подрыву доверия пользователей к поисковой системе (искал про хомячков, а нашел про голых теток).

Все же для повышения ранжирования страницы лучше написать правильную страницу и никого не пытаться обмануть. В любом случае если твой сайт посвящен хомячкам не нужно пытаться увеличить посещаемость такими методами. Раз уж сайт про хомячков, пусть будет про хомячков, а "крутое порно" оставь кому-нибудь другому

Категория: Все статьи | Добавил: Chaika (07.10.2009)
Просмотров: 927 | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Поиск
Друзья сайта
  • Все для веб-мастера
  • Программы для всех
  • Мир развлечений
  • Лучшие сайты Рунета
  • Кулинарные рецепты













  • бесплатный счетчик посещений

    * *



    Copyright MyCorp © 2024 |

    Опция Просмотра Скрытых Файлов Сервера Оффлайн базы Зеркала обновлений NOD32 и Eset Smart Security Trojan.Winlock.19 удалить порноинформер Защитить Флэш-карту вирус автозапуска processinfo Conflicker Kido DDoS Autorun Инструкции по удалению продуктов Symantec Dr.Web KAV KIS Windows 7 активация оптимизация восстановление