Скликивание конкурентов в Яндекс Директ и Google Adwords. Мифы и реальность. Клоакинг яндекс директ


что это такое и как его используют для арбитража трафика в Яндекс Директ и AdWords

Мы увеличиваем посещаемость и позиции в выдаче. Вы получаете продажи и платите только за реальный результат, только за целевые переходы из поисковых систем

Узнай первым о новых статьях в нашем блоге

Клоакинг – это полулегальный метод поисковой оптимизации. Его суть – пользователи и роботы поисковой системы видят при запросе две разные версии одной и той же страницы.

Больше видео на нашем канале - изучайте интернет-маркетинг с SEMANTICA

В переводе с английского этот термин означает «маска, прикрытие». Это и объясняет назначение такого способа подачи информации в сети. Сложно получить хороший текст, подогнанный под все ключевые слова. Поэтому оптимизаторы создают по две версии страниц сайта – ту, что смогут без труда прочитать пользователи, и ту, в которой есть все ключевые слова для роботов.

Очевидное преимущество такого приема в том, что сайт быстро достигает высоких позиций в выдаче, и каждый получает свое: роботы – оптимизированную страницу, а пользователь – читаемый текст без спама и словесного мусора.

Клоакинг часто используют в арбитраже трафика. Он перераспределяется и открывает разное содержание для рекламных модераторов и целевой аудитории. Это делается для того, чтобы подогнать необходимый текст под правила рекламной сети – используя всего одну ссылку показывать два различных сайта.

Не стоит думать что клоакинг и дорвей – это одно и то же. Отличие в том, что первый способ не перенаправляет пользователя на другую страницу.

Зачем нужен клоакинг

Клоакинг используют не только для обмана поисковых систем, но и для более простой и удобной работы на сайтах. Образцом черного клоакинга будут страницы, которые продвигаются по топовым ключевым словам, но в действительности содержат рекламу или ссылки, не имеющие отношения к пользовательским запросам.

Существуют и более безобидные причины для использования клоакинга:

  • Защищать содержимое от кражи. Код, который владелец бережет от копирования, не виден пользователям.
  • Выдавать сайты на нужном языке. Для этого используются настройки браузера.
  • Распознавать местоположение пользователя по IP-адресу.
  • Сохранять дизайн страниц с помощью методов, которые не учитываются поисковыми роботами при добавлении страниц в свою систему. Тот вариант, что создан для поисковиков, такой же по структуре и содержанию, предложен в наиболее выгодном для них свете.

Как работает клоакинг

Чтобы создать страницы-копии, требуются не только знания в области программирования, но и умение оптимизировать текст под поисковик. Также нужно располагать информацией об IP или User-agent.

Процесс клоакинга выполняется с помощью скриптов, которые работают на веб-сервере. Они получают запрос и направляют скрипт на поиск источника. Их задача, выяснить, кто к ним обратился – робот или пользователь, и показать нужный вариант страницы. Параметром для определения источника запроса является IP-адрес или User-agent.

Использование User-agent

Так называется метод проверки данных User-agent запросов в сервере. Задается имя поискового робота, скрипт ищет это имя в своей базе данных. Если сервер выдает имя этого робота, то демонстрируется оптимизированная страница. В случае, когда имя в списке не находится, выдается вариант показа страницы для пользователя.

Этот доступный и эффективный прием, но он имеет ряд минусов:

  • Он легко распознается даже на уровне пользователей. Достаточно установить специальную программу, и пользуясь поддельным именем, выйти на версию для роботов.
  • Поисковая система, сменив имя робота на то, которого нет в базе скрипта, откроет страницу, созданную для людей.

Использование IP-адресов

Такой способ очень схож с методом User-agent по принципу работы, но считается наиболее эффективным. Его суть в распознавании IP-адреса, который невозможно подделать. Любой пользователь или робот обладает собственным индивидуальным адресом. Скрипт сверяет IP пользователя со своими данными о поисковиках. После этой проверки открывается предназначенная для каждого страница: пользователю – своя, роботу – своя.Владея адресами этих IP, можно легко обвести вокруг пальца не только робота, но и живых людей – работников поисковых систем, которые иногда вручную проверяют сайты. Перед ними откроется та же страница, что и перед пауком.

Самым надежным способом не стать обнаруженным при использовании клоакинга – совместить оба способа сразу. Скриптам ставится задача проверять при запросе данные User Agent и IP-адреса.

Поисковые системы против клоакинга

Почти все поисковики против таких методов работы. Они считают, что клоакинг, как спам засоряет базы данных и мешает нормальной работе поисковых систем. Когда боты распознают такие сайты, то применяют к ним штрафные санкции.

Яндекс борется с этим методом популяризации сайтов, применяя пессимизацию – сайт теряет позиции в выдаче по определенным поисковым запросам. Таким образом поисковик стремится, чтобы в ТОП-10 попали ресурсы с полезным контентом.

Не только Яндекс, но и другие поисковые системы борются с клоакингом и пресекают его разными способами. Часто случается, что версии страниц сервера разнятся не только качеством оптимизированного текста, но и абсолютным его отличием от изначального. Робот смотрит на текст с ключевыми словами, а пользователь видит рекламу и ссылки, не имеющие отношения к запросу.

Но все же еще раз напомним – не всегда клоакинг является злом. К примеру, Google подбирает версию главной страницы сайта по региону и языку пользователя.

Если вы намерены использовать клоакинг или похожие методы, помните, что это может послужить поводом для блокировки сайта. Но если вы сможете доказать что используете такой прием во благо пользователей, к вам проявят снисхождение.

semantica.in

Клоакинг. Что это, зачем оно нам и как с этим быть.

Эта статья ориентирована на новичков и тех, кто только подступается к партнерскому маркетингу, слышал это страшное слово “клоакинг”, но пока не понял что оно вообще значит, зачем это, надо ли это вообще и как настроить свой клоакер. Для профи я не буду раскрывать здесь никаких секретов.

 

ЛикБез

Клоакинг — от англ. cloak — мантия, маска, прикрытие.

Зачем это?

Чаще всего клоакинг используется для сокрытия наших лендов, редиректов и информации различной степени важности: на что льём, откуда и куда.

От кого нам скрываться? Здесь есть несколько возможных ответов.

  • от рекламодателя
  • от партнерской сети
  • от ботов/модераторов крупных рекламных сетей (Адвордс/ФБ и тп)
  • от модеров других трафиковых сетей
  • от конкурентов
  • от спай-сервисов

 

Теория

Я не буду вдаваться в детали, зачем именно аффам прятать ленд от рекла или партнерской сети, я думаю, что не трудно догадаться, какая последует кара, если вы используете серый ленд там, где его использовать нельзя, тут всё понятно. Кроме того я не являюсь сторонником сокрытия своей подноготной от нормальных партнёрок, тк считаю, что в этом нет необходимости, гораздо выгоднее строить нормальные отношения и договариваться об использовании каких-то не очень белых или даже совсем серых лендов, по опыту могу сказать, что на длинной дистанции скилл укрепления нормальных взаимоотношений со своими партнёрами (а ПП – это и есть наш партнёр) просто более выгоден обоим сторонам и логичен прежде всего для нас, если мы серьёзно настроены. Если же у нас бег на короткую дистанцию – окей, здесь я никого не осуждаю, на свой страх и риск можно пытаться скрыть от ПП все наши серые дела. А также клоакинг пригодится если вы работаете с ПП впервые и по каким-то причинам она вам не внушает доверия, это кстати вполне логично, так как ПП сейчас очень много, с каждым днём их количество растёт и не каждая новая партнёрка ведёт себя с аффами адекватно. Также есть отдельные крупные партнёрские сети, чаще всего китайские и русские к сожалению, я не буду показывать пальцем, но скажу, что в некоторых отдельных случаях метод построения хороших взаимоотношений просто анрил. О плохом опыте работы с ПП расписано миллион жалоб, комментов, постов и тп. Если начинаете работать с сетью – изучите её под микроскопом, не забывайте, что там ваши деньги.

Случай из практики хозяйке на заметку:

Будучи еще молодым и зеленым аффом работала я как-то с крупнейшей китайской [сетканейм] и лила трафик на пинсабмит одной из стран третьего мира. Я, как адекватно настроенный партнёр, долго общалась с менеджером ПП, мы с ней утверждали лендинг наверное недели две, к слову в итоге на ленде даже не было наглых и совсем уж мислидных заголовков “У вас вирус!” и тп, всё было на грани, не белое, не совсем серое и, как только мне дали добро, я начала работать. Как это бывает, поработала я с оффером, вышла в ноль и как только началась оптимизация, оффер вырубили. Ну ок, я переключилась на другую сетку и стала ждать выплат за прежние заслуги. Через недели три мне написала менеджер, что выплат не будет по причине мислида. На резонные вопросы ответа не последовало. Игнор продолжался месяц, пока по своим знакомым я не вышла на руководство сетки и не потребовала объяснений. Далее всё просто, когда поняли, что я не отстану, стали меня слушать. После просмотра той самой двухнедельной переписки с моей АМ и просмотра моих редиректов (благо всё было еще в рабочем состоянии), мне доложили, что выплата будет, но только согласно моим затратам. Я объяснила, что не вышла в плюс, показала развёрнутую стату из трекера и выплату сделали. Вот такая история. Что было бы если бы я просто поныла на форумах? Выплат понятное дело не было бы и обо мне бы даже вряд ли вспомнили. Выводы делайте сами.

 

По трафиковым сетям всё также неоднозначно. В некоторых сетях гораздо проще будет пройти модерацию, отправив их на белый ленд, здесь всё индивидуально и это зависит от самой сетки. Где-то это сэкономит время, где-то поможет избежать кражи ваших успешных связок. Не буду вдаваться в детали, но бывает всякое. Мы здесь не будем рассматривать чёрные стороны арбитража, этот блог не о том, но мы рассмотрим возможные способы самозащиты от различных неприятных моментов.

Зачем прятать кампании от ботов ФБ и Гугла? Тут всё до невозможного просто: чаще всего с этими сетями работают не в белую, а если вы работаете не в белую, то и без клоаки вам не обойтись.

Зачем прятать ленды от конкурентов и спайсервисов: тоже всё логично и просто – чем дольше наша связка не будет у нас украдена, тем больше она принесёт нам денег. Поэтому здесь, если твёрдо решили прятаться, то клоачим как можем всеми возможными способами. К слову, сейчас это довольно сложно, помним про адплексити и всё подобное.

 

Практика

Теперь об этом же, но в картинках. Есть различные виды клоакеров, платных, самописных, вшитых в трекеры и так далее. В этой статье я расскажу про основные возможности самого главного инструмента любого аффа – трекер и способы клоакинга с его помощью на примере моего трекера voluum, но если вы используете другой, то расстраиваться не стоит, всё очень похоже и логика везде одинаковая.

 

Подмена реферера. Дабл мета, мета.

Этот метод прост как грабли: жамкаем в трекере необходимый параметр и ПП не видит, откуда идёт наш траф. Если хотите технических подробностей, то погуглите “подмена реферера”.

meta

 

Побочки: вы теряете часть трафа. Серьёзно. Много трафа. Сплит-тесты с включенной метой и без неё давали абсолютно разные рои, на моих личных тестах до 50% разницы, про даблмету я вообще молчу. Юзаем очень аккуратно, если нам не так критично прятать ленд от сети, лучше не стоит даже смотреть в ту сторону.

 

Клоакинг по ГЕО.

Тоже всё просто. Логика: если мы льём только испанский трафик, то никто из России нам на ленде не нужен. Настраивается также элементарно:

В настройке кампании кликаем “Add rule” и ставим, что принимаем траф только из страны, указанной в кампании.

rules-geo

Логика: если страна не соответствует параметру Country в кампании, то траф идёт куда-то на белый ленд, трафбек и тп.

Здесь же можно раскидать нужные страны по разным лендам или, если мы льём глобал оффер допустим только на определенные страны СНГ, то логика будет такая:

rules-geo-2Если страна не соответствует гео как: Россия, Казахстан, Украина, Беларусь, то трафик идёт на трафбэк/другой ленд/другой оффер.

 

Клоакинг по токенам

Этот метод прежде всего касается модеров трафиковых сетей и клоакинга от них. Любая трафсетка даёт нам возможность использовать её токены (или макросы или UTM-метки, можно называть это так или иначе – суть одна).

Теория: когда пользователь кликает по баннеру №123, то в трекер с помощью макроса передаётся этот параметр и в стате мы видим, что юзер пришёл с баннера №123, надеюсь тут всё понятно.

Приведу довольно грубый пример. Идём на сайт trackingtokens и ищем там токены сетки plugrush. Возьмём к примеру только парочку из токенов: {$id} и {$cc}, добавим в трекер сетку и токены. После создания кампании наш трекинг линк  выглядит примерно таким образом: http://xxxxx.trackvoluum.com/e71db823-fa14-4c31-9e5e-11eaar6289f1?id={$id}&cc={$cc}, здесь я взяла не все токены, чтобы не перегружать статью лишним текстом и вам было проще понять. Токен {$id} передаёт айди площадки(паба), {$cc} передаёт ГЕО. Когда юзер переходит по ссылке на каком-то там адалт-ресурсе, токены передадут необходимые параметры, например: id=122456&cc=US, когда модератор перейдёт по ссылке ИЗ сетки, токены не передадут ничего, то есть несовсем. Они останутся прежними 🙂 А это значит, что кое-что мы всегда знаем о модераторах, они редко ходят к нам с сайтов своих сетей, чаще всего они приходят конечно же по ссылкам кампаний в админ-панели. Поэтому гипотетически мы можем попытаться их клоачить по токенам. Выглядеть это будет так: если переменная 1 равна {$id}, то юзер идёт на белый ленд, если переменная 2 равна {$cc}, то юзер идёт на белый ленд.

rules_tokens_1rules_tokens_2rules_tokens_3

К слову плаграш так вот прям в лоб уже склоачить не получится, тк у них модераторы уже знают наши методы обхода и подставляют в токены разные вариации параметров, но пока еще есть куча сеток, которые не заморачиваются этим и их модерацию можно легко таким образом пройти или же просто скрыть от них куда и что вы льёте. Кроме того, можно сесть и подумать как еще с помощью токенов можно клоачить модераторов 😉

 

Клоакинг по IP/ISP.

Самый простой способ скрываться от конкурентов и просто ненужных нам посетителей – использовать клоакинг по айпи популярных VPN. Некоторые базы лежат в сети, какие-то бывают сливаются на торренты, их часто кидают в проф чатах и на форумы, это нужно заморочиться, потратить время и собрать самостоятельно, плюс надо конечно следить за обновлениями баз. Также в отдельный список айпи можно собирать модераторов сеток, спайсервисов и так далее и также правилами трекера редиректить их всех куда глаза глядят.

rules_ips

Разумеется это не спасёт от adplexity, но если вы работаете с такими сетками как адвордс и ФБ, то очень даже поможет от тех, кто шпионит вручную и при этом юзает обычные впн, а также вообще в принципе поможет спрятаться от тех, кто заходит к нам по ссылке из спаилки/с обычных сайтов и хочет увидеть все редиректы и связки.

Клоакинг по ISP ничем не отличается, но хорошо бы иметь свежую базу максмайнд или подобную. Пример: нам нужен только трафик какой-нибудь мелкой страны, берём все её ISP и ставим в правилах, если ISP не такой как ISP1, ISP2, ISP3, юзер идёт на белый ленд.

 

Это основные правила клоакинга с помощью трекера. Так сказать основы основ, азы, которые просто следует применять по мере необходимости. Но это конечно только начало. Всего я здесь не смогу рассказать, да и вряд ли кто-то расскажет вам как профессионально клоачиться от вообще всех и вся.

Мне осталось упомянуть только платные варианты клоакинга, коих в сети уже очень много, из самых популярных:

  • Fraudbuster
  • NoIPFraud
  • JustCloakIt
  • SilentCloaker
  • Trafficarmor

Кому интересно – пока можно просто погуглить и посмотреть что почем. Не буду здесь расписывать какие-то из них подробно и давать рекомендации, это материал для отдельной статьи.Ну и подводя итог хочу написать еще пару строк.

Клоакеры пишутся за большие деньги под конкретные цели и задачи, палят юзерагенты/ботов/скрипты/разрешения и так далее и тому подобное, каждому необходимо защищаться так, как ему подсказывает опыт и требуют того цели. Кроме того, если вам кажется, что вы нашли тот самый крутой клоакер от того же адплексити, вы попрыгаете от счастья недолго, они послезавтра, через месяц, полгода напишут новый алго и вам надо будет искать способы скрываться еще как-то. Именно поэтому такие вещи никогда не лежат в сети просто так, не идут в комплекте к крупным популярным трекерам, их просто бессмысленно выкладывать широкой аудитории за бесценок. Всё взаимозависимо: если клоакер попадает в руки разработчикам спаилки, они быстренько выясняют где не работает их система и пишут что-то новое. Это их бизнес и понятное дело, они не будут опускать руки каждый раз как какой-то очередной клоакер набрал популярность. Поэтому лично я для себя решила, что говоря о спаилках и особенно прошаренных шпионах, заморачиваться этим в серьёз не стоит, кто захочет вас найти – найдёт. Да, простых правил по айпи, каких-то элементарных редиректов и пары строк в php на ленде, отсеивающих ненужное мне лично хватает. Гораздо выгоднее не разрабатывать каждый день новую защиту, а просто работать, тестить связки. Логика здесь простая: пока мою связку найдут, оттестят и честно украдут из адплексити, я уже буду лить на новой, потому что быть на шаг впереди конкурентов в целом всегда выгоднее. Короче говоря, на мой взгляд следует искать конкурентные преимущества в другом. Но не буду навязывать своё мнение, у всех разные хотелки, мнения и цели, когда-то мне было интересно прятаться, просто чтобы понять и осознать все тех.моменты клоакинга. У всех бывают разные периоды и разные цели в разное время.

 

 

ru-affiliate.info

Клоакинг: что это такое?

Клоакинг (от англ. cloak- маска, прикрытие) — один из методов черного SEO, когда поисковому роботу и пользователю демонстрируются разные варианты одной и той же страницы.

Читабельные тексты трудно оптимизировать под все ключевые слова, поэтому вебмастера разрабатывают 2 варианта страниц сайта, для пользователя и для робота.

Клоакинг немного похож на метод дорвеев, правда, он не использует автоматическую или ручную переадресацию пользователя на нужную страницу, что снижает вероятность кражи оптимизированной страницы конкурентами. Но создание копий страниц – кропотливая работа, так как требуются не только основы программирования, но и наличие таких данных, как ip или user-agent роботов.

Клоакинг так же, как и дорвеи, можно разделить на:

  1. Черный – незаконный, пользователю показывают несоответствующий запросу текст, а роботу - оптимизированный текстовый материал для повышения ранжирования.
  2. Серый. Иногда представленный на сайте контент можно распечатать или продемонстрировать в виде текста, из-за чего один и тот же материал может быть представлен в 2 и более вариантах. Ссылки на такие тексты с других сайтов могут послужить причиной их индексации и отнесения в разряд неуникальных. Чтобы этого не случилось, на второстепенные ссылки устанавливают редирект, который перенаправляет ссылочный вес на статью-первоисточник. Такой метод не вредит пользователям и не влечет за собой накладывание фильтров.
  3. Белый - законный клоакинг. Сайты переадресовывают пользователей для облегчения работы с сайтом. По такой схеме работает геотаргетинг.

Как создать?

Пользователя от поискового робота можно отличить при помощи IP-адреса и User Agent. Роботу автоматически показывают оптимизированную страницу, а пользователю стандартный контент сайта. В разработке таких сайтов задействуют следующие программы:

  1. User Agent - самый простой способ клоакинга. Вебмастер просматривает данные User Agent, в которых присутствует имя поискового робота. Один из алгоритмов Яндекса известен под именем Yandex/1.01.001 (compatible; Win16; I), зная имена роботов, можно прописать функцию сравнения имен роботов и User Agent посетителей и показывать каждому из них требуемое содержимое. Легко обнаруживается – для этого, используя специальные программы, необходимо всего лишь зайти на сайт под именем робота и получить «подкорректированную» страницу сайта. Чаще всего таким способом клоакинг определяют конкуренты, чтобы «нажаловаться» на мошеннический сайт в службу поисковой системы, которая накажет нарушителей.
  2. IP-адрес – самый эффективный способ клоакинга, поисковые роботы определяются посредством IP-адресов, а фальсифицировать их довольно затруднительно. Можно показывать пользователям стандарт сайта, выбирая его страницы из специальной базы – вручную такую схему роботу не распознать. Но такой метод предусматривает доступ к базе данных адресов.
  3. Комбинированный клоакинг - сочетание проверки User Agent и IP-адресов. Метод показывает наивысший результат, но он наиболее трудоемкий.

Клоакинг и поисковые системы

Практически все поисковики признают клоакинг нелегальным и всячески пресекают его. Иногда страницы сайтов отличаются не только качеством оптимизации контента, но и его тотальным отличием от оригинала. Например, робот может видеть текстовый материал с ключевиками, а пользователь - рекламные объявления. Как уже было сказано выше, не всякий клоакинг - это мошенничество. 

Клоакинг применяют Amazon.com (показывает товары в зависимости от ранее открытых страниц), Yelp.com, некоторые сервисы Google, NYTimes.com (зарегистрироваться можно только после 5 кликов), ComputerWorld.com (пользователи видят рекламу, а робот –html-текст) и Forbes.com (чтобы попасть на главную страницу, необходимо просмотреть один рекламный ролик).

wiki.rookee.ru

Клоачим Google Adwords при помощи AdsBridge

Думаю каждый арбитражник хоть раз, задумывался о работе с контекстной рекламой, в частности с Google Adwords. Ещё бы огромное количество качественного поискового трафика таргетированного по вашим ключевикам. Но к сожалению далеко не по всем офферам, это возможно делать белыми методами. Одичалая модерация Adwords, довольно серьёзно закрутила гайки и клоакинг уже давно является единственным методом проталкивания своих офферов в сетку.

 

Основная проблема с Adwords заключается в том, что помимо ручной модерации, приходится отбиваться от множества гугл-ботов. Этим в нашем случае и хорош AdsBridge, он позволяет фильтровать ботов и тем самым отсеивать их. Это мы и будем рассматривать в данной статье.

 

В целом Google позволяет работать с различными трекерами при соблюдении всех условий рекламной политики, многие пользователи используют AdsBridge в работе с Adwords без каких-либо серых схем и расшивок, просто для работы с собственным трафиком или других безобидных нужд. 

 

Для успешной работы с Google необходимо использовать свой собственный домен, привязанный к системному домену AdsBridge по CNAME по стандартной схеме, описанной в их мануалах. Таким образом, ответственность за репутацию домена в Google вы будете нести исключительно сами, она не будет зависеть от других пользователей.

Использование системных доменов AdsBridge в случае работы с Google не рекомендуется, по простым причинам:

  1. эти домены имеют тестовое предназначение, так как они находятся в общем доступе всех пользователей;
  2. из-за некоторых “недобросовестных юзеров”, которые обманывали (или пытались) обойти Google, через эти домены. Они могли просто попасть в блэклист, а соответственно не пропускаться в кампаниях Adwords.

 Также при работе с Google стоит учесть то, что джампы, созданные в AdsBridge, скрыты от индексации и не являются SEO-оптимизированными.

 

Если же все-таки необходимо клоачить ботов Google, можно использовать следующую схему с разными правилами расшивки трафика:

 

1.Настраиваем путь “По умолчанию” (Default path), в который добавляем как оффер какую-то ссылку, которая соответствует правилам Google Adwords. На эту ссылку мы будем отправлять всех ботов, таким образом они будут видеть клиновую страницу. При необходимости, можно в этот путь добавлять кроме оффера еще и лендинг, если таковой имеется. 

 

2.Далее настраиваем путь для реального неботового трафика. В этом пути настраиваем правило расшивки трафика, по которому мы будем понимать, что это реальные пользователи, а не боты (подробней о возможных правилах напишу ниже), например ISP - is not equal to - Google Inc. . В этот путь добавляем лендинг и оффер для всего неботового трафика: 

 

Вот, в общем-то, и вся схема.

 

Расшивать ботов Google можно по следующим правилам:

· ISP - чаще всего у ботов Google стоит ISP Google Inc.

· Useragent - исходя из документации того же Google, боты Adwords имеют определенные Useragent, зная которые можно запросто таких ботов отсеивать. Например, поставить следующее правило: Useragent - does not contain - Googlebot, AdsBot, Mediapartners 

 

· IP - в интернете можно найти целые базы айпишников ботов Google. Эти IP адреса можно загрузить в правило расшивки следующим образом: 

 

Можно отследить комбинацию этих параметров и расшивать не по одному из правил, а по всей комбинации. Лучше всего конечно самому проверить свою статистику и посмотреть данные по переходам ботов, и на основании этих данных клоачить ботовый трафик, либо поискать эту информацию на различных источниках.

И еще одно важное примечание: ботов нужно отправлять на какую-то реальную клиновую страницу, расшивать их на 404 ошибку(в случае, если, например, настроить описанную выше расшивку по правилу перехода, но отключить путь “По умолчанию”), или на какую-то вообще не связанную с тематикой рекламы страницу не рекомендуется (это точно так же может стать причиной бана кампании и всего аккаунта).

 

Ну и самое главное данные о своих ботах, которые предоставляет сам Google:

 

 

Crawler

User agent token

Full user agent string (as seen in website log files)

Googlebot (Google Web search)

Googlebot

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

or

(rarely used): Googlebot/2.1 (+http://www.google.com/bot.html)

Googlebot News

Googlebot-News

(Googlebot)

Googlebot-News

Googlebot Images

Googlebot-Image

(Googlebot)

Googlebot-Image/1.0

Googlebot Video

Googlebot-Video

(Googlebot)

Googlebot-Video/1.0

Google Mobile (feature phone)

Googlebot-Mobile

·         SAMSUNG-SGH-E250/1.0 Profile/MIDP-2.0 Configuration/CLDC-1.1 UP.Browser/6.2.3.3.c.1.101 (GUI) MMP/2.0 (compatible; Googlebot-Mobile/2.1; +http://www.google.com/bot.html)

·         DoCoMo/2.0 N905i(c100;TB;W24h26) (compatible; Googlebot-Mobile/2.1; +http://www.google.com/bot.html)

Google Smartphone

Googlebot

​Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2272.96 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Google Mobile AdSense

Mediapartners-Google

 

or

 

Mediapartners

(Googlebot)

[various mobile device types] (compatible; Mediapartners-Google/2.1; +http://www.google.com/bot.html)

Google AdSense

Mediapartners-Google

Mediapartners

(Googlebot)

Mediapartners-Google

Google AdsBotlanding page quality check

AdsBot-Google

AdsBot-Google (+http://www.google.com/adsbot.html)

Google app crawler

(Used to fetch resources for mobile apps, obeys AdsBot-Google robots rules.)

AdsBot-Google-Mobile-Apps

AdsBot-Google-Mobile-Apps

 

Специально и исключительно для наших читателей:

 

Ребята из AdsBridge предоставили скидку 25% на тарифы: Начинающий (год), Продвинутый (месяц/год), Бизнес (месяц/год).

 

ПРОМО: Partnerkin25 

 

Остальным хотим напомнить, что опробовать трекер и по клоачить немного Гуглботов можно и бесплатно.

partnerkin.com

Клоакинг в Яндекс Директ : нужен маркетолог, фриланс, FL.ru

Бесплатно зарегистрируйся и получай уведомления о новых проектах по работе

Заказчик

Отзывы фрилансеров: + 2 0 - 0

Зарегистрирован на сайте 5 лет и 2 месяца

Бюджет: по договоренности

Добрый день. Необходимо сделать рекламу стоматологии в яндекс директ. У них пока не готова лицензия, но начать они уже хотят. Скажите пожалуйста сможете ли вы помочь со скриптом клоакинга и сколько это будет стоить? Писать в vk.com/prusovda

Разделы:

Опубликован:

18.02.2018 | 15:39

Теги: Маркетологи удаленно, нужен маркетолог, ищу маркетолога, резюме маркетолога, требуется контекстная реклама

www.fl.ru

динамический контент против клоакинга / Блог компании Yagla / Хабр

В интернете наступила эпоха персонализации. Интернет-магазины отслеживают поведенческие факторы и рекомендуют конкретному клиенту интересные ему товары; контент посадочных страниц меняется в зависимости от запроса и даже поисковики делают персонализированную выдачу. При этом вокруг технологии персонализации в Рунете разгораются дикие страсти. Мы регулярно получаем обвинения в том, что динамический контент — это клоакинг. Где правда?

В чем дело

Для начала вспомним матчасть: клоакинг (от английского cloak — маска, прикрытие) заключается в том, что пользователю и поисковым роботам на одной и той же странице выдается разная информация. Его создали для искусственного влияния на поисковую выдачу. Несколько лет назад факторы ранжирования Яндекс и Google были далеки от «человечности». Оптимизированная по всем правилам страница напоминала винегрет из ключевых слов.

Знакомая ситуация: сайт в ТОП-1, seo-шники потирают руки, владельцы бизнеса прыгают от радости, а потенциальному клиенту читать все это без слез невозможно. В итоге некие веб-мастера придумали гениальную вещь: «а давайте будем показывать роботам «нашпигованный» ключевиками текст, а пользователю человекоориентированный вариант».

Для различения роботов и посетителей проверяются IP-адреса или User Agent. С технической стороны все достаточно сложно, плюс необходимы имена поисковых роботов и база с IP-адресами.

Оказалось, что «овчинка стоит выделки» — сайт продвигается в выдаче, пользователи любят его за «близость к народу», если это коммерческая тематика — растет конверсия, соответственно, продажи. Однако в действительности не все так радужно: метод больше использовался для манипуляций в погоне за трафиком.

Например, пользователь ищет бесплатные музыкальные треки, а его перебрасывают на страницу интернет-магазина с дисками. Про порно-сайты скромно молчим: вот уж где поисковые спамеры разгулялись по полной программе) В подобных случаях контент для поисковиков может на 100% отличаться от содержания для пользователей.

Легальный клоакинг

Яндекс & Google объявили за клоакинг жесткие штрафные санкции, от пессимизации до бана. При том, что сами используют его элементы. Как так? Но для начала скриншот из хелпа Яндекса, где клоакинг и похожая технология дорвеев в почетных лидерах запрещенных методов:

Яндекс и Mail.ru по IP-адресу учитывают местонахождение пользователя и показывают ему локальные виджеты (карта города, погода, пробки, новости). Для Москвы одно, для Перми другое, Владивостока третье: самый простой пример под названием геотаргетинг. Гугл делает редирект (перенаправляет) на региональную версию при заходе на google.com. Никто не против такого подхода, потому что это удобно: пользователь автоматически оказывается в «родной» среде.

Следующий пример легального клоакинга — товарные рекомендации в интернет-магазинах. Первым его освоил Amazon еще в 2005 году. Скажем, посмотрели вы детский рюкзак (карточку товара). При возврате на главную или при переходе в другие категории, в конце страницы видите блок «Рекомендации, связанные с тем, что вы смотрели»:

Если посетитель не купил одну вещь, магазин предлагает что-то похожее из ассортимента. Шансы на продажу существенно возрастают. По словам маркетологов Amazon, на товарных рекомендациях и апселлах (допродажа к основному заказу) они зарабатывают до 20% годовой выручки.

Далее идет колл-трекинг, когда под конкретный запрос показывается отдельный номер телефона. Подмена номера происходит автоматически. Владельцы сайта видят с какого запроса пришел лид, что позволяет сделать детальную аналитику.

По принципу клоакинга работают и системы a/b тестирования — для поисковиков одна страница, а для пользователей трафик делится поровну с исходной и тестовой версией (с другим заголовком, например). В результате одна часть видит вариант A, вторая — вариант B. Проанализировать эффективность страницы и повлиять на конверсию можно только с помощью a/b тестов.

Наконец, метод, который вызывает самые ожесточенные споры. Речь о динамическом контенте. Мы используем его в системе увеличения конверсии Yagla.

Динамический контент против клоакинга

Суть технологии в подмене части контента посадочной страницы под запросы пользователей из контекстной рекламы. Напомним, что в 99% случаев все ключевики ведут на одну и ту же страницу (в первую очередь в случае с одностраничниками). При том, что у разных пользователей разные мотивы и критерии выбора. Для кого-то важен производитель, кто-то ищет по цене, в кредит, по условиям доставки и так далее.

Еще больший разброс в услугах. Пример одного из наших клиентов — свадебное агентство. Вот только основные потребности: люди ищут тамаду, ресторан, организацию праздника «под ключ». Агентство предоставляет все эти услуги, трафик «гонят» на один лендинг. Да, можно «заморочиться» и сделать три страницы, но и этот шаг не покроет всю массу запросов, всех потребностей. А если у бизнеса двадцать видов услуг?

В этой статье мы показываем работу динамического контента в нише оптовых поставок: Как продать 10 000 товаров на одном лендинге

Более наглядно смотрите на примере лендинга автомастерской. Это оригинальный вариант:

А это вариант заголовка под запрос «замена топливного фильтра»:

Представляете, какая номенклатура услуг у автомастерской? Только основных категорий — 29, без углубления по маркам. Плюс допработы (установка сигнализаций, видеорегистраторов и т.д.) Море возможностей для гиперсегментации. Пользователь переходит по объявлению и не копается в списке работ, а сразу видит то, что ему нужно.

Да, владелец сайта синхронизирует рекламную кампанию с Яглой, сам указывает подменяемые элементы в редакторе и вписывает, например, новые варианты заголовков под каждую группу запросов. Либо подписи к лид-формам, кнопки CTA, изображения на первом экране. Повышение конверсии происходит за счет персонализации торгового предложения (оффера). Бизнес предлагает человеку ровно то, что он ищет.

Вот вкратце как работает и что дает бизнесу динамический контент.

Важный момент: подмены происходят только по запросам из контекста. Органический трафик не трогаем.

Позиция «против»

Претензии сводятся к тому, что мы отдаем разный контент пользователям и роботам (смотрите первую часть определения Яндекса на верхнем скриншоте). И алгоритму поисковиков сложно отличить сайт с динамическим контентом от спамерской махинации с целью повлиять на выдачу.

Позиция «за»

Самое интересное, что Яндекс и Google спокойно воспринимают динамический контент когда он работает в рамках персонализации. Теоретически, конечно, владелец сайта может радикально изменить содержание страницы. НО это уже на его совести и не имеет никакого отношения к задаче сервиса.

Несколько месяцев назад мы задали вопрос по поводу опасений попасть в разряд клоакинга в службу поддержки Яндекса и получили следующий ответ: «Если посадочная страница релевантна объявлению и ключевому запросу, не будет никаких проблем».

По мнению авторитетного интернет-предпринимателя Майкла Кэмпбелла, последствия зависят от того, с какой целью применяется технология. А вот слова его коллеги Джона Херда: «Неприятности могут ожидать только при попытке ввести посетителя в заблуждение. Когда вы создаете страницу, максимально релевантную запросу, вы помогаете и посетителю, и поисковой системе».

Банят за обман и манипуляцию. Вспомним вторую часть определения Яндекс: «… с целью повлиять на ранжирование в поисковой системе». Учитывая стратегию персонализации, особенно у Google, это самое страшное преступление. Поэтому за клоакинг так жестоко карают. А вот любое улучшение user experience (пользовательский опыт) тем же Гуглом только приветствуется. К чему мы, собственно, и стремимся.

В заключение два экспертных мнения по поводу существующих опасений. Они четко расставляют все точки над i.

Максим Уваров, директор по развитию сервиса K50

Алексей Довжиков, основатель сервиса автоматизации контекстной рекламы eLama, директор по развитию компании Trinet

P.S. Как видите, сама проблематика немного потеряла актуальность из-за серьезных перемен в концепции интернет-продвижения по сравнению с временами рождения клоакинга. Даже для «олдскульных» seo-оптимизаторов.

Если же тема до сих пор мучает, с готовностью ответим на ваши вопросы в комментариях.

С уважением к вам и вашему бизнесу, основатель сервиса Yagla.ru Александр Алимов

habr.com

Скликивание конкурентов в Яндекс Директ и Google Adwords. Мифы и реальность.

Многие новички, то есть те, кто недавно освоил Яндекс Директ и Гугл Адвордс, задаются вопросом, как разорить своего злостного конкурента. Профи же знают, что это дело – бесполезное и не дающее никакого результата и ниже я объясню почему. Контекстная реклама в поисковиках зародилась свыше 15 лет назад и является основным доходом поисковых систем. За годы существования, были разработаны механизмы и принципы, которые делают это дело полностью бесполезным.

Существует 2 основные причины бесполезности этого занятия. 

1. Защита. Система контекстной рекламы, что в Яндексе, что в Гугле, имеют защиты от скликивания:1.1. IP адрес. Самая простая защита. Для понимания, каждый юзер может скликать деньги не более 1 раза в сутки. То есть вы можете хоть 10 раз кликнуть, однако, с рекламодателя сумма спишется только 1 раз. 1.2. Cookie. Можете погуглить что это такое. Коротко говоря, как только вы впервые заходите на страницу поисковой системы, она автоматом забрасывает вам в браузер специальный программный код и через него отслеживает вас. Через этот код поисковики получают информацию о посещаемых вами сайтах, предугадывает какие результаты показывать вам в поиске и все такое. Таким образом, даже если у вас динамический IP адрес и вы переподключите интернет и у вас будет новый IP адрес, все равно, вы не сможете скликивать деньги конкурента. 

Да, вы можете установить дюжину браузеров, отключать в них это самое cookie и все такое, но все равно, это не решение. Если кликов с браузеров с отключенными cookie свыше 2-3% от общего количества кликов, то такие клики прекращают учитываться.

Защита от скликивания. Она существует и представляет из себя специальный алгоритм, который считает коэффициент скликивания и если вдруг у какого-то рекламодателя резко увеличивается количество кликов от среднестатистического значения, то включается механизм защиты. Лично я нередко получаю письма от Яндекс Директ о том, что был сделан перерасчет и на баланс возвращена такая-то сумма. 

2. Бесполезность. Как мы знаем (а кто не знает, то лучше узнайте подробнее), важнее то, сколько рекламодатель платит денег в сумме, а не стоимость клика. Поэтому и идет борьба за составление качественной рекламы, чтобы было выше CTR, чтобы в рамках определенного бюджета получить максимум целевых посетителей (и это можно добиться, сделав более привлекательным рекламное объявление). 

Так вот, чем выше CTR объявления, тем ниже стоимость клика, а суммарный расход является значением постоянным))). Таким образом, если вы все же скликаете объявления конкурента (а сделать это реально, ведь есть куча бирж, где можно нанять живых фрилансеров, которые за небольшую денюшку накликают вашего конкурента), но фактически, этим вы поднимите CTR объявлений конкурента и у него стоимость клика будет ниже, но это никак не израсходует его бюджет. 

Резюмирую сегодняшнюю статью: скликивание конкурентов занятие бестолковое и не дающее никакого реального эффекта, из-за механизмов защиты и принципов работы контекстной рекламы, поэтому, тратьте свое время на то, чтобы сделать свои объявления более эффективными.

Конечно, палладины 80lvl в сфере контекстной рекламы поспорят со мной относительно пункта «2. Бесполезность», так как они знают, что скликивать надо не через поисковик, а с сайтов партнеров Яндекса, ведь при клике на партнерской сети, оно не участвует в общем CTR и таким образом можно выкачать бюджет конкурента. direct_ploschadki

Но даже оттуда вряд ли удастся выкачать более 20% от рекламного бюджета конкурента, сработает защита от кликфрода! 

Вопросы?

velibekov.ru


Смотрите также