Давайте сначала разберемся кому выгодно распространять различные мифологические истории о ботах и защите о них?

Отметим сразу, что Яндекс сообщает, что с роботами они всегда справлялись, накрутка невозможна, все под контролем.

Но проблема с ботами существует. И избавиться от ботов не так просто. Но и на этом спешат заработать любители хайпануть и что-то продать.

Здесь ничего не продается, поэтому информация будет максимально правдивая, без претензий на экспертное мнение и без претензий на установление истины и коннекта с дзеном.

Предыстория

Ранее для поднятия позиций сайта, имитировались не только переходы из поиска, но и для "улучшения" факторов самого сайта и придачи какой-то естественности на сайт вливали ботов по поддельным переходам с сайтов с большим "трастом" - социальные сети и т.п..

Позже за это понизили много сайтов, поисковики стали внимательнее к этому относиться, на сегодняшний день накрутчики ПФ не льют прямые заходы на свои сайты. А вот на сайты конкурентов... А почему бы и нет? Поисковая система получает сигнал, что пользователь сначала был на сайтах конкурентов, а конечный визит завершился на другом сайте. Что мы с ним делаем? Конечно же поднимем выше. Или как службам поиска расценивать такое поведение?

Да и сами накрутчики сайтов не испытывают восторг, когда обнаруживают на своих сайтах такой трафик. Да, они тоже блокируют роботов друг от друга. Выживает сильнейший или хитрейший.

А есть те, которые считают, что такой трафик не влияет. Они не могут конкретно объяснить на чем основаны эти выводы. Или вы думаете, что кто-то вливал роботов на свой сайт, чтобы это проверить? Или расскажет, что так делал с чужими сайтами?

Как конкретно это работает в данный момент времени никто не скажет точно, потому что как минимум нужно ставить эксперимент и длиться он будет не день, не пару, а пару месяцев. Яндекс тоже не стоит на месте прогресс есть, но вся информация закрыта и нет никакой ясности со стороны регулятора и цензора поиска.

В последние месяцы длительность сессий роботов на сайте поднялась, сразу же возник миф, что это повышает позиции сайта.

Можно предположить сколько отчетов было сдано клиентам об "успешной" раскрутке сайтов в социальных сетях.

Возьмите и проанализируйте метрику вашего сайта и посмотрите на то, как изменилось время просмотра сайта, количество отказов, роботность, география, пол, возраст, интересы аудитории с момента нашествия ботов. А это все учитывается, только нельзя сказать как именно, ибо формулу алгоритма не раскрывают.

Если я установлю защиту, то потеряю клиентов

Всегда хочется спросить: а если вы не поставите защиту, то какая гарантия что ваш сайт не упадет в результатах поиска? И на чем основана эта гарантия?

Определенно не нужно ставить защиту от роботов на трафик из поиска или рекламных сетей. Ни в первом, ни во втором случае вы ничего не докажете, а вам ответят, что о проблеме знают, на поиск она не влияет, а за недобросовестные клики вам деньги возвращают. 

С другой стороны, защиту стоит ставить на подозрительные прямые заходы или с других сайтов. У вас много раньше таких посетителей было? Обратите внимание, что это вовсе не посетители, которые к вам вернулись. Метрика отображает номер визита.

Но все равно кого-то вы такими блокировками потеряете. Уже не важно какую вы им капчу покажете. Всплывающее окно с кнопкой "ОК" им тоже не понравится.

Но здесь уже вам решать что терять. Пару продаж или просадка позиций. А может и правда ваш сайт сейчас еще выше поднимется уже завтра, все это скрыто от нас возможным обновлением алгоритма в любой момент.