За что все — таки могут наказать качественный, сделанный для людей сайт? Ведь, кроме АГС, существуют и другие фильтры.
А. Ш.: Могут наказать за технические проблемы, особенно если ваши конкуренты подсуетятся. Если ваш сайт тяжело индексировать, то есть на нем 200 страниц, а на его индексацию надо потратить ресурсов как на сайт с 200 тыс. страниц, его могут наказать, пусть даже с точки зрения наполнения контентом он совершенно нормальный. Положим, робот ждет, пока сайт ответит, по пять секунд на страницу, или у вас на каждую страницу с полезной информацией приходится десять с бесполезной. Или архитектура сайта до такой степени запутана, что робот, проходя по графам, по 50 раз зайдет на одну и ту же страницу, считая, что он попадает на новую.
Могут ошибочно наказывать за поведенческие факторы или за неверную раскрутку сайта. Например, если в какой-то момент вы решили всерьез продвинуться по SEO и получилось так, что у вас 95 % входящего трафика составляет SEO — трафик, причем большой, то есть если на ваш сайт только с поисковиков заходит 20 тыс. человек в день, составляющие абсолютное большинство его посетителей, то определенные механизмы позволят «Яндексу» заподозрить, что у вас MFA — сайт, созданный исключительно для того, чтобы сливать куда — то трафик по более высокой цене, чем та, по которой вы его привлекаете. И если, не ровен час, на вашем сайте найдутся тому подтверждения – необоснованно большое количество тизерок и прочего, – то вас однозначно накажут, и довольно жестоко, притом что наказание будет снять очень тяжело. Или у вас нормальный сайт, но вы решили продвинуться сомнительным способом. К вам пришел новый веб — мастер и обмолвился, что знает, где взять трафик по 10– 20 коп. за человека. Такие источники действительно есть, и вы гоните себе 50 тыс. человек в день. Между тем у вас никакого другого входящего трафика нет. Так не только у «Яндекса». Все роботы сразу делают стойку: «А, мы имеем дело с арбитражем!» Не дай бог, у вас на сайте где — нибудь мелькнут слова «пошли SMS»: он будет наказан. Хотя, казалось бы, это совершенно невинные вещи.
Сайт рискует попасть под фильтр только потому, что у него слишком большой процент трафика поступает из поисковиков, хотя на самой площадке все идеально?
А. Ш.: Да. Что такое идеальный сайт с точки зрения поисковой машины? Никто не знает. Приведу еще один пример. Сайт компании в сфере недвижимости, и на нем огромные базы – десятки тысяч страниц. На нем реализован механизм – то ли AJAX, то ли что — то другое, – благодаря которому человек заходит на сайт, просматривает один объект недвижимости, щелкает на другом, тот подгружается, притом висит один и тот же URL. С точки зрения робота, человек находился на одной странице с неизменным URL. Сайт работает, посетители выполняют нужные им действия, все сделано для людей. Что видит поисковая машина? То, что изо дня в день сотни человек ходят на одну и ту же страницу сайта, а на остальные страницы не заглядывают. Закономерный вопрос: а зачем эти страницы в индексе?
Но ведь «Яндекс» декларирует, что с некоторых пор прекрасно понимает AJAX?
А. Ш.: Не берусь судить, AJAX там или не AJAX. Да, мне говорили, что и JavaScrip понимает, и Flash подгружает. Но факт: как только была дана рекомендация использовать тупой GET — запрос, чтобы каждая страничка имела свой адрес, сайт начал очень хорошо индексироваться, вошел в индекс заново. Правда, по — моему, после письма Платону Щукину12, где ситуация была объяснена.
А как быть в таком случае, когда действительно, казалось бы, невинная, с точки зрения владельца сайта, мелочь приводит к попаданию под фильтр? Например, то же самое использование тизерок, избыток рекламы.
А. Ш.: По — моему, у «Яндекса» это даже где-то написано. Даже если нет, у «Бегуна»13 четко продекларировано. Если вы прочтете пользовательское соглашение «Бегуна» и будете его неукоснительно выполнять, шансы попасть под фильтр за арбитраж трафика, за слив трафика в сети контекстной рекламы у вас будут минимальными. Например, тот же самый «Бегун» никогда не примет ваш сайт в свою систему, если у вас «моновходящий» трафик. Допустим, на 90 % – с тизерок. Ваш сайт даже не рассматривают, одного упомянутого факта хватит, чтобы сайт не был принят в «Бегун». Так почему же политика поисковиков должна быть иной?