Алгоритм поисковой системы Google Панда совершил самую настоящую революцию в мире СЕО-оптимизации. Ещё бы! Пострадало великое множество сайтов, по всем законам «правильного» продвижения считавшихся непогрешимыми. Мало того, проведённая работа по улучшению сайтов никак не повлияла на их возврат на утерянные позиции, несмотря даже на то, что этой работой занимались самые настоящие СЕО-гуру. Оказалось, что Панда не так проста, как это кажется на первый взгляд, а администрация Гугла просто-напросто скрыла от вебмастеров некие нюансы, по которым даже самые распрекрасные на вид сайты считались плохими и не заслуживающими реабилитации.

Так что же все-таки случилось? Почему так вышло? Почему все исправления и переделки не помогают? Что же такое Панда, и как с ней побороться?

После введения нового алгоритма администрация Гугла заявила, что его «честным» сайтам бояться не следует, и что он нацелен только на некачественные веб-ресурсы, то есть ресурсы, которые содержат на своих страницах некачественный контент. Но как же так? Больше всего пострадали сайты, все текст на которых были написаны самыми лучшими специалистами своего дела. Такие специалисты получали за свою работу приличные деньги, мало того – все эти тексты проверялись заказчиками, так что с этой стороны, вроде бы, никаких проколов нет. Все тексты ещё раз подверглись анализу, но и после этого ничего «противозаконного» выявлено не было. Если же дело касается чисто литературных качеств, то как машина может определить качество статьи именно по этому признаку? Совсем никак, так что и тут вроде бы должно быть всё в порядке. Наверняка дело было не в текстах.

Напомним, что остракизму и изгнанию из топов выдачи Гугла подверглись не какие-нибудь мелкие сайтики новичков (хотя такие пострадали, конечно же, прежде всего), а солидные, высокобюджетные сайты, над которыми работали самые лучшие специалисты. Поиски блох так ни к чему и не привели. Контент уникальный, страниц с дублированным контентом на сайте нет, ссылочная масса хорошая, все ссылки естественные, по крайней мере Гугл не может обвинить сайт в том, что за ссылки заплачено, так как они все вели с «дружественных» тематических ресурсов, и вся ссылочная масса полностью соответствовала идее «добровольного цитирования».

Потом перетряхнули всю рекламу. Конечно, какой сайт без рекламы? Множество сайтовладельцев буквально заваливают страницы своих ресурсов всяческой рекламы, и вполне естественно, что они пострадали прежде всего. Но ведь опять-таки – авторитетные порталы создавались всё понимающими специалистами, безусловно чтущими все «законы Гугла», особенно в тех местах, где пишется о проблемах засилья рекламы на сайтах. Поэтому и с этой стороны всё было чисто. Реклама есть, но её удельный вес на страницах был гораздо ниже «разрешённого минимума».

Проверили и ещё множество других элементов. Вроде бы всё было правильно, но Панда продолжала свирепствовать, и множество сайтов так и осталось под «фильтрами», а то и вовсе вылетели из поиска. Появилось множество всяких версий и гипотез, одна из которых гласила о том, что якобы Гугл таким образом убирает конкурентов. Не своих личных, конечно, а по заказу других авторитетных сайтов. Сначала эту версию кое-кто принял всерьёз, но потом от неё отказались, и принялись искать другие проколы, которые обычно невооружённым глазом не видны. И правда всё же нашлась, но оказалась очень типичной, а потому и нелицеприятной. По большому счёту Гугл не врал, и никаких секретов не скрывал. Панда действовала очень законно. И все на первый взгляд «правильные» сайты оказались вовсе «не правильными», за что и получили своё.

Итак, в чём же оказалась истина и как её применить в борьбе с Пандой? Всё очень просто. Тексты, написанные специалистами, оказались слишком правильными. Настолько правильными, что были часто совершенно не интересными посетителю. Ведь любой достаточно раскрученный сайт, собирающий трафик из выдачи Гугла, получает на сайт посетителей, пришедших исключительно по достаточно конкурентным запросам. А что такое «конкурентные запросы»? Конкурентные запросы – это запросы популярные, по которым ищет множество пользователей. Заметьте – именно популярные, а не узкоспециализированные. Это по «узким запросам» пользователи ищут очень подробные статьи по интересующей их теме, и чем длиннее статья, чем больше в ней необходимой информации, совпадающей с запросом, тем больше времени проведёт такой посетитель на сайте, тем больше страниц просмотрит в поисках дополнений к этой информации.

А как поведёт себя «популярный» посетитель, попав на страницу с «узким» контентом? Естественно, он искал совсем не то, что увидел. Ему не нужны длинные и часто забитые множеством специальных терминов статьи, написанные специалистами. Ему нужно нечто популярное, и достаточно короткое, чтобы буквально окинуть весь текст одним взглядом, не применяя скроллинг. Естественно, такой посетитель, увидав что ему подсовывают, очень быстро уходит со страницы. Естественно, он не будет совершать переходы на другие страницы сайта. Естественно, он не добавит такой сайт в закладки, чтобы снова вернуться на него. Такое поведение означает, что сайт неинтересный, а значит и бесполезный. В общем и целом – плохой, со всеми вытекающими из этого последствиями. И каким бы хорошим не был текст, в данном случае этот текст без всяких преувеличений некачественный.

Постойте, спросите вы, а при чём же тут Гугл? Однако ответ на этот вопрос очевиден. Совершенно непонятно, почему на это не обращает внимание большинство владельцев авторитетных (прежде) сайтов. Что взять с оптимизаторов – с них взятки гладки, они сделали прекрасный контент, они оптимизировали сайт под нужные запросы, но они ведь только выполняли пожелания заказчика. А ведь заказчик-то часто вообще в этом всём ничего не понимает. Он даже не понимает того, что разбавлять специализированную статью популярными запросами очень вредно. Гугл, этого, конечно же, не видит доступными ему «механическими» средствами. Но он может прекрасно это видеть глазами посетителя. Он видит, что посетитель сайтом недоволен, и он делает свои выводы, если так можно выразиться. А как он может видеть, что делает на сайте посетитель? Как он видит что именно делает на сайте посетитель, какие действия производит и прочее? Тоже очень просто – с помощью всяких тулбаров, ведь не секрет, что подавляющее большинство «любителей Гугла» устанавливают на свои браузеры так называемый «гуглбар». А вся статистика из этого гуглбара, как известно, прямиком поступает на сервера Гугла для анализа. Ничего противозаконного тут нет, так как пользователь сам соглашается на передачу данных перед установкой тулбара.

Но мало того, ни единым тулбаром пользуется Гугл для анализа поведения пользователей на сайтах. Он также широко использует статистику из всяких серверов статистики, которые этими данными попросту барыжат направо и налево. Есть ещё множество способов, но их бессмысленно в этой статье рассматривать, надо только принять за аксиому тот факт, что возможности у Гугла имеются очень большие, и всё тут.

А ведь как всё просто оказалось? Под «некачественным контентом» раньше подразумевали именно некачественный контент, то есть либо копипаст, либо текст с ошибками, либо слишком длинные или слишком короткие статьи. Но никому и в голову не пришло, что статья, прекрасно оптимизированная под соответствующий запрос, может быть не интересна посетителю, пришедшему по этому запросу на страницу. А это, согласитесь, проблема уже гораздо серьёзнее, чем предполагалось ранее. Тут уже не ограничиться простым «перетряхиванием» страниц в поисках несуществующих «вшей». Тут надо заново переоптимизировать все статьи, а работа эта не из простых. Возможно, даже потребуется полная смена контента, а это дополнительные расходы. Конечно, старые статьи выбрасывать не придётся, но их в срочном порядке необходимо оптимизировать под другие, более узкие запросы, а, следовательно, придётся полностью менять структуру сайта. Впрочем, это уже не наши проблемы, а проблемы оптимизаторов, самое главное, что проблема стала понятна и стали видны пути её решения.

Не будем задаваться вопросом, почему именно многие даже опытные специалисты так мало думают о поведенческих факторах. Вернее, они-то об этом думают, но русское «авось» не позволяет им сконцентрироваться на посетителе как основной движущей силе интернет-бизнеса. Сплошь и рядом в ущерб повышению поведенческих факторов начинается оптимизация чисто технических элементов веб-ресурсов, хотя и так понятно, что вся эта оптимизация в современных условиях практически не работает. Замечено, что в выдачу поисковых систем очень хорошо полезли сайты всяких новичков, которые о СЕО-оптимизации чаще всего даже не слышали, но они прекрасно знают о том, что о посетителе надо заботиться, и не подсовывать ему пищу для кошек и собак, а давать именно то, что посетителю нужно. Самое интересное, что все эти новички не владеют никакими основами так называемого «контентного маркетинга». Но они, не являясь профессионалами, не позволяют себе всяких «крутых штучек», все эти «прямые вхождения ключевика» и прочее подобное у них получается самым естественным образом. Они ни за что не поставят внутреннюю ссылку на страницу, которая не будет интересна посетителю той страницы, на которую он попал из выдачи. А это, кстати, ещё одна проблема «авторитетных» СЕО-оптимизаторов. Новичок обязательно поставит ссылку на другую внутреннюю страницу, сообразуясь с возможным интересом потенциального посетителя. А профессионал поставит эту ссылку, сообразуясь исключительно со своими интересами, хотя он и считает, что он действует «в интересах Гугла». Никаких «интересов Гугла» не существует в природе, существуют только «интересы посетителей сайта», а Гугл только всё подмечает (механическими, естественно, методами) и «впихивает» в алгоритм. И если на сайте этот алгоритм обнаружит достаточно большое количество страниц, не посещаемых посетителями при наличии с них ссылок с других страниц, то эти страницы (вместе со ссылками) алгоритмом будут помечены, как бесполезные. Если количество таких непосещаемых страниц превысит «критическую массу», то ничего хорошего от этого сайту не светит. Профессионалы, конечно же, этого не замечают до самого последнего момента, когда уже становится слишком поздно. А не искушённые в СЕО-оптимизации вебмастера за этим следят строго. И не потому что так требует Гугл, а потому что это просто естественно.

Таким образом мы уяснили себе, что «кровожадность» Панды заключается вовсе не в том, что она попросту придирается к профессиональным сайтам, а в том, что она ловит их на мелочах. Но кто в этом виноват? Разве Панда?