При всей разности таких поисковых монстров, разделивших между собой весь Рунет – Яндекса и Гугла, всякие СЕО-мифы поисковых системы, которые их сопровождают, одинаковы. Эти две поисковые системы декларируют одни и те же правила – уникальный контент, естественные ссылки, запрет ключевого спама и прочее подобное. Таким образом и всякие мифы, касающиеся всех этих правил, тоже созданы как под копирку. Причем этих мифов в разы больше, чем официальных правил, потому что многие «поисковые» правила вебмастера и СЕО-оптимизаторы придумали сами, и каждое из них тоже является мифом. Есть, правда парочка правил, которые мифами не являются, но и непосредственно поисковых систем они не касаются. Речь идет только о тех правилах, которые напрямую касаются интереса посетителей сайтов – это юзабильность веб-ресурса и его полезность для тех, кто ищет в Интернете нужную информацию.

Самый главный миф, сопровождающий поисковые системы – это требование уникального контента на сайтах. Конечно, параметр этот очень важный, но только лишь теоретически. Потому как практически уникального контента в природе не существует. Вернее, он существует, но очень короткое время, как раз до тех пор, пока новую уникальную статью не растащат по другим сайтам. Причем происходит это так быстро, что поисковые системы не успевают даже проиндексировать статью на сайте-источнике. Любой вебмастер знает, что сегодня контент воруется совсем не вручную – для этого существуют специальные грабберы, которые отслеживают появление «уника» на сайтах и мгновенно его тырят. Как они так оперативно обнаруживают новый уникальный контент – это уже вопрос техники. Современный научно-технический прогресс охватил просторы Интернета очень плотно, так что еще и не такие возможности может получить любой желающий, готовый заплатить.

Очень часто украденный уникальный контент индексируется поисковыми системами на сайтах-ворах быстрее, чем на сайтах-источниках. Таким образом и получается, что правообладателем контента становится именно сайт-вор. Конечно, хозяева украденных статей могут обращаться по поводу воровства в соответствующие инстанции, но такой подход очень малопродуктивен. Дело в том, что на многих сайтах не стоит предупреждение, что копировать контент нельзя, а если воришка быстренько поставил ссылку на источник, то и чисто юридического плана претензий к нему никаких. Даже если статья уведена с сайта, где, с которого брать контент запрещено, то и тут не всё так гладко – мало кто будет проверять – тырят с его сайта контент, или нет. А если и проверит, то столкнется с такими тяжбами, что лучше было бы ничего и не проверять и ничего не замечать. Многие владельцы уникального контента жалуются, что новому сайту практически не пробиться в топы выдачи даже с абсолютно уникальным, свежим и максимально качественными статьями – все топы забиты более старыми и авторитетными сайтами, полностью набитыми ворованными текстами у молодых, не авторитетных сайтов.

Вывод из всего этого можно сделать тот, с которого и начиналось описание этой проблемы – уникального контента в Интернете нет и быть не может. А, следовательно, и требование поисковых систем к сайтам по поводу обязательного наличия уникального контента – это очень популярный фейк, то есть миф.

Следующий миф – это ссылочное ранжирование. То есть поисковые системы якобы предпочтение отдают тем сайтам, которые имеют наиболее «крутую» ссылочную массу. В теории всё правильно – если на сайт ссылаются другие сайты, особенно хорошие и авторитетные, то есть «жирные», то ссылаемый сайт – хороший, иначе на него никто бы не ссылался – кому надо рекламировать какое-то «гуано», да ещё и отдавать ему часть своего веса и трафика. Однако на практике ссылочное ранжирование – это миф. Ссылки давно уже не работают, то есть раскрутить сайт только ссылками не получится никак, а кто думает иначе, пусть выкинет эти думы из головы. Частичное отключение ссылочного ранжирования и Гуглом, и Яндексм случилось еще несколько лет назад, в период борьбы этих поисковых систем с таким массовым явлением, как дорвеи. Как известно, главными особенностями продвижения дорвеев были ключевой и ссылочный спам. Доры было не обязательно продвигать «жирными» ссылками, в базах у дорвейщиков имелись сотни тысяч и миллионы всяких спам-ресурсов – заброшенных форумов, блогов, гостевых книг и прочих, предоставляющих кому угодно возможность автодобавления сообщений (со ссылками на доры, естественно). Такие спам-ресурсы называются «линкопомойками», но поисковые системы их не могут исключать из индекса по самым разным причинам, и потому линкопомойки в большой массе имеют возможность передавать дорвеям достаточно большой вес, что позволяло им «пролазить» в топы по множеству поисковых запросов. Однако, исчерпав все методы разумной борьбы, поисковики прибегли к крайнему варианту – они перестали учитывать ссылки со всех малопопулярных ресурсов. Таким образом довеям пришел конец, потому что ни один более-менее авторитетный сайт на дорвей ссылку не поставит.

Таким образом, выдача поисковых систем освободилась от дорвеев, но не полностью, а частично, то есть процентов на 80. Дело в том, что к тому времени начала процветать торговля ссылками, которой не брезговали даже «жирные», то есть авторитетные сайты. Проблема приняла совсем другой, более неприятный для поисковых систем оборот. Гугл начал борьбу с сайтами, продающими ссылки, а Яндекс, наоборот – с сайтами, ссылки покупающими. Естественно, борьба эта была совершенно неэффективной, невзирая на кажущиеся успехи. В основном пострадали только те сайты, которые «работали» слишком уж явно и нагло, а основная масса профессионалов так хорошо маскировалась, что поймать их «на горячем» не представлялось возможным. Поисковые системы в очередной раз потерпели фиаско, и снова были вынуждены прибегнуть к крайним мерам: они просто взяли и отключили ссылочное ранжирование вообще. Теперь на успешное продвижение сайтов в топы поисковых систем влияют совсем другие факторы, которые ранее вебмастерами и СЕО-оптимизаторами не воспринимались всерьёз: это постоянное обновление контента сайта и добавление нового, а также хорошие поведенческие факторы на сайте, которые поисковые системы очень хорошо отслеживают, причем неважно – пришли посетители из поисковых систем, или с других сайтов..

Кто-то скажет: какие же могут быть поведенческие факторы на новом сайте, если он еще не попал в топы и никакого трафика на нем нет? Поисковые системы об этом подумали хорошо: если владелец нового веб-ресурса по-настоящему заботится о своем сайте, то он не будет надеяться только лишь на поисковые системы. Он озаботится получением трафика с других ресурсов, он будет его регистрировать в хороших каталогах, рекламировать на форумах, добывать посетителей с блогов и социальных сетей. Именно такие действия помогут раскрутить хороший сайт в поисковых системах, и никакой уникальный контент или хорошая ссылочная масса тут совершенно не нужны. И Гугл, и Яндекс, об этом задумались раньше вебмастеров и СЕО-оптимизаторов, мало того – немногие даже самые опытные специалисты и не догадываются, что уникальный контент и ссылки давно уже не работают. Многие новички продолжают закупать на биржах статьи и ссылки, и если их сайты начинают успешно раскручиваться в поисковиках, то они всю заслугу этого приписывают «унику» и ссылкам. А если раскрутить не могут, то винят только поисковые системы в применении каких-то алгоритмов, которые, кстати, очень сильно рекламируются, но, тем не менее, «в бою» не участвуют совершенно.

Таким образом, к мифам об уникальном контенте и ссылочном ранжировании можно присовокупить и миф о каких-то там злобных алгоритмах, фильтрах и санкциях поисковых систем. Не существует никаких алгоритмов, фильтров и санкций. Просто 90% начинающих СЕО-оптимизаторов не имеют ни теории, ни опыта в деле правильной раскрутки веб-ресурсов в поисковых системах. А те специалисты, которые это знают – молчат и своими «стратегическими секретами» делиться ни с кем не собираются. Удачи вам, вебмастера!