Все прекрасно знают, что в деле раскрутки нового сайта в поисковых системах главную роль играет уникальный контент. Конечно, есть ещё некоторые важные факторы, например, наличие достаточно большой и одновременно хорошей ссылочной массы, отсутствие ошибок при верстке страниц и прочие, но все же уникальный контент стоит на первом месте. Однако большинство новичков не умеют производить уникальный контент в необходимом объёме, а также они не имеют средств на его приобретение, ведь хороший контент сегодня стоит не дешево. С другой стороны в Интернете сейчас можно набрать огромное количество интересного неуникального контента, так называемого «копипаста». Но это не выход. Поисковые системы плохо индексируют сайты, наполненные копипастом, поэтому этот вариант можно не рассматривать.

Как же выйти из этого положения новичкам? Куда ни кинься – нигде выхода нет. Купить нет возможности, копипастить – нет смысла. Кажется, что это тупик. Однако есть всё же лазейки в этом деле, и этими лазейками можно прекрасно воспользоваться.

Один из вариантов – это сканировать книги, тексты которых до сих пор не попали в Интернет. Однако вариант этот слишком трудоемок. Во-первых, таких книг мало, в любом случае этим способом может воспользоваться только человек, имеющий доступ к залежам макулатуры. Во-вторых, среди всех этих залежей надо в результате кропотливой работы отыскать по-настоящему уникальную книгу. И, в-третьих, среди всех таких уникальных книг должно быть достаточно большое количество книг, содержимое которых достаточно точно соответствует тематике сайта. Для многих начинающих вебмастеров это просто нереально. Нет, попытаться стоит, но вместе с тем надо приготовиться к тому, что придётся проделать огромный объём работы. Гораздо продуктивнее было бы пойти на работу и заработать там денег на покупку уникального контента.

Однако имеется и другой вариант. Если быть точным, то он не касается темы уникальных текстов в том смысле, чтобы заполучить на свой сайт тексты, уникальные в глазах поисковых систем. Однако в этом случае надо поставить перед собой чёткую задачу: надо сделать так, чтобы поисковая система продвинула страницы сайта в топы по множеству запросов, таким образом, допустив сайт к непосредственному источнику трафика. Если посмотреть в корень, то для этого совершенно не нужен читабельный (то есть для человека) уникальный (для поисковой системы) текст. Если так разобраться, то человеку не обязательно нужен «уник», главное, чтобы материал на страницах сайта был интересен, и его хотелось читать, или рассматривать его (в том случае, если это графика, изображения, картины и прочее). А поисковым системам не нужен «интересный» контент как таковой, их алгоритмы способны отслеживать только уникальность контента и поведение людей на сайтах. Именно по поведенческим факторам (ПФ) поисковые системы делают выводы о полезности сайта для людей. Однако поведенческие факторы не возникают сразу же после создания сайта. Для того чтобы поисковые роботы могли начать их анализировать, надо допустить страницы сайта на хорошие места выдачи, чтобы пошёл трафик. А это возможно только при наличии уникального контента и достаточно хорошей ссылочной массы. Впрочем, ссылочную массу мы сейчас рассматривать не будем, нас сейчас интересует только лишь уникальный контент для поисковых систем.

Итак, приступаем к созданию сайта, который был бы интересен и людям, и поисковым системам, но который бы не стоил ни копейки, за исключением, конечно, домена и хостинга. Ну, домены и хостинги сегодня настолько дешевы, что на них найдутся деньги у любого новичка. В любом случае можно воспользоваться бесплатным хостингом, например, Народ Ру, Холм Ру или Хут Ру. Затем нам надо собрать как можно больше ключевых фраз по теме сайта, для этого достаточно скачать бесплатную версию парсера Вордстата под названием Магадан. С помощью этой прекрасной программы можно выкачать из базы Яндекса поистине огромное количество ключевиков, которые потом мы используем в качестве текстов для поисковых систем.

Теперь озаботимся созданием контента для людей. Тут, конечно, придётся потрудиться, но усилия того стоят. Для этого необходимо собрать из Интернета как можно больше самых интересных статей, которые вы хотели бы видеть на своём сайте. Забегая вперёд, следует сообщить, что все эти статьи надо будет перевести на графические файлы, чтобы их не читали поисковые роботы и не смогли определить качество текста, то есть уник это, или копипаст. Статьи надо брать небольшие – 2-4 тысячи знаков без пробелов будет достаточно, многие люди тексты большего размера просто не осилят, какими бы они ни были интересными. К тому же под такие размеры легче подготовить файлы для перевода на них текстов, и весить много они не будут, занимая дисковое пространство и медленно загружаясь.

Однако просто сграбить тексты не годится. Многие тексты размножены на множестве сайтов по всему Интернету, и возможно такое, что посетителя вашего сайта они не интересуют, так как он неоднократно натыкался на них ранее и все прочитал от корки до корки. Поэтому надо брать только те статьи, которые в Интернете существуют в единичном экземпляре. Как это проверить? Да очень просто. Берем первую фразу статьи, вводим ее в поисковую строку Гугла или Яндекса и смотрим. Для надёжности можно проверить статью ещё несколькими строками, и если они всплывают только на одном (максимум – на двух) сайте, значит, такая статья годится. Если же в топе оказывается много сайтов с этой статьёй, то брать её не стоит – эффекта не будет.

Итак, перед нами теперь стоит относительно трудоемкая задача перевести все статьи на графические файлы. Для этого берем какой-нибудь графический фон, делаем по ширине и высоте приблизительно 1000х1000 пикселей и используем в качестве заготовки. Для того чтобы перевести статьи на эту заготовку, можно использовать обычный фотошоп. У кого проблема с фотошопом, прекрасно подойдёт Paint, который вшит в Windows XP. Работа эта несложная, но занудливая, однако сделать её необходимо. При этом нужно помнить – чем больше статей вы поставите на свой сайт – тем лучше. Лениться в этом деле нельзя. Файлы со статьями расставляем на страницы, ну а после этого (или же прямо по ходу дела), «заливаем» на страницы «текстовый контент» для поисковых систем.

Таким контентом, как говорилось выше, являются ключевые фразы. Внимательно подбираем на каждую страницу штук 30-40 ключевых фраз, по смыслу подходящих содержимому той или иной статьи. Помните, что посетители, которые придут по ключевикам, по которым страница появится в топах, должны увидеть на этой странице исключительно релевантное содержимое. Поэтому не расставляйте ключевые фразы без разбору, какие-нибудь. Подбирайте только те ключевики, которые соответствуют тексту в статье.

Как оформить «тексты» из ключевиков. Это дело вкуса, но тут необходимо соблюдать несколько правил, которые касаются предпочтений и людей, и поисковых систем. Поисковые системы любят, чтобы все тексты, которые участвуют в ранжировании страницы, находились как можно ближе к верхней части этой страницы. А вот людям набор ключевиков прямо под хедером может не понравиться. Поэтому надо постараться соблюсти интересы обоих «клиентов» — и поисковой системы, и Интернета. Ни в коем случае не вздумайте прятать тексты под фоном одинакового с шрифтом цвета, даже графического – любые поисковые системы эти «обманки» «просекают» сразу. Лучше собрать все ключевики в один блок, поставить блок в самом верху, а над блоком написать «Облако тегов». Или ещё лучше – вынести этот блок в сайд-бар слева или справа. Таким образом, такой бессистемный набор коротких фраз и посетителя не спугнёт, и поисковую систему заинтересует

В общем, схему создания нормального, уникального, интересного сайта мы расписали, а остальное всё зависит только лишь от фантазии и творческого вкуса самого вебмастера. Ну и от трудоспособности. Успехов!