Андрей Дыкан - Увеличение продаж с SEO
В результате те, у кого нет опыта, советуют клиентам сделать что-то одно, а те, у кого есть опыт, – совершенно другое (как правило, у ребят из первой категории и услуги, и само продвижение выходят существенно дешевле; причина небольшой цены, которую они выставляют, подчас кроется именно в недостатке опыта).
Для пущей наглядности приведем примеры «SEO-баек от новичков», которые нередко встречаются до сих пор.
• Нужно только закупить побольше ссылок – и сайт сразу пойдет в гору!
• Я раскручиваю сайт только по позициям.
• Я гарантированно выведу вас в топ-10!
• Семантическое ядро должно состоять только из самых частотных и высококонкурентных запросов.
• Платите мне 30 % от ссылочного бюджета.
Вообще, надо сказать, что последняя версия (ситуация, когда оптимизатор берет у клиента деньги и начинает сливать их исключительно в ссылочные биржи, вместо того чтобы тратить на улучшение сайта) – страшное дело. И увы, не такое уж редкое.
Приведем реальный пример, с которым столкнулись буквально на днях. Было размещено объявление на вакансию «оптимизатор», мол, «требуется оптимизатор, зарплата хорошая». Получили мы, как и следовало ожидать, огромное количество откликов. Стали проводить собеседования…
И тут нас постигло разочарование: дело в том, что около 80 % соискателей не могли выстроить стратегию развития сайта и, соответственно, сформулировать ту стратегию продвижения, которой они будут придерживаться. Предлагали изначально проигрышные варианты наподобие «сейчас я буду продвигать вас по самым конкурентным запросам»…
Другие соискатели, услышав задание «провести базовый аудит», проводили так называемый чисто технический аудит по базовым параметрам, то есть находили и предлагали исправить те ошибки, которые практически никак бы не повлияли на результат оптимизации.
Доверив сайт подобным «кандидатам на получение заявленной в объявлении хорошей зарплаты», можно бы было запросто потерять полгода, а то и больше… А как известно, время – деньги.
Почему происходят изменения алгоритма в поисковой системе
В задачу поисковой системы входит прежде всего создание такой выдачи, которая бы полностью устраивала пользователя и отвечала тому запросу, который он ввел в графу поиска. Для этого – говоря максимально простым языком – хорошие сайты должны вытеснить плохие. Чтобы человек зашел в поисковую систему, ввел свой запрос и получил исчерпывающий ответ: или же в самой поисковой системе (например, если вы попробуете ввести запрос 2 + 5, то вам сразу будет дан ответ 7), или на тех сайтах, которые поисковая система покажет в выдаче.
Оптимальный вариант – если пользователя удовлетворят первые же сайты, которые выдаст ему поисковая система. Именно в целях максимального удовлетворения запросов клиентов и происходят обновления в поисковой системе. Если разбирать детально,
то делается это для того, чтобы улучшить выдачу и убрать из нее некачественные, по мнению самой поисковой системы, проекты. А еще для того, чтобы устранить ошибки, так называемые глюки, накрутки выдачи…
Стоит сказать, что на сегодняшний день поисковик достаточно в этом преуспел и те методы, которыми раньше можно было вывести сайт в топ буквально за три-четыре недели, на него сейчас уже не действуют. За это можно схлопотать или фильтр, или бан (полное исключение сайта из базы поисковика). Можно сказать, что это последствия воздействия оптимизаторов на так называемые дыры в поисковой системе.
Мы думаем, что вам интересно, о каких именно «старых» методах оптимизации идет речь и почему их нельзя использовать сейчас. И мы обязательно расскажем вам об этом.
Но не станем описывать классические и очевидные с логической точки зрения изменения, например почему московский сайт можно раскручивать только в Москве, а опишем те ситуации, которые вызывают максимальное количество вопросов и ответы на которые приходится постоянно давать людям.
Это будут вопросы, напрямую связанные с таким популярным нынче понятием, как «белая» оптимизация (продвижение сайтов без использования «черных» методов).
Почему нельзя брать тексты с других сайтов
Если мы обернемся в прошлое – взглянем на ситуацию, которая была, скажем, лет шесть назад, – то увидим, что алгоритмы поисковых систем были не такими «умными», как сейчас, и их можно было обходить.
Возьмем ситуацию с текстами (контентом сайта). Изначально можно было скопировать статью с другого сайта, поменять слова в предложении местами, вставить ключевые слова – и вуаля! – мы поднимаемся на хорошие позиции (причем стоит отметить, что для старых сайтов этот прием до сих пор периодически срабатывает).
Или другой вариант: можно было взять несколько статей с разных сайтов и объединить их в одну. (Помните, выше мы уже шутили по поводу того, что копирование из одного источника – это плагиат, а из нескольких – уже докторская диссертация? Это из той же оперы.)
И такой прием некогда срабатывал – поисковая система расценивала подобные тексты как уникальные, сайт поднимался в выдаче.
Отметим, что примерно этот же метод (но только, если можно так выразиться, более «человечный») используется сейчас для раскрутки интернет-магазинов. Объясним, каким образом. Допустим, один и тот же одинаковый прайс-лист используется в ста интернет-магазинах. Как вы понимаете, менять названия товаров в прайсе нельзя, поэтому нужно как-то выкручиваться. Вот часть контента и будет неуникальная – с других сайтов. А другая часть – это уже абсолютно уникальные тексты, написанные специально под данный сайт. И против такого симбиоза поисковик ничего не имеет.
Однако в целом в прошлом наблюдалась довольно нехорошая тенденция, а именно: каждый мог создать множество сайтов с помощью текстов, заимствованных нечестным путем, а проще говоря, ворованных с других ресурсов.
Скажем больше: такие сайты делались автоматически, а потому те самые кристально честные веб-мастера, которые писали тексты с нуля, находились, мягко говоря, в неловком положении: можно было корпеть, стараться, писать уникальный текст, а потом обнаружить, что его украли. Причем тот сайт, на котором разместился украденный текст, мог оказаться выше в выдаче, нежели сайт с первоисточником.
А что же сейчас?
А сейчас поисковая система ранжирует сайты с помощью фильтра, выявляющего уникальность/неуникальность текстов. Если выясняется, что сайт берет тексты с других ресурсов и размещает их у себя, то он признается некачественным и частично либо полностью удаляется из поисковика. Правда, эти фильтры работают неидеально – и отсеивается плагиат не всегда.