Растим SEO-трафик до 200к и делаем 1,8 млн рублей в месяц
В этой статье я расскажу как дожимать до топа в Яндексе и Google в современных реалиях. Здесь будут представлены: специфическая ситуация по кейсу, практические данные по решению поставленных задач и свежайшие цифры.
Оглавление кейса:
Дано
В начале года к нам обратилась блогерка с рядом задач по своему проекту. Помимо раскачки соц. сеток также велись работы по информационному сайту, но трафик стагнировал и конкуренты давили довольно сильно не чураясь черных методов.
- Возраст домена: 1 год.
- Тематика: курсы по детскому питанию.
- Поисковый трафик в месяц: 130-150к уников.
- Массовая негативная накрутка ПФ: прямые заходы, поддельный реферер, трафик с Яндекса.
- Для негативного эффекта в Google конкуренты подклеивали токсичные дропы.
- Массовое воровство контента с последующим размножением на множестве мусорных сайтов.
Самый кайф ниши в том, что курсы не нужно проводить в онлайне или офлайне, они все сделаны в записи и их активно покупают новоиспеченные родители. А это значит, что при увеличении поискового трафика будет наблюдаться прямо пропорциональная корреляция по $ в кассе.
Воронка выглядит так:
- Родитель ищет информацию в поиске Яндекса/Google по информационным запросам.
- Попадает на посадочную страницу сайта с раскрытием тематики.
- В статье расставлены баннеры с CTA купить продвинутый курс.
- При клике идет перенаправление в чат-бота, автоматизированная оплата и отгрузка платного контента.
Схема простая и идеальная. Всё, что связано с детской тематикой - это вечнозелёные темы. Дети рождаются и будут рождаться постоянно. Приток новых родителей, которые создают поисковый трафик, был и будет постоянный. В тематике относительно много трафика и есть где развернуться. Там есть деньги, поэтому конкуренция достаточно жесткая.
Выстраивая план работ мы учли, что не имеет никакого смысла достраивать дом, пока он горит. Иными словами - нет смысла причесывать внутреннюю оптимизацию, работать с контентом и ссылками, пока не устранены внешние негативные факторы, мешающие развитию проекта.
Основная работа по проекту
- Защита сайта от негативной накрутки и конкурентной разведки.
Негативная накрутка поведенческих факторов крайне отрицательно сказывается на дальнейших перспективах проекта. Ранее для защиты сайта мы использовали два барьера защиты: Cloudflare и AntiBot.Cloud.
От Cloudflare было решено отказаться, так как весь год идут веерные блокировки сайтов в рунете, и очень велик шанс, что общий ip Cloudflare может попасть под раздачу. Сменить ip-адрес в Cloudlfare можно только на премиум-тарифах через техподдержку.
Проект Antibot развивается и на данный момент является лучшей защитой от паразитного трафика, а так же парсеров и сервисов по анализу сайтов. Сразу после установки и настройки фаервола с пачкой кастомных правил негативная накрутка ПФ была устранена.
Наиболее ярко выражено это видео по прямым заходам:

Большинство пользователей с белыми fingerprints, cookies и ip проходят проверку автоматически и не замечают работы фаервола. Подозрительным пользователям и ботам показывается окно в выбором цвета:

Поведенческие боты, парсеры и средства конкурентной разведки фильтруются замечательно и не могут получить доступ к проекту. Яндекс.Метрика таких ботов также не видит, в cookies бота будут отсутствовать записи о посещении сайта.
При анализе статистики мы получаем исчерпывающие данные по посещениям, включая ip, заголовки, рефереры. Вся эта информация в дальнейшем используется для выявления сайтов, которые воруют контент через парсинг в автоматическом режиме, и более тонкой настройки блокировок на уровне веб-сервера.

С таким фаерволом мы обеспечиваем:
- защиту от поведенческих и спам-ботов;
- защиту от любых парсеров (прокси, http-заголовки и user-agent не имеют значения);
- защиту от фейк-ботов с user-agent как у официальных роботов поисковых систем;
- защиту от проксирования сайта дорвеями;
- проверку ботов по PTR-записям;
- снижение нагрузки на веб-сервер.
При этом Antibot не препятствует нашим ботам для положительной накрутки ПФ. Для этого перед переходом на сайт из Яндекса наши боты переходят сначала на секретный url с php скриптом, где каждый бот получает секретный cookie-ключ. Далее боты производят нужные манипуляции на сайте и значительно улучшают поведенческие факторы.
Защита от конкурентной разведки - так же большое преимущество, особенно в контентных проектах. Теперь проанализировать автоматически сотни страниц с контентом не получится, фаервол заблокирует все попытки, и конкурентам придется ковырять всё это в ручную, что доставляет максимальные неудобства.
- Ищем сворованный контент и вычищаем его из результатов поиска.
Дубли одного и того же контента негативно сказываются на ранжировании в поисковых системах. Нередки случаи, когда более трастовый сайт с украденным текстом ранжируется выше оригинала.
Для поиска сайтов, которые украли тексты с продвигаемого проекта достаточно использовать программу eTXT Антиплагиат. Далее получаем список точных url и готовим подробные заявления в Google и Яндекс.
В Google - создали новое заявление через специальную форму. Специалист отдела DMCA реагирует достаточно быстро. Они выявляют первоисточник и удаляют из результатов поиска воришек. Могу запросить дополнительную информацию в тикетах.
В Яндексе - создали тикет о нарушении авторских прав через форму. Платоны реагируют немного медленнее и неохотнее. Был прецедент, когда присылали отписку. В этом случае намёк на судебное разбирательство ускоряет процесс.
Для исключения проблем с воровством контента мы настроили быструю индексацию новых страниц через Google Index API, а в Яндексе достаточно молниеносно добавлять новые или обновленные url на переобход в Яндекс.Вебмастер.
В результате: сайты с копипастом в Google вообще пропали из результатов поиска, а в Яндексе они были на 2 странице, но после обращения в поддержку и пару апдейтов сползли в небытие.
Теперь с фаерволом украсть контент можно только вручную, что немного трудоёмко, особенно если нет специальных знаний. Рекомендую периодически следить не своровали ли с вашего сайта ваш контент и своевременно обращаться за помощью в поддержку поисковых систем.
Это может быть причиной стагнации или отсутствующего роста.
- Ищем токсичные ссылки и просим Google не учитывать их.
Бытует мнение, что токсичные бэклинки вообще можно не чистить, и Google сам решает какие ссылки учитывать, а какие нет. И это мнение имеет место быть на практике.
Однако, для стопроцентной уверенности, лучше всего выявить мусорные ссылки и принудительно запретить их через Disawov Tool.
Для анализа ссылочного профиля лучшим инструментом является Ahrefs и я им пользуюсь на постоянной основе.

Довольно быстро можно сообразить какие данные лучше выгрузить в файлик.
В качестве второго сервиса для поиска токсичных url мы используем Semrush. В нем присутствует метрика Toxic Score. Чем выше параметр в диапазоне от 0 до 100, тем хуже ссылка.

Здесь так же можно быстро сориентироваться и подготовить уже готовый файл для Disavow Tool.
После загрузки файла мы даём Google рекомендации, какие ссылки не хотим учитывать для нашего домена. При регулярном обновлении файла Google обучает свой алгоритм и в дальнейшем с большой вероятностью не будет учитывать мусорные бэклинки в автоматическом режиме.
- Устраняем внутренние технические проблемы с сайтом.
После полного сканирования сайта SiteAnalyzer'ом были исправлены: дубли страниц пагинации, дубли контента по разным url (особенность cms), дубли страниц с параметрами.
Всегда стоит проверять какие сайты еще размещены на ip-адресе веб-сервера хостинг провайдера. Среди соседей мы обнаружили гэмблинг, бады и адалт сайты. Было решено переехать на выделенный ip-адрес через заявку в техподдержку.
- Устранение проблем с индексацией сайта.
В Яндексе и Google количество страниц в результатах поиска по сайту может отличаться. Это говорит о возможных проблемах в той или иной поисковой системе.
Чтобы быстро проверить индексацию мы используем софт SimpleWebAnalytics. Он получает данные по API и имеет функционал экспорта для дальнейшего анализа. Можно быстро определить не только статус индексации, но и мета-теги, применились изменения или нет.

Были выявлены проблемы с индексацией в Яндексе, некоторые страницы попали под МПК фильтр. Решением была накрутка ПФ по определенным сценариям с посещением проблемных страниц. Через неделю после апдейта страницы начали ранжироваться. Данный метод работает в множестве проектов.
Чтобы не допускать отвала страниц мы проектируем внутреннюю перелинковку и следим, чтобы нужные страницы получали достаточно поведенческих факторов.
- Контроль скорости работы страниц сайта.
В коммерческом проекте скорость работы сайта является важным параметром. Важно, чтобы каждая страница открывалась не более чем 3 секунды. И лучше всего, чтобы была хотя бы в жёлтой зоне PageSpeed Insights. На самом деле это уже перфекционизм. В рунете спокойно ранжируются в топе Google сайты с красной зоной по скорости работы.
Для контроля скорости работы страниц сайта, а также соответствия требованиям PageSpeed Insights, мы используем софт BulkPageSpeed.

ачем проверять вручную сотни и тысячи url? Пускай это будет автоматизировано. Всё что нам нужно - получить API ключик в Google.
- Ресерч семантики.
Всю работу с семантикой мы поделили на два блока: актуализация внедренной семантики и внедрение новых кластеров. Для этого мы используем keyword research tool от Ahrefs. В нем есть самая полная и крутая база под Google и не менее крутая для Яндекса.
Можно использовать Keys.so или что-то подобное, не суть важно, алгоритм работы плюс минус одинаковый.
В итоге текущую семантику расширили на 3600 фраз и собрали новую на 5900. Далее всё сводится в единый файл с кластеризацией и мета-тегами.

В нем же даны рекомендации по общей структуре сайта и приоритетам для оптимизации новых статей и оптимизации текущих.
- Прочие работы.
Ведется большая работа по наращиванию ссылочной массы для проекта, так как по аналитике из Google больше всего конверсий и трафика. Работа с копирайтингом достаточно заурядная и сводится к составлению ТЗ и дальнейшей проверке готового текста от копирайтера.
Результаты
Основным результатом для информационного проекта является динамичный рост трафика с последующей монетизацией.
Было: падающий тренд, ~150 000 уников с поиска в месяц..
Стало: растущий тренд, более 200 000 уников в месяц с поиска.
Конверсия в оплату: 0,23%.
Продаж в месяц: ~260.
Чистая прибыль в месяц: ~ 1 800 000 рублей.

Что влияет на результат?
- постоянное добавление нового контента;
- периодическое обновление контента;
- активная защита от ботов и парсеров;
- хорошие ПФ;
- положительная динамика по росту ссылок;
- контент дорогой и экспертный;
- слаженная системная работа по SEO.
В скором времени будет апдейт этого кейса, так как за счет большого потенциала в нише по нашим прогнозам трафик в течении года удвоится.