Как собрать трафик из Google с минимальными усилиями
- 1. Подсматриваем идеи у экономных и
успешных, дружим c Google Fred
Трафик из Google c
минимальными затратами
Алексей Трудов, 2017
- 2. EN-проекты это
дорого
◉ 15 - 100$ в час ставка native speaker
◉ 10$ в месяц стоит ссылка с очень среднего
сайта (100 ссылок - 1000$/месяц)
◉ Автоматизации линкбилдинга практически
нет
Поищем другой путь?
- 6. Чем примечателен?
◉ Домену 4 года
◉ 400 страниц
◉ MegaIndex Domain Rank - 14; Moz - 28 (негусто!)
580 000 посетителей/месяц в США
- 8. Как удалось?
◉ Узкая ниша без прямых конкурентов
◉ Под важные темы - объемные материалы
◉ Бесплатные ссылки с .edu на “рейтинг”
Но контент все равно уникальный! Нельзя ли
сэкономить и на нем?..
- 9. Кейс №2:
stockmarketclock.com
◉ Ниша - фондовый рынок, платежеспособная
ЦА
◉ Возраст меньше года (!)
◉ Moz DA - 5, Megaindex - 6
70 000 посетителей/месяц только в США (а
запросы геонезависимые)
- 11. 1600 шаблонных страниц
◉ Свой url для каждого пересечения биржа + праздник
◉ Страницы готовятся заранее:
https://www.stockmarketclock.com/exchanges/asx/mar
ket-holidays/2020
Соотношение затраты/трафик фантастическое!
- 12. 500$
за клик - в порядке вещей
7 000 000
страниц в индексе у топовых агрегаторов
14 лет
средний возраст домена
- 13. injuryclaimcoach.com
◉ Домену 3 года
◉ Ссылки безанкор/бренд, Megaindex - 31, Moz DA - 35
◉ Без https, адаптивность появилась пару недель назад
380 000 посетителей/месяц в США
Явно где-то подвох...
- 15. На самом деле важнее
другое
◉ Добросовестно написанный уникальный
контент
◉ Работа с UGC: собирают вопросы посетителей
◉ Тотальный охват семантики
/car-accident-reports.html -
300 ключей частотностью от 50
- 17. Охват семантики
Продвигаемся по ключам, с
которыми мало кто работает.
Такие есть и в
суперконкурентных темах.
Итого, 2 составляющие
успешного проекта
Усиливающий “хак”
Рейтинг для генерации
обратных ссылок,
тщательная проработка
шаблона, UGC-контент.
Соблазн: “сделаем кое-как 10 миллионов
страниц”
- 19. Все, что достоверно известно про Google Fred:
а) шуточный твит Gary Illyes
б) тряска в феврале-марте
- 21. Пример 1: сайт с UGC
◉ Вполне качественный старый проект
◉ Реклама размещена умеренно
◉ Множество сообщений со ссылкой на
подозрительные сайты
- 22. Пример 2: каталог фирм
◉ Около миллиона страниц
◉ Без отзывов, рейтинга или другой доп.
информации
◉ Множество похожих проектов в выдаче
- 23. Пример 3: сайт клиники
◉ Коммерческий, рекламы нет
◉ В основном неуникальные статьи
◉ В марте попал под Баден-Баден от Яндекса
- 24. Что дал анализ 116
проблемных проектов:
◉ Похоже на хостовый фильтр
◉ Самые разные проекты, в том числе без рекламы
◉ Множество страниц с
неуникальным/малоценным/спамным контентом
Соотношение “хорошие”/”плохие” url - рабочий
критерий?
- 25. “Хорошие”
◉ Уникальный текст
◉ От 1000 слов
◉ Экспертность
◉ Естественность
Что такое хорошо и
что такое плохо
“Плохие”
◉ Copy-paste, генережка
◉ Малый объем
◉ “Вода”
◉ Избыток ключей
- 26. На самом деле нет.
Хорошая страница - та, которая решает задачи
пользователя. Плохая - которая не решает.
Нужно учитывать специфику запросов, на
которые отвечает страница.
- 28. Пример 1: сайт сделан из
книги
◉ Дизайна - нет
◉ Структуры - нет
◉ Контент заведомо неуникален
◉ Много уникальных комментариев
- 29. Пример 2: истории
болезней
◉ Сделан непрофессионально
◉ Оптимизации п��актически нет
◉ Весь состоит из медицинских выписок с
затертыми персональными данными
- 30. Пример 3: интернет-
магазин
◉ Несколько десятков тысяч страниц
◉ В индексе огромное количество пустых
страницы под разные регионы: url есть, но
товаров нет
◉ Узкая ниша
- 31. 2%
страниц приносят трафик у “плохих”
*Рассматривались сайты размером более 1000 страниц. Результаты
ориентировочные - в обеих группах большая дисперсия. Но тенденция
очевидна.
10%
страниц приносят трафик у
выросших на фоне Fred
- 32. В конкурентной выдаче
◉ Дающая полный ответ
◉ С авторитетными бэками
◉ С хорошими ПФ
Итак, “хорошая” страница...
В пустой выдаче
Любая, сколько-нибудь
релевантная
А вдруг все не так?
- 34. Я сделал ПЛОХОЙ сайт
◉ 60 000 страниц с copy-paste
◉ 110 000 соорудил генератором по шаблону
(уникальность 10%)
◉ Еще 10 000 страниц листингов
Затраты: 2000 рублей программисту +
неделя на домен, сервер, счетчики…
- 35. Большинство факторов
ранжирования на нуле
◉ Контент растиражирован на тысячах старых
сайтов
◉ Ссылок нет вообще
◉ Возраст домена - полтора месяца
Зато генережка заточена под НЧ-запросы,
где конкуренции практически нет
- 36. В индекс без внешних
ссылок: подготовка
1. 5000 хабовых страниц на 1-2 уровнях вложенности
2. Тройная кольцевая перелинковка
3. Last-Modified и If-Modified-Since
4. Сократить JS и CSS
Googlebot на молодых сайтах довольно ленив!
Анализ логов - ключ к оптимизации crawl budget
- 38. “Важные” - с большим числом ссылок на другие
страницы и большим количеством контента
- 40. Для теста добавлено 6 уникальных статей
№ Позиция по главному
ключу
Конкурентов по главному
ключу
Цитатный поиск в ТОП-3
1 28 339 000 10/10
2 15 1 830 000 10/10
3 >100 33 300 000 8/10
4 42 485 000 10/10
5 63 6 430 000 10/10
6 44 729 000 10/10
Проблем нет. Гипотеза имеет право на жизнь
- 42. 1 этап: подбор фраз-
маркеров
◉ Смотрим лидеров по главной фразе темы
◉ Снимаем в Serpstat/Semrush их фразы в ТОП
◉ Убираем низкочастотные
◉ Убираем дешевые
- 43. 2 этап: подбор кандидатов
на анализ
◉ Парсим выдачу по каждому ключу (ТОП-30),
например KeyCollector-ом
◉ Берем домены, встретившиеся в выгрузке хотя бы
2 раза: https://bez-bubna.com/free/domains.php
◉ Из них оставляем только с возрастом до 2-4 лет:
http://www.bulkseotools.com/bulk-check-domain-
age.php
- 44. 3 этап: оценка кандидатов. Хорошо подходит
Serpstat
В итоге остается 10-20 сайтов на ручной
анализ.
- 45. Как анализировать
1. Мало ссылок? (не забываем о зеркалах!)
2. Легко создать аналог по контенту?
3. Можно добавить страниц “под Фреда”?
- 46. Главное
◉ Иногда хватает шаблонного контента без ссылок.
Охват семантики + хак = !
◉ Fred смотрит на “хорошие”/”плохие” страницы
◉ Запросы и конкуренция влияют на оценку качества
◉ Парсинг выдачи -> юные кандидаты с трафиком -> 3
“да” - отличная ниша