SlideShare a Scribd company logo
Подсматриваем идеи у экономных и
успешных, дружим c Google Fred
Трафик из Google c
минимальными затратами
Алексей Трудов, 2017
EN-проекты это
дорого
◉ 15 - 100$ в час ставка native speaker
◉ 10$ в месяц стоит ссылка с очень среднего
сайта (100 ссылок - 1000$/месяц)
◉ Автоматизации линкбилдинга практически
нет
Поищем другой путь?
Успешные кейсы2
sports-management-degrees.com
Cтатейник как статейник
А тем временем видимость
бодро растет
Чем примечателен?
◉ Домену 4 года
◉ 400 страниц
◉ MegaIndex Domain Rank - 14; Moz - 28 (негусто!)
580 000 посетителей/месяц в США
По основному запросу
“sport management
degree” 4 блока
рекламы, а первые две
позиции занимает наш
сайт.
Как удалось?
◉ Узкая ниша без прямых конкурентов
◉ Под важные темы - объемные материалы
◉ Бесплатные ссылки с .edu на “рейтинг”
Но контент все равно уникальный! Нельзя ли
сэкономить и на нем?..
Кейс №2:
stockmarketclock.com
◉ Ниша - фондовый рынок, платежеспособная
ЦА
◉ Возраст меньше года (!)
◉ Moz DA - 5, Megaindex - 6
70 000 посетителей/месяц только в США (а
запросы геонезависимые)
Как собрать трафик из Google с минимальными усилиями
1600 шаблонных страниц
◉ Свой url для каждого пересечения биржа + праздник
◉ Страницы готовятся заранее:
https://www.stockmarketclock.com/exchanges/asx/mar
ket-holidays/2020
Соотношение затраты/трафик фантастическое!
500$
за клик - в порядке вещей
7 000 000
страниц в индексе у топовых агрегаторов
14 лет
средний возраст домена
injuryclaimcoach.com
◉ Домену 3 года
◉ Ссылки безанкор/бренд, Megaindex - 31, Moz DA - 35
◉ Без https, адаптивность появилась пару недель назад
380 000 посетителей/месяц в США
Явно где-то подвох...
Зеркало с 12-летней
историей!
На самом деле важнее
другое
◉ Добросовестно написанный уникальный
контент
◉ Работа с UGC: собирают вопросы посетителей
◉ Тотальный охват семантики
/car-accident-reports.html -
300 ключей частотностью от 50
Как собрать трафик из Google с минимальными усилиями
Охват семантики
Продвигаемся по ключам, с
которыми мало кто работает.
Такие есть и в
суперконкурентных темах.
Итого, 2 составляющие
успешного проекта
Усиливающий “хак”
Рейтинг для генерации
обратных ссылок,
тщательная проработка
шаблона, UGC-контент.
Соблазн: “сделаем кое-как 10 миллионов
страниц”
Что скажет Google
Fred?3
Все, что достоверно известно про Google Fred:
а) шуточный твит Gary Illyes
б) тряска в феврале-марте
Где найти
пострадавших?
История
видимости в
Serpstat
Возмо��ен анализ
ключей
Только через API; не
факт что дело в
Fred-е
Открытые
счетчики
Высокая точность
Преимущественно
Рунет
Обсуждения на
форумах
Доп. данные от
владельца
Смещенная выборка
Пример 1: сайт с UGC
◉ Вполне качественный старый проект
◉ Реклама размещена умеренно
◉ Множество сообщений со ссылкой на
подозрительные сайты
Пример 2: каталог фирм
◉ Около миллиона страниц
◉ Без отзывов, рейтинга или другой доп.
информации
◉ Множество похожих проектов в выдаче
Пример 3: сайт клиники
◉ Коммерческий, рекламы нет
◉ В основном неуникальные статьи
◉ В марте попал под Баден-Баден от Яндекса
Что дал анализ 116
проблемных проектов:
◉ Похоже на хостовый фильтр
◉ Самые разные проекты, в том числе без рекламы
◉ Множество страниц с
неуникальным/малоценным/спамным контентом
Соотношение “хорошие”/”плохие” url - рабочий
критерий?
“Хорошие”
◉ Уникальный текст
◉ От 1000 слов
◉ Экспертность
◉ Естественность
Что такое хорошо и
что такое плохо
“Плохие”
◉ Copy-paste, генережка
◉ Малый объем
◉ “Вода”
◉ Избыток ключей
На самом деле нет.
Хорошая страница - та, которая решает задачи
пользователя. Плохая - которая не решает.
Нужно учитывать специфику запросов, на
которые отвечает страница.
Кто выиграл от
Google Fred4
Пример 1: сайт сделан из
книги
◉ Дизайна - нет
◉ Структуры - нет
◉ Контент заведомо неуникален
◉ Много уникальных комментариев
Пример 2: истории
болезней
◉ Сделан непрофессионально
◉ Оптимизации практически нет
◉ Весь состоит из медицинских выписок с
затертыми персональными данными
Пример 3: интернет-
магазин
◉ Несколько десятков тысяч страниц
◉ В индексе огромное количество пустых
страницы под разные регионы: url есть, но
товаров нет
◉ Узкая ниша
2%
страниц приносят трафик у “плохих”
*Рассматривались сайты размером более 1000 страниц. Результаты
ориентировочные - в обеих группах большая дисперсия. Но тенденция
очевидна.
10%
страниц приносят трафик у
выросших на фоне Fred
В конкурентной выдаче
◉ Дающая полный ответ
◉ С авторитетными бэками
◉ С хорошими ПФ
Итак, “хорошая” страница...
В пустой выдаче
Любая, сколько-нибудь
релевантная
А вдруг все не так?
Эксперимент5
Я сделал ПЛОХОЙ сайт
◉ 60 000 страниц с copy-paste
◉ 110 000 соорудил генератором по шаблону
(уникальность 10%)
◉ Еще 10 000 страниц листингов
Затраты: 2000 рублей программисту +
неделя на домен, сервер, счетчики…
Большинство факторов
ранжирования на нуле
◉ Контент растиражирован на тысячах старых
сайтов
◉ Ссылок нет вообще
◉ Возраст домена - полтора месяца
Зато генережка заточена под НЧ-запросы,
где конкуренции практически нет
В индекс без внешних
ссылок: подготовка
1. 5000 хабовых страниц на 1-2 уровнях вложенности
2. Тройная кольцевая перелинковка
3. Last-Modified и If-Modified-Since
4. Сократить JS и CSS
Googlebot на молодых сайтах довольно ленив!
Анализ логов - ключ к оптимизации crawl budget
Как собрать трафик из Google с минимальными усилиями
“Важные” - с большим числом ссылок на другие
страницы и большим количеством контента
Трафик растет с первого дня (+ 300 визитов в неделю)
Для теста добавлено 6 уникальных статей
№ Позиция по главному
ключу
Конкурентов по главному
ключу
Цитатный поиск в ТОП-3
1 28 339 000 10/10
2 15 1 830 000 10/10
3 >100 33 300 000 8/10
4 42 485 000 10/10
5 63 6 430 000 10/10
6 44 729 000 10/10
Проблем нет. Гипотеза имеет право на жизнь
Как искать ниши6
1 этап: подбор фраз-
маркеров
◉ Смотрим лидеров по главной фразе темы
◉ Снимаем в Serpstat/Semrush их фразы в ТОП
◉ Убираем низкочастотные
◉ Убираем дешевые
2 этап: подбор кандидатов
на анализ
◉ Парсим выдачу по каждому ключу (ТОП-30),
например KeyCollector-ом
◉ Берем домены, встретившиеся в выгрузке хотя бы
2 раза: https://bez-bubna.com/free/domains.php
◉ Из них оставляем только с возрастом до 2-4 лет:
http://www.bulkseotools.com/bulk-check-domain-
age.php
3 этап: оценка кандидатов. Хорошо подходит
Serpstat
В итоге остается 10-20 сайтов на ручной
анализ.
Как анализировать
1. Мало ссылок? (не забываем о зеркалах!)
2. Легко создать аналог по контенту?
3. Можно добавить страниц “под Фреда”?
Главное
◉ Иногда хватает шаблонного контента без ссылок.
Охват семантики + хак = !
◉ Fred смотрит на “хорошие”/”плохие” страницы
◉ Запросы и конкуренция влияют на оценку качества
◉ Парсинг выдачи -> юные кандидаты с трафиком -> 3
“да” - отличная ниша
Контакты
◉ Блог: alexeytrudov.com
◉ Анализ сайта: bez-bubna.com
◉ Консультации: optimumprofit.ru
Спасибо за внимание!

More Related Content

Как собрать трафик из Google с минимальными усилиями

  • 1. Подсматриваем идеи у экономных и успешных, дружим c Google Fred Трафик из Google c минимальными затратами Алексей Трудов, 2017
  • 2. EN-проекты это дорого ◉ 15 - 100$ в час ставка native speaker ◉ 10$ в месяц стоит ссылка с очень среднего сайта (100 ссылок - 1000$/месяц) ◉ Автоматизации линкбилдинга практически нет Поищем другой путь?
  • 5. А тем временем видимость бодро растет
  • 6. Чем примечателен? ◉ Домену 4 года ◉ 400 страниц ◉ MegaIndex Domain Rank - 14; Moz - 28 (негусто!) 580 000 посетителей/месяц в США
  • 7. По основному запросу “sport management degree” 4 блока рекламы, а первые две позиции занимает наш сайт.
  • 8. Как удалось? ◉ Узкая ниша без прямых конкурентов ◉ Под важные темы - объемные материалы ◉ Бесплатные ссылки с .edu на “рейтинг” Но контент все равно уникальный! Нельзя ли сэкономить и на нем?..
  • 9. Кейс №2: stockmarketclock.com ◉ Ниша - фондовый рынок, платежеспособная ЦА ◉ Возраст меньше года (!) ◉ Moz DA - 5, Megaindex - 6 70 000 посетителей/месяц только в США (а запросы геонезависимые)
  • 11. 1600 шаблонных страниц ◉ Свой url для каждого пересечения биржа + праздник ◉ Страницы готовятся заранее: https://www.stockmarketclock.com/exchanges/asx/mar ket-holidays/2020 Соотношение затраты/трафик фантастическое!
  • 12. 500$ за клик - в порядке вещей 7 000 000 страниц в индексе у топовых агрегаторов 14 лет средний возраст домена
  • 13. injuryclaimcoach.com ◉ Домену 3 года ◉ Ссылки безанкор/бренд, Megaindex - 31, Moz DA - 35 ◉ Без https, адаптивность появилась пару недель назад 380 000 посетителей/месяц в США Явно где-то подвох...
  • 15. На самом деле важнее другое ◉ Добросовестно написанный уникальный контент ◉ Работа с UGC: собирают вопросы посетителей ◉ Тотальный охват семантики /car-accident-reports.html - 300 ключей частотностью от 50
  • 17. Охват семантики Продвигаемся по ключам, с которыми мало кто работает. Такие есть и в суперконкурентных темах. Итого, 2 составляющие успешного проекта Усиливающий “хак” Рейтинг для генерации обратных ссылок, тщательная проработка шаблона, UGC-контент. Соблазн: “сделаем кое-как 10 миллионов страниц”
  • 19. Все, что достоверно известно про Google Fred: а) шуточный твит Gary Illyes б) тряска в феврале-марте
  • 20. Где найти пострадавших? История видимости в Serpstat Возможен анализ ключей Только через API; не факт что дело в Fred-е Открытые счетчики Высокая точность Преимущественно Рунет Обсуждения на форумах Доп. данные от владельца Смещенная выборка
  • 21. Пример 1: сайт с UGC ◉ Вполне качественный старый проект ◉ Реклама размещена умеренно ◉ Множество сообщений со ссылкой на подозрительные сайты
  • 22. Пример 2: каталог фирм ◉ Около миллиона страниц ◉ Без отзывов, рейтинга или другой доп. информации ◉ Множество похожих проектов в выдаче
  • 23. Пример 3: сайт клиники ◉ Коммерческий, рекламы нет ◉ В основном неуникальные статьи ◉ В марте попал под Баден-Баден от Яндекса
  • 24. Что дал анализ 116 проблемных проектов: ◉ Похоже на хостовый фильтр ◉ Самые разные проекты, в том числе без рекламы ◉ Множество страниц с неуникальным/малоценным/спамным контентом Соотношение “хорошие”/”плохие” url - рабочий критерий?
  • 25. “Хорошие” ◉ Уникальный текст ◉ От 1000 слов ◉ Экспертность ◉ Естественность Что такое хорошо и что такое плохо “Плохие” ◉ Copy-paste, генережка ◉ Малый объем ◉ “Вода” ◉ Избыток ключей
  • 26. На самом деле нет. Хорошая страница - та, которая решает задачи пользователя. Плохая - которая не решает. Нужно учитывать специфику запросов, на которые отвечает страница.
  • 28. Пример 1: сайт сделан из книги ◉ Дизайна - нет ◉ Структуры - нет ◉ Контент заведомо неуникален ◉ Много уникальных комментариев
  • 29. Пример 2: истории болезней ◉ Сделан непрофессионально ◉ Оптимизации п��актически нет ◉ Весь состоит из медицинских выписок с затертыми персональными данными
  • 30. Пример 3: интернет- магазин ◉ Несколько десятков тысяч страниц ◉ В индексе огромное количество пустых страницы под разные регионы: url есть, но товаров нет ◉ Узкая ниша
  • 31. 2% страниц приносят трафик у “плохих” *Рассматривались сайты размером более 1000 страниц. Результаты ориентировочные - в обеих группах большая дисперсия. Но тенденция очевидна. 10% страниц приносят трафик у выросших на фоне Fred
  • 32. В конкурентной выдаче ◉ Дающая полный ответ ◉ С авторитетными бэками ◉ С хорошими ПФ Итак, “хорошая” страница... В пустой выдаче Любая, сколько-нибудь релевантная А вдруг все не так?
  • 34. Я сделал ПЛОХОЙ сайт ◉ 60 000 страниц с copy-paste ◉ 110 000 соорудил генератором по шаблону (уникальность 10%) ◉ Еще 10 000 страниц листингов Затраты: 2000 рублей программисту + неделя на домен, сервер, счетчики…
  • 35. Большинство факторов ранжирования на нуле ◉ Контент растиражирован на тысячах старых сайтов ◉ Ссылок нет вообще ◉ Возраст домена - полтора месяца Зато генережка заточена под НЧ-запросы, где конкуренции практически нет
  • 36. В индекс без внешних ссылок: подготовка 1. 5000 хабовых страниц на 1-2 уровнях вложенности 2. Тройная кольцевая перелинковка 3. Last-Modified и If-Modified-Since 4. Сократить JS и CSS Googlebot на молодых сайтах довольно ленив! Анализ логов - ключ к оптимизации crawl budget
  • 38. “Важные” - с большим числом ссылок на другие страницы и большим количеством контента
  • 39. Трафик растет с первого дня (+ 300 визитов в неделю)
  • 40. Для теста добавлено 6 уникальных статей № Позиция по главному ключу Конкурентов по главному ключу Цитатный поиск в ТОП-3 1 28 339 000 10/10 2 15 1 830 000 10/10 3 >100 33 300 000 8/10 4 42 485 000 10/10 5 63 6 430 000 10/10 6 44 729 000 10/10 Проблем нет. Гипотеза имеет право на жизнь
  • 42. 1 этап: подбор фраз- маркеров ◉ Смотрим лидеров по главной фразе темы ◉ Снимаем в Serpstat/Semrush их фразы в ТОП ◉ Убираем низкочастотные ◉ Убираем дешевые
  • 43. 2 этап: подбор кандидатов на анализ ◉ Парсим выдачу по каждому ключу (ТОП-30), например KeyCollector-ом ◉ Берем домены, встретившиеся в выгрузке хотя бы 2 раза: https://bez-bubna.com/free/domains.php ◉ Из них оставляем только с возрастом до 2-4 лет: http://www.bulkseotools.com/bulk-check-domain- age.php
  • 44. 3 этап: оценка кандидатов. Хорошо подходит Serpstat В итоге остается 10-20 сайтов на ручной анализ.
  • 45. Как анализировать 1. Мало ссылок? (не забываем о зеркалах!) 2. Легко создать аналог по контенту? 3. Можно добавить страниц “под Фреда”?
  • 46. Главное ◉ Иногда хватает шаблонного контента без ссылок. Охват семантики + хак = ! ◉ Fred смотрит на “хорошие”/”плохие” страницы ◉ Запросы и конкуренция влияют на оценку качества ◉ Парсинг выдачи -> юные кандидаты с трафиком -> 3 “да” - отличная ниша
  • 47. Контакты ◉ Блог: alexeytrudov.com ◉ Анализ сайта: bez-bubna.com ◉ Консультации: optimumprofit.ru Спасибо за внимание!