Как улучшить поведенческие факторы ранжирования Яндекса и Google? Переходы из социальных сетей и других ресурсов. Анализ пользовательских факторов и способы их улучшения


Поведенческие факторы и их учет в Яндекс и Гугле
На протяжении этого курса мы уже много раз повторяли – пишите хорошие тексты, ставьте хорошие ссылки, делайте хороший сайт – поисковые системы учтут все это и подарят вам высокие позиции. Поведенческие факторы ранжирования – сокращенно ПФ – это и есть те самые алгоритмы, которые позволяют поисковикам отличать по настоящему хорошие сайты от подделок.

Мы можем написать тематические тексты, купить ссылки – и вполне вероятно сумеем обмануть «машину». Но человека обмануть не получится – и поисковые системы научились это использовать.

ПФ учитывают множество различных факторов из разных областей. Тут и поведение пользователя на сайте, и «кликабельность» страницы в результатах выдачи, и источники трафика. Все их мы подробно рассмотрим. Начнем же с самых базовых принципов, чтобы понимать как вообще работают поведенческие факторы.

Очень упрощенно модель ранжирования результатов можно описать так:

Релевантность: текст страницы отвечает на запрос? Если да:

ПФ: пользователям нравится страница? Если да – высокие позиции, если нет – значит это сайт-подделка.

Итого приходим к одной очень важной мысли. Накрутить поведенческие факторы достаточно легко, поэтому:

1. Главная задача учета ПФ – не тащить хорошие сайты в ТОП, а убирать оттуда плохие. Мысль не совсем очевидная, но очень важная.

Если у сайта отличные ПФ – то возможны два варианта: либо сайт хороший, либо поведенческие накручивают. Если ПФ плохие – вывод только один, сайт тоже не фонтан.

Это работает так: сайт занимает 3-е место по некоторому запросу. По третьему месту обычно кликают 40% посетителей. Если же на данный сайт переходят только 10% - значит что-то тут не то. Яндекс посчитал ресурс хорошим. Но пользователи, только увидев TITLE/сниппет, уже понимают – нужной информации у вас они не найдут. Стало быть позиции однозначно нужно понизить.

А вот если «кликабельность» сайта в выдаче высокая – то это МОЖЕТ поднять его, а может и не поднять. Тут уже поисковики будут оценивать ПФ в комплексе с другими факторами ранжирования.

2. Поведенческие факторы оцениваются относительно конкурентов по выдаче. Т.е. нет каких-то точных цифр – если на сайте Васи пользователи просматривают 50 страниц – то сайт хороший.

Условие нужно формулировать так: если на сайте Васи глубина просмотра БОЛЬШЕ чем на сайте Пети, то Вася – лучше.

Пример условный, глубина просмотра не является особо значимым условием, но суть вы поняли. Поведенческие сайта сравниваются с соседями по выдаче. Если у одного из сайтов они сильно выбиваются вверх или вниз – то это повод для пересмотра позиций. Особенно, если выбиваются вниз.

3. ПФ бывают нескольких видов.

Поведение пользователя в поисковой системе (кликабельность объявления, возвраты в поиск)

Поведение пользователя на сайте (глубина просмотра, время посещения, показатель отказов)

- «возвратные» факторы (повторные визиты, добавление сайта в закладки)

Навигационные факторы (поиск по названию фирмы или имени домена, прямые заходы на сайт)

Непоисковые ПФ (трафик с других сайтов, соц. сетей и т.п.)

Поведенческие факторы внешних ссылок (есть ли по ссылкам живые переходы – этот момент мы уже рассматривали в главах про набор ссылочной массы).

4. ПФ бывают запросо-зависимыми либо независимыми.

Некоторые поведенческие факторы (кликабельность объявления) рассчитываются для конкретного ключевого слова. Страница плохо отвечает на один запрос, но вполне вероятно хорошо отвечает на другой. ПФ нужно смотреть для каждого конкретного запроса.

Другие же (поиск по бренду, непоисковый трафик) являются показателем качества всего ресурса в целом. Они будут влиять скорее на траст сайта, чем на позиции по конкретным ключевым словам.

Источники информации о ПФ
После прочтения этого материала у любого человека возникает логичный вопрос. А откуда вообще поисковые системы узнают всю эту информацию? Большой Брат следит за нами? В принципе так оно и есть.

У поисковиков есть три главных источника информации:

- собственная выдача . Отслеживается поведение пользователя непосредственно в процессе поиска в Гугле или Яндексе

- браузеры и тулбары . Очень и очень неслучайно и Гугл и Яндекс выпустили на рынок свои браузеры. Казалось бы, ну зачем им лезть в сферу разработки ПО, да еще и бесплатного. Ан нет.

Если вы пользуетесь одним из таких фирменных браузеров, либо у вас установлены Яндекс.Бар или Гугл.Тулбар – то все посещенные вами сайты будут известны поисковой системы. Данные передаются обезличенно, но информацию о полезности сайтов поисковики получают.

Благодаря этим инструментам они видят очень многое. Какие сайты нравятся пользователям, а с каких они уходят. По каким ссылкам кликают (это к вопросу о качественности и естественности ссылочной массы). На какие сайты возвращаются повторно. И многие другие показатели.

- системы статистики. Яндекс Метрика и Гугл Аналитикс - это бесплатные и очень мощные инструменты для анализа посещаемости вашего сайта. По каким ключевым фразам приходят к вам люди, какие страницы смотрят, какие запросы имеют высокую конверсию визит-покупка, а какие низкую. Всего не перечислить.


И эти классные инструменты поисковики дают нам абсолютно бесплатно. В обмен же мы отдаем им всю информацию о наших сайтах.

Официальная позиция поисковиков однозначна – системы статистики не учитываются при ранжировании. Но как-то слишком уж наивно думать, что имея в руках мощнейший инструмент для улучшения результатов выдачи, поисковые системы не будут его использовать.

Некоторые вебмастера опасаются устанавливать счетчики поисковых систем на свои сайты. На мой взгляд страхи необоснованные. Если у вас более менее нормальный сайт, то установка счетчиков скорее в плюс сыграет.

Также неоднократно обсуждалось, что крупнейший независимый счетчик Рунета LiveInternet продает свою статистику Яндексу. Неизвестно так ли это на самом деле, но вполне возможно.

Накрутка поведенческих факторов
Я уже писал, что ПФ поддаются накрутке. Как с помощью специальных автоматических программ, так и с помощью специальных сервисов, на которых сидят армии школьников, готовых делать заданные действия за сверх-символическую оплату.

Именно поэтому поисковики вынуждены ограничивать влияние поведенческих факторов.

На мой взгляд накрутка ПФ дело бесперспективное. Если у сайта хорошие поведенческие, то они скорее всего хорошие в комплексе. Т.е. там и возвраты на сайт, и малый процент отказов, и большой непоисковый трафик и т.д. «Подделать» все это разом не получится, а накрутка какого-то одного показателя эффекта не даст.

Ну и не забывайте, что ПФ используются в большей степени для отсева плохих сайтов. Т.е. даже мега-хорошие ПФ могут на рост позиций не повлиять.

Моя книга издана в бумажном варианте. Если этот учебник оказался для вас полезным - то вы можете отблагодарить меня не только морально, но и вполне осязаемо.
Для этого нужно перейти на

Дата публикации: 19.02.2015

комментариев 25

  1. NMitra написал:
    19 Фев 2015 в 21:18

    Да, я выключила аналитикс — позиции не упали

  2. Алексей написал:
    19 Фев 2015 в 22:18

    Есть три маленьких проекта, на одном из них есть как аналитикс так и метрика, на двух других только метрика, на последних двух (хотя они очень молодые) некоторые нч выскочили в гугле буквально после месяца запуска просто вот сами, а в яше ниже 100-й строки эти же нч. Не уверен, конечно, что это именно по этой причине, но случайность интересная, которая требует подтверждения.
    Игорь, не хотите провести эксперимент? 🙂

  3. Bakalov Igor написал:
    20 Фев 2015 в 10:19

    Алексей, сомнительный будет эксперимент 🙂

  4. Семён написал:
    20 Фев 2015 в 10:20

    Не понятен ответ:
    Мы решили вместо поведенческих факторов и социальных сигналов использовать рост и вес вебмастера.
    Что в данном случае подразумевали под ростом и весом вебмастера?
    Догадываюсь что рост — это увеличение числа страниц сайта, а вес — это количество ссылок? Моя догадка верна?
    Ответ больше похож на шутку:)

  5. Сергей Нижегородцев написал:
    20 Фев 2015 в 12:11

    Привет, Игорь! Спасибо за хорошую подборку ответов команды Гугл на тему ПФ.

    Я уверен, что Яндекс скоро сделает то же самое. Этим и накрутчиков добьют, и больше случайные сайты не попадут под раздачу, которых пытаются выбить из ТОПа конкуренты.

    Опять будет много недовольных, но всем не угодишь. Накрутчики сейчас, как перед агонией, обкакавшись несколько раз подряд (последний раз 31.12.14) и загубив тысячи коммерческих проектов, все активнее зазывают лохов в свои сервисы — http://i.imgur.com/cI89QLw.png 🙂

    К тебе вопрос. Многие любители ссылок и накруток (особенно кто на них наживается) стонут, что выдача рухнет. Что думаешь по этому поводу.

    Спасибо заранее за ответ 🙂

  6. Максим написал:
    20 Фев 2015 в 12:54

    По поводу веса и роста. Эта метрика может учитываться для контентных проектов, где автор — может считаться новичком, любителем, экспертом — и благодаря некому «Автор-ранку» материалы будут ранжироваться выше или ниже.

    Но давайте поговорим про интернет-магазин, как понять его рост и вес? Число страниц? Трафик? Входящие ссылки? Что-то еще?

  7. Bakalov Igor написал:
    20 Фев 2015 в 18:09

    На счет «веса и роста», ребят у вас совсем с чувством юмора туго? 🙂

  8. Marian написал:
    21 Фев 2015 в 15:31

    Про рост и вес комментари убили)))
    Ребята, иногда нужно понимать всё буквально 🙂

  9. ВВО написал:
    22 Фев 2015 в 21:09

    Вам про BrowseRank все ясно на форуме ответили, жаль, что вы так и не поняли.
    Что тут нового и полезного в этой статье?

  10. Bakalov Igor написал:
    22 Фев 2015 в 22:38

    ВВО, на форуме Google я ясно дал понять, что меня не интересует мнения так называемых «ведущих участников», т.к. они пишут откровенную чушь.

  11. ВВО написал:
    23 Фев 2015 в 17:30

    Ведущие участники наверняка знают поболее вас, так как на прямую контактируют с Гуглерами и зачастую ответ ВУ — это трансляция ответа сотрудника Гугл.
    Что касается разного рода поведенческих факторов, то есть интервью Мэтта, Липатцева, о том, что именно для целей ранжирования они не учитываются.
    Всякие адепты поведенческих факторов, которые бебожно впаривают лохам всякого рода накрутки, не могут смериться с тем, что для Гугл этот лохотрон не работает.

  12. Bakalov Igor написал:
    23 Фев 2015 в 17:48

    ВВО, а вы случайно сами не из этих «ведущих участников»? А то по манере общения больно смахиваете.

  13. Дмитрий Севальнев написал:
    24 Фев 2015 в 20:35

    Общение с сотрудниками Google, даже больше чем с сотрудниками Яндекса, напоминает общение со стенкой.

    Им доводы - они в ответ шаблоны.

    Это, конечно, круто, отрицать сам факт учёта ПФ, высший пилотаж, покер-фейс на 100% -) Но тут, кажется, всем очевидно, что это абсурд.

    Даже Mail учитывает и выводит два интегральных ПФ-фактора в своём Вебмастере, а вот Google не учитывает. Ага, да, точно.

  14. Bakalov Igor написал:
    25 Фев 2015 в 14:00

    Дим, а почему покерфейс Яндекса, касательно отмены ссылок в Московской коммерческой выдаче тебя не смущает? 🙂

  15. Дмитрий Севальнев написал:
    26 Фев 2015 в 1:04

    Игорь, мне кажется они просто разные цели преследуют -)

    Яндекс - хочет типа сломать систему и нарушить карго-культ оптимизаторов, и, надо сказать, для многих данные заявления работают. Хотя сам Яндекс и не раскрывает карты о наблюдаемом объеме коммерческих ссылок в Рунете.

    Что же касается Google - я не знаю за что они борются, ты думаешь за то чтобы народ отказался от накруток? Если да, то хочется каких-то более мощных действий, скажем, фильтр Пеликан для ПФ. Мало же кто смотрит эти видеовстречи с вебмастерами, а практика работы с ПФ в Google - говорит явно об обратном =)

  16. Сергей Анисимов написал:
    09 Мар 2015 в 14:41
  17. Анатолий написал:
    10 Мар 2015 в 19:06

    Спасибо, Игорь, спасибо за подборку информации, как всегда интересно.
    Собственные наблюдения за последние годы:
    Накрутка ПФ для Яндекса — эффект стримится к 0!
    Накрутка ПФ для Google — эффект явно есть, причём достаточны быстрый

    Чистота выводов конечно под большим вопросом т.к. невозможно отследить значение ПФ в отрыве других факторов, даже если с сайтами борльше нечего не делать, поскольку на длительном отрезке времени даже с этими сайтами происходят колебании (иногда очень значительные)…

  18. Артем написал:
    16 Апр 2015 в 20:13

    А только мне кажется здесь противоречие «Речь шла только о том, что если вы выпихните сайт в топ плохими ссылками, то очень скоро он оттуда улетит под плинтус. А то, что не кликают по топовому результату – это только сигнал, что с выдачей не совсем все правильно и нужно обратить внимание. Такой сайт либо заслуживает ручных мер, либо алгоритм ранжирования нуждается в корректировке.

  19. Bakalov Igor написал:
    17 Апр 2015 в 10:21

    Артем, да странного много тут, например увиливания про граф переходов. У них на сайте есть публикации, где вскользь упоминается, что для ряда исследований использовали данные тулбаров, но в ранже видите-ли не используют. Стоит понимать, что это лишь официальная позиция Google и не стоит верить им на слово 😉

  20. Николай написал:
    07 мая 2015 в 21:27

    Они говорят, что поведенческие внутри сайта не является сигналом ранжирования. Джон Мюллер тоже сто раз отвечал на этот вопрос.
    Он привел простой пример, сказав, что когда он вбивает запрос в гугле, то очень часто открывает сразу несколько вкладок, допустим читает одну, остальные 4 открыты в других вкладках. После чего он может вообще про какие-то забыть и закрыть их позже, или перебить запрос на более уточняющий. Таким образом время на сайте очень шумный сигнал. Также он сказал, что если находит ответ на свой вопрос то тут же закрывает вкладку.
    А накрутки ПФ работают потому, что накручивается CTR в выдаче. А Рэнд Фишкин уже делал эксперимент, предлагая своим фэнам вбивать запрос в гугле, идти на 3 страницу и кликать по ссылке. И конечно эксперимент подтвердился, что CTR влияет на выдачу. Гугловцы об этом и говорят, что они учитывают поведенческие факторы только внутри самой выдачи. Смотрят кто куда жмет, как часто и т.д. Только вот непонятно CTR влияет только на данную страницу, или хороший ctr на некоторых страницах положительно влияет и на другие страницы. Ведь хороший ctr может быть не только из за привлекательного заголовка, но и за доверие к бренду(известному домену).

  21. Bakalov Igor написал:
    08 мая 2015 в 10:49

    Николай, в том то и фишка, что Гугловцы говорят, что CTR и прочие «кликовые» фишки — не влияют.
    Что до времени на сайте, не проблема учитывать время только на активной вкладке, это все реализуемо средствами JS.

  22. Николай написал:
    08 мая 2015 в 11:34

    Об этом говорили на каком-то вебмастерском гугловском видео. Кстати тебя там видел тоже вроде, среди задающих вопросы через скайп, если не ошибаюсь конечно.
    В очках там есть такой гугловец:), вот он и говорил, что они оценивают поведение пользователей на выдаче, а не на сайтах. Что там еще можно оценивать кроме CTR? Ну например очередность кликов, скажем вбил запрос, выдало результаты, кликаешь сначала по третьему месту, потом по второму. Вроде ctr обеспечил этим двум ссылками одинаковый, но заинтересовался сначала третьим местом, посчитав его заголовок более привлекательным к примеру.
    Ну и Джон Мюллер об этом говорил несколько раз, отвечая на вопросы про то что якобы гугланалитикс подглядывает за нами 🙂

  23. Bakalov Igor написал:
    08 мая 2015 в 13:01

    Николай, немного не правильно вы поняли. Допустим возьмем Яндекс. Есть ваш сайт на 3 месте по [запросу], если на него кликают чаще (читай выше CTR), то Яндекс считает, что этот сайт лучше и его по этому запросу надо поставить выше. У Google же официальная (!) позиция принципиально другая. Они в целом смотрят на поведение и клики пользователей в SERP и затем в целом «улучшают» алгоритмы, чтобы сайты на которые кликают чаще были выше. По факту конкретная связка запрос-документ не важна, т.к. это для них «шум». Поскольку поиск всегда старается найти грань между точностью и полнотой, на выходе может оказаться так, что ваш сайт не будет ранжироваться лучше, даже при высоком CTR. Немного сумбурно, но надеюсь вы поняли о чем я.

  24. Николай написал:
    08 мая 2015 в 20:35

    Возможно, но эксперимент Рэнда Фишкина это подтвердил, когда он сказал своим подписчикам в твиттере сделать определенные действия в серпе, то есть вбить запрос и кликнуть куда нужно.

    Может быть они еще смотрят на соотношение брендовых запросов и переходов по ним. Соответственно чем больше брендовых запросов делается, тем выше сайт должен ранжироваться и по другим небрендовым но релевантным запросам.

    Хотя возможно конечно и показатель отказов из поиска считают. Хотя тот же Джон Мюллер говорил, что он сам ищет довольно быстро, если быстро ответ нашел, то закрывает страницу. Но тут наверное от запроса зависит, ведь очевидно что в ecommerce запросах пользователю понравился сайт в том случае если он остался на странице и начал делать действия какие-то, добавлять в корзину и т.д. А если открыл и сразу закрыл, то вероятно что-то не так, допустим товара нет временно в продаже, о чем висит уведомительная надпись, значит будут уходить со страницы, а следовательно зачем ее высоко показывать.

  25. Bakalov Igor написал:
    09 мая 2015 в 0:04

    Николай, ну я же не зря сделал акцент, что это официальная (!) позиция Google 😉 А сеошники знают, что далеко не все заявления представителей поиска являются истиной 🙂

Основным фактором для раскрутки стал поведенческий фактор. Теперь актуально , но не только из-за Яндекса.Гугл так же ранжирует сайты, обращая внимание в первую очередь на поведение пользователей, а потом на ссылочную массу. Поэтому качественные ссылки могут передавать не только вес, но и качественный трафик, который способен поднять сайт в топ выдачи как в Яндексе, так и в Гугл.

Что такое поведенческие факторы?


Поведенческие факторы
– это выполняемые действия пользователем на сайте. Под действиями я имею ввиду, показатель отказов, время проведённое на сайте, глубина просмотра, а так же возвращался ли пользователь на сайт. Нынешние поисковые машины отслеживают все эти данные для того, что бы выдвигать в топ лишь те сайты, которые понравятся большинству, а не другие сайты, которые собрали больше всего обратных ссылок.

Какие поведенческие факторы самые важные для ранжирования?

Статистика показала, что поисковые запросы легко продвигаются с помощью поведенческих факторов. Самыми важными факторами ранжирования оказались показатель отказов и время, проведённое на сайте. Именно на эти два поведенческих фактора стоит обратить внимание в первую очередь. Если показатель отказов более 50% и время, проведённое на странице менее минуты, то страница не будет в топ 10 как в Яндекс, так и в Гугл.

Продвижение сайта поведенческими факторами при помощи сервисов

Хочу сразу сообщить, что любые накрутки поведенческих факторов являются обманом поисковых систем, то есть чёрным SEO. За что могут поставить сайт под фильтр, либо убрать часть страниц из индекса.

Существуют различные сервисы предоставляющие раскрутку сайта с помощью поведенческих факторов. , я считаю одной из самых удобных среди бесплатных систем по автоматической накрутки.

Среди ручной накрутки поведенческих факторов, лучше всего использовать один из следующих сервисов: либо Movebo. Однако не стоит забывать, что Яндекс старается отслеживать всех тех, кто накручивает поведенческие факторы с помощью сервисов.

Вот что пишет сама команда поиска Яндекса о .

Как улучшить поведенческие факторы самостоятельно?

Прежде всего, дайте пользователю то, что он желает увидеть. Возможно, придётся провести много различных анализов, что бы уменьшить показатель отказов, однако это имеет 30-50% успеха в продвижение. Вот несколько полезных советов по . Так же стоит отметить, что пользователем важно удобство ресурса, когда всё можно найти интуитивно.

Надеюсь, статья про продвижение сайта поведенческими факторами окажется полезной и поможет продвинуться в топ поисковой выдачи.

«Шеф-редактор блога GetGoodRank, веб-аналитик, блоггер.
Как измерить уровень удовлетворенности пользователя сайтом? Поисковые системы применяют различные методики. Ясно одно, каждый поисковик учитывает поведенческие факторы и действия пользователей на сайте в процессе ранжирования. А многочисленные исследования это доказывают»

Во время очередной видеоконференции Google Джон Мюллер ответил на вопрос вебмастера, что поисковая система не учитывает действия пользователей на сайте в качестве фактора ранжирования. Более того, Google вряд ли видит и учитывает все действия, производимые пользователем на сайте при каждом посещении.

Стоит ли расценивать данный ответ, как официальное заявление, что поисковик не учитывает поведение пользователей на сайте?

Нет. И вот почему.

Поведение пользователей в ранжировании сайтов

Поведение пользователей - наиболее объективный параметр определения качества, удобства сайта. Прибыль сайту приносят именно пользователи, а не поисковые системы.

Поисковая система «видит», что пользователи делают на сайте, и предлагает эти данные вебмастерам для оценки эффективности сайта и СЕО. Так, в панели Google Analytics доступны следующие метрики:

  • сессии
  • пользователи
  • просмотры страниц
  • количество просмотренных страниц за одну сессию
  • средняя длительность сессии
  • показатель отказов
  • новые сессии
  • демография посетителей сайта
  • социальные сигналы
  • и множество других метрик, основанных на реакциях и действиях пользователей на сайте

Если Google не видит, что пользователи делают на сайте, то каким образом эти данные попадают в Google Analytics?

Более того, Google Analytics предлагает вам данные об операционных системах и устройствах, с которых был осуществлен вход на сайт. А в панели инструментов есть раздел под названием «Поведение», где вебмастер видит карты поведения, страницы входа и выхода.

Поисковые системы самостоятельно запустили механизмы черного СЕО, предоставив оптимизаторам четкие руководства к действию: выше ранжируется тот сайт, которые оказывается более релевантным запросу и авторитетным среди прочих. Это спровоцировало ссылочную коммерцию, а также стало причиной низкого качества и ценности контента. Ведь не было необходимости наполнять качественным контентом страницы, если высокому ранжированию способствовали переоптимизированные тексты «ни о чем». Сегодня поисковая система исправляет «ошибки прошлого», уравновешивая параметры релевантности и авторитетности пользовательскими факторами.

Google позиционирует поведение и удовлетворенность пользователей как фактор конверсии. Все рекомендации представителей поисковых систем сводятся к созданию сайтов для людей и улучшению сайтов для простого взаимодействия пользователя и ресурса. Официальный блог Google говорит:

The goal of many of our ranking changes is to help searchers find sites that provide a great user experience and fulfill their information needs. We also want the “good guys” making great sites for users, not just algorithms, to see their effort rewarded.

Мы усовершенствуем алгоритмы ранжирования с единственной целью - обеспечить отличный пользовательский опыт каждого человека и помочь ему найти то, что он ищет. Мы также поощряем тех ребят, которые создают сайты для людей, а не для поисковиков. (перевод редакции )

Алгоритм ранжирования сложен, и формула его не разглашается, с тем чтобы снизить возможность манипулирования результатами выдачи. Алгоритм учитывает множества параметров одновременно, и заявить со 100% уверенностью, что поведенческие факторы не учитываются при ранжировании нельзя.

Непрямые доказательства влияния поведенческих факторов на ранжирование

Компания Searchmetrics опубликовала список факторов ранжирования в виде простой инфографики. Однако из исследования видно, что 25% факторов основаны на поведении и реакциях пользователей на сайт.

Также Google привлекает асессоров для оценки сайтов и выявления факторов, определяющих удовлетворенность пользователя. Оценки асессоров не влияют напрямую на позиции проверяемого сайта, однако учитываются в формуле ранжирования, которая в последующем применяется ко всем сайтам определенного типа (информационные, блоги, форумы, корпоративные и пр.). Доказательством этого факта являются инструкции для асессоров (Google Quality Rating Guidelines), время от времени появляющиеся в сети.

Оглядываясь на события прошедшего года, понимаешь, что он стал для большинства оптимизаторов и веб-мастеров очень насыщенным. И если всеми любимая поисковая система Рунета Яндекс вела себя достаточно сдержанно, то Google преподнес несколько значимых “подарков”.

В 2012 году Google, до этого являвшийся “отдушиной” для оптимизаторов, в одночасье превратился из добродушного друга в строгого полицая. Если раньше добиться хороших результатов можно было за счет “продавливания” ТОПа, по большому счету, лишь ссылочной массой, то теперь правила игры изменились. Однако у оптимизаторов есть на руках все необходимые инструменты для эффективного продвижения в данной поисковой системе. Какие именно? Об этом и пойдет речь в моем мастер-классе. Но обо всем по порядку.

Как изменились правила игры

Для начала предлагаю совершить небольшой экскурс в историю. Первые ощутимые трудности при продвижении сайтов в Google начались у западных SEO-специалистов еще в середине 2011 года.

  • Всё началось с появления алгоритма под дружелюбным названием “Панда”. Его целью являлось выявление низкокачественного контента, с которым он успешно борется до сих пор. Стоит отметить, что “Панда” пришла в Рунет гораздо позже, и первые трудности у отечественных оптимизаторов начались лишь в начале 2012 года.
  • Весной 2012 года компания Google представила новый алгоритм “ ” , который, также как и “Панда”, был направлен на борьбу с поисковым спамом. В отличие от других нововведений, “Пингвин” был запущен одновременно для большинства стран, в том числе и для России.
  • 28 ноября 2012 года небезызвестный Мэтт Катс объявил в своем блоге о готовящемся новом “EDM-алгоритме” , направленном на борьбу с SEO-доменами (это домены с прямым вхождением поискового запроса, как, например, plastikovie-okna-v-moskve.ru). После появления первой информации о запуске “EDM” многие оптимизаторы и владельцы SEO-доменов заметили значительное снижение трафика на их сайты.

Как мы видим, прошлый год оказался крайне насыщенным на события. Конечно, основные принципы продвижения в поисковой системе Google, по сути, не изменились. Все те инструменты, которые ранее давали результат, работают до сих пор, вот только качеству этих инструментов сейчас придается особое значение. На сегодняшний момент для эффективного продвижения в Google стоит работать по трем ключевым направлениям:

  1. Плавное наращивание ссылочной массы.
  2. Написание качественных и, что самое главное, продающих текстов.
  3. Работа с “кликовыми” поведенческими метриками.

Далее давайте рассмотрим ряд кейсов из моей практики, которые наглядно иллюстрируют то, как, используя озвученные выше методы, я справился с последствиями нововведений Google, а теперь работаю над увеличением пресловутой отработки (повышением % запросов в ТОП 10, которые достигли своей цели).

Примеры из жизни

Ввиду соглашения с клиентами о неразглашении информации, данные, представленные ниже, были обезличены. Итак, поехали:

Проект 1: возраст 3 года 8 месяцев, активно продвигается последние 18 месяцев. Это один из тех сайтов, который на себе ощутил удары новых алгоритмов и :



Как видно из графика, после запуска “Пингвина” (24-26 апреля) позиции данного сайта существенно просели. Помимо этого, в мае и июне наблюдалась тенденция к уменьшению % выведенных в ТОП запросов. Однако, начиная с июля, после того, как были проанализированы обратные ссылки и качество текстов, а также проведены соответствующие работы, стала проявляться положительная тенденция к росту. На сегодняшний день проект полностью оправился от падения, Google восстановлен и даже увеличен за счет повышения количества запросов, находящихся в ТОП 10.

Проект 2: возраст 2 года 5 месяцев, продвигается последние 2 года. Сайт получил штрафную карточку от Google после запуска “Пингвина”. Для сравнения ниже приведены данные по отработке проекта в обеих поисковых системах:



Как видно на графике, Проект 2 также получил пенальти от Google, однако при этом видимость сайта в поисковой системе Яндекс осталась на прежнем уровне. Отчасти это позволило минимизировать потери в трафике, поскольку в случае с данным ресурсом распределение трафика из поисковых систем выглядит следующим образом: Яндекс — 70%, Google — 30%. Тем не менее, работа над ошибками также была оперативно проведена, после чего позиции сайта восстановились.

Проект 3: молодой сайт, возраст 5 месяцев, продвижение проекта ведется с запуска ресурса.



Это наиболее интересный проект с точки зрения инструментов, которые использовались при продвижении. На его примере отчетливо видно, как плавно наращиваемая вкупе с качественным контентом показывают хороший результат. Стоит сделать оговорку: хотя ссылочная масса по большей части игнорирует тематику продвигаемого ресурса, но ввиду молодости сайта, ссылки закупались только с качественных и проверенных на других проектах донорах.

Отмечу, что, как показывает практика, в 90% случаев то, что хорошо для Google, хорошо и для Яндекса. Разумеется, рост позиций в главной поисковой системе Рунета не такой “взрывной”, как в Google, но он есть. Однако это уже совсем другая история, которую, в свете запуска новой , оставим для следующего мастер-класса.

Как достичь хороших результатов

Наверняка у вас мог возникнуть вопрос: “Как добиться хороших результатов или вернуть утраченные позиции в Google?” . Ответ прост: нужно количество превратить в качество . Бездумный подход, который раньше работал в подавляющем большинстве случаев, теперь не пройдет. Безусловно, и сейчас можно встретить индивидов, которые пытают продвигать свои проекты “по-старому”, но результат в большинстве таких случаев попросту отсутствует.

Как я уже писал выше, в настоящий момент в Google на первый план вышли контент, грамотная работа со ссылочной массой и . Далее я постараюсь максимально подробно рассказать про каждую из этих составляющих.

1. Контент. Ни для кого не секрет, что после запуска алгоритма “Панда” зарубежные оптимизаторы стали уделять большое внимание качеству контента на своих сайтах. Как показало время, наполнение сайта уникальной и полезной информацией дает положительный эффект в долгосрочной перспективе как в плане SEO, так и в плане маркетинга и рекламы в целом.

Как создать качественный текст, который заинтересует не только посетителей, но и роботов поисковых систем?

Все достаточно просто, и ниже я постараюсь описать по пунктам, чем стоит руководствоваться SEO-специалистам при составлении технического задания (ТЗ) копирайтерам на написание текстов:

  • Анализ конкурентов по поисковой выдаче . На этапе составления ТЗ копирайтеру стоит в первую очередь смотреть на сайты конкурентов. Основными критериями для оценки являются:
  • Размер текста . Исходя из данных о конкурентах, определяемся с минимальным и максимальным размером текста и, основываясь на принципах здравой логики, определяемся с объемом для своего текста. По своему опыту могу сказать, что не нужно стараться писать “простыни” — в 99% случаев для донесения всей необходимой информации хватает 2000-2500 символов. В конце концов, поставьте себя на место пользователя и подумайте, стали бы вы сами читать многостраничный текст о том, как хорошо “купить пластиковые окна в Москве”.
  • Количество вхождений фразы в текст . Проверяем количество точных вхождений и вхождений в словоформы ключевой фразы (например, “пластиковые окна”) в текст. По-отдельности для каждого слова, т.е. для слов “пластиковые”, “окна” и производных от них, мы смотрим на количество вхождений в текст. На основании полученных данных вычисляем максимальную плотность фразы и её отдельных слов.
  • Количество вхождений фразы в h1- h3 . Здесь все просто — смотрим на количество точных вхождений ключевой фразы в тегах h1-h3 в тексте.

Анализ текстов на страницах конкурентов можно провести в сервисе Rookee абсолютно бесплатно:


  • Естественность текстов . Оцениваем естественность текстов на страницах сайтов конкурентов. Для этого можно также использовать анализ в сервисе Rookee:


Чем значения столбцов ближе к идеальному значению, тем лучше. В приведенном примере текст не совсем естественный, и, как минимум, я бы на порядок сократил количество вхождений со словом “шина”.

  • Польза . Не стоит делать контент ради контента, всегда при его создании думайте о пользе для своих посетителей. Если же контент создается только ради позиций, то лично я считаю, что такой текст лучше в принципе не писать. Не будьте “just another one”, будьте лучшими!

Итак, после того, как текст готов, оцениваем его качество и, если оно нас устраивает с точки зрения конечного пользователя, то проверяем его на естественность инструментами, озвученными выше.

Обращаю внимание на то, что ключевую роль в цепочке “SEO-специалист —> текст” обычно играет копирайтер. Поэтому, если вы не уверены в качестве работы копирайтера или не знаете, где найти толкового специалиста, могу посоветовать заказать .

2. Работа со ссылочной массой . Для начала давайте вспомним, как ещё год назад осуществлялось продвижение в Google. Примерно это выглядело так:

1. идем на биржу или обращаемся в сервис по продаже ссылок,

2. покупаем “over 9000” ссылок на свой сайт,

4. получаем результат!

Наверняка, кто-то из вас узнал в этом и себя. Что же сейчас? В существующих реалиях такой подход если и дает эффект, то очень непродолжительный и крайне ненадежный.

Вот два мифа, которые появились в среде оптимизаторов после выхода “Пингвина”:

  • Влияние тематики на связку донор — акцептор . Факт в том, что в российской версии Google роль тематики сильно преувеличена. Если посмотреть первые 10 результатов по любому коммерческому запросу и проанализировать обратные ссылки, стоящие на сайты из ТОП 10, то в подавляющем большинстве случаев мы увидим ссылки с нетематических площадок, которые, тем не менее, хорошо работают.
  • Точное вхождение ключевой фразы в анкоры . Есть мнение, что большое количество точных вхождений ключа в анкоры ссылок негативно сказывается на позициях. Не сказывается — проверено. Грамотное использование анкоров с точным вхождением, точным вхождением с окружением и точным вхождением с разбавлением позволяет избежать переспама анкор-листа и получить стабильный рост позиций. Но зацикливаться именно на этих типах анкоров не стоит — импровизируйте! К слову, если вы продвигаете сайт в сервисе Rookee, вы можете выбрать стратегию продвижения именно под Google и самостоятельно настроить генерацию текстов ссылок:


В идеале, для достижения положительных результатов нужно плавно наращивать ссылочную массу. Необходимо, чтобы картина прироста ссылочной массы была максимально равномерной и продолжительной по времени. У большинства моих проектов график прироста ссылочной массы выглядит примерно так:





Еще один важный момент, который стоит учитывать для получения от Google максимальной отдачи: не сосредотачивайте всю ссылочную массу только лишь на продвигаемых страницах — для поисковых систем это выглядит неестественно.

Если показать наглядно, то не советую делать так :



Старайтесь делать так:


  • Поведенческие факторы (ПФ) . О ПФ и их влиянии на результаты поиска мы привыкли говорить в контексте поисковой системы Яндекс. Но не стоит забывать, что Google тоже использует ПФ при ранжировании сайтов в поисковой выдаче. Немаловажную роль здесь играет показатель CTR (кликабельности) ссылки в поисковой выдаче. К примеру, запрос с CTR 10% стабильно держится в ТОП 3 поисковой выдачи:


А вот запросу с CTR, равным 1%, пока только предстоит побороться за внимание пользователей в поисковой выдаче:



Если мы говорим о CTR ссылки на наш сайт в поисковой выдаче, то стоит упомянуть, что на кликабельность прямо влияет качество самого сниппета. Мне всегда очень нравилось, как выглядят сниппеты SEO-компаний в украинской выдаче Google. Многие методы, которые используют украинские специалисты, можно и нужно использовать для повышения CTR своего сайта в выдаче. Для наглядности приведу несколько наиболее интересных, на мой взгляд, примеров, взятых из выдачи (Google, Киев):

Чтобы сделать для своего сайта такой же выделяющийся сниппет, достаточно добавить в текст description специальные символы. Открываем таблицу спецсимволов HTML (ее можно найти в интернете) и, используя их, составляем красивый и выделяющийся description для своего сайта.

2.

В данных сниппетах используется несколько техник:

  • Сниппет №25 — рейтинг и количество отзывов реализовано с использованием микроформатов, их еще называют “микроразметкой” (прочитать про нее можно в справке Яндекса).
  • Сниппет №26 — URL украшен спецсимволами и аватаркой автора из Google+. Чтобы добавить в сниппет аватарку из G+, достаточно вставить ссылку на свой аккаунт в формате текст_ссылки. Спецсимволы в ссылке на страницу реализованы через связку “микроформат + спецсимволы HTML”. Если посмотреть код страницы, то мы увидим следующую конструкцию:

Опять же, если вы хотите получить такую же красоту, то читаем справку по микроформатам, ссылку на которую я уже приводил выше.

Исходя из своего опыта, могу посоветовать всем читателям работать над своими сниппетами — использовать представленные выше техники и придумывать свои. К примеру, спецсимволы можно указывать и в теге Title — это тоже будет способствовать улучшению кликабельности сниппета в выдаче поисковой системы Google. Улучшая CTR сниппетов, вы будете в конечном счете улучшать и кликовые поведенческие метрики, что в конечном итоге положительно отразится и на росте позиций в поиске.

В заключение статьи я хочу сказать, во-первых, надеюсь, что данный материал был вам полезен. Во-вторых, надеюсь, что мне удалось развенчать некоторые мифы об агрессивности поисковой системы Google по отношению к SEO-специалистам. Используя информацию из данного мастер-класса, вы точно сможете эффективно продвигать свои ресурсы в Google.

Успехов и максимально быстрой дороги к ТОПу!


В продолжение темы:
Wi-Fi

И всеми сопутствующими ей факторами для клиентов «Мегафона » уже относительно давно стало доступно совершать обмен бонусных баллов на деньги (средства на лицевом счёте)....

Новые статьи
/
Популярные