Поведенческие факторы

О поведенческих факторах и ранжировании

Решил опять коснуться темы ПФ, тем более, что сейчас она как никогда актуальна при . Появление поведенческих факторов , а точнее, их учёт поисковыми системами вдохнул новую жизнь в процесс SEO-оптимизации — появилось чуть больше креатива.

Вообще, в Рунете о них заговорили где-то осенью 2010, затем всплеск активности разговоров пришёлся на весну 2011. Ну а появились они на Западе.

Кто из поисковых систем был первым, мне лично не известно. Вполне возможно, что придумали их в Microsoft для своего Bing.com, в котором ввели параметр BrowseRank — « Letting Web Users Vote for Page Importance» — «позволение пользователям Веб голосовать за важность той или иной страницы».

Также задержать пользователя на сайте помогает грамотное юзабилити — человеку должно быть удобно пользоваться вашим сайтом. Например, если веб-сайт имеет кулинарную тематику, то ссылка на рубрику «Первые блюда» должна находиться на видном месте, а не где-нибудь в футере, чтобы можно было быстро её найти.

Поведенческие факторы в выдаче Яндекса и Гугла

Это здорово, когда с ранжированием вашего сайта поисковыми системами всё в порядке. Но необходимо, чтобы он не только высоко стоял в ТОПе, но и имел хороший CTR. Что это такое?

CTR поисковой выдачи — количество кликов на заголовок сайта в результатах поиска поделить на количество его показов по тому или иному запросу. Во многом всё аналогично .

Почему это важно? Т.к. поисковые системы наблюдают за поведением пользователей в своей выдаче (в SERP), то даже очень оптимизированный и , находящийся на первой позиции, постепенно уступит своё место соседям, если на него редко переходят из SERP’а.

Исправить это можно так:

  • составлять красивые Title для страниц (заголовки);
  • осознанно формировать , Гугла и т.д., тем самым оказывая влияние на кликабельность;
  • возможно, использование также может помочь.

Помимо всего прочего, на прокачивание этих факторов оказывают влияние .

Если на ваш проект производятся прямые заходы (type-in — ввод ссылки в строке браузера), переходы с email’ов, других сайтов, а также , то это говорит поисковым роботам, что «сайт знают, ценят, он известный и ему доверяют» .

Если всё обобщить и подытожить, то можно просто сказать, как всегда — делайте сайт для людей! Если подробнее, то улучшить поведенческие факторы ранжирования поможет всё то, что максимально задерживает пользователя на странице и заставляет его снова и снова возвращаться на ваш сайт — хороший CTR в выдаче, релевантность и .

Основным фактором для раскрутки стал поведенческий фактор. Теперь актуально , но не только из-за Яндекса.Гугл так же ранжирует сайты, обращая внимание в первую очередь на поведение пользователей, а потом на ссылочную массу. Поэтому качественные ссылки могут передавать не только вес, но и качественный трафик, который способен поднять сайт в топ выдачи как в Яндексе, так и в Гугл.

Что такое поведенческие факторы?


Поведенческие факторы
– это выполняемые действия пользователем на сайте. Под действиями я имею ввиду, показатель отказов, время проведённое на сайте, глубина просмотра, а так же возвращался ли пользователь на сайт. Нынешние поисковые машины отслеживают все эти данные для того, что бы выдвигать в топ лишь те сайты, которые понравятся большинству, а не другие сайты, которые собрали больше всего обратных ссылок.

Какие поведенческие факторы самые важные для ранжирования?

Статистика показала, что поисковые запросы легко продвигаются с помощью поведенческих факторов. Самыми важными факторами ранжирования оказались показатель отказов и время, проведённое на сайте. Именно на эти два поведенческих фактора стоит обратить внимание в первую очередь. Если показатель отказов более 50% и время, проведённое на странице менее минуты, то страница не будет в топ 10 как в Яндекс, так и в Гугл.

Продвижение сайта поведенческими факторами при помощи сервисов

Хочу сразу сообщить, что любые накрутки поведенческих факторов являются обманом поисковых систем, то есть чёрным SEO. За что могут поставить сайт под фильтр, либо убрать часть страниц из индекса.

Существуют различные сервисы предоставляющие раскрутку сайта с помощью поведенческих факторов. , я считаю одной из самых удобных среди бесплатных систем по автоматической накрутки.

Среди ручной накрутки поведенческих факторов, лучше всего использовать один из следующих сервисов: либо Movebo. Однако не стоит забывать, что Яндекс старается отслеживать всех тех, кто накручивает поведенческие факторы с помощью сервисов.

Вот что пишет сама команда поиска Яндекса о .

Как улучшить поведенческие факторы самостоятельно?

Прежде всего, дайте пользователю то, что он желает увидеть. Возможно, придётся провести много различных анализов, что бы уменьшить показатель отказов, однако это имеет 30-50% успеха в продвижение. Вот несколько полезных советов по . Так же стоит отметить, что пользователем важно удобство ресурса, когда всё можно найти интуитивно.

Надеюсь, статья про продвижение сайта поведенческими факторами окажется полезной и поможет продвинуться в топ поисковой выдачи.

Оглядываясь на события прошедшего года, понимаешь, что он стал для большинства оптимизаторов и веб-мастеров очень насыщенным. И если всеми любимая поисковая система Рунета Яндекс вела себя достаточно сдержанно, то Google преподнес несколько значимых “подарков”.

В 2012 году Google, до этого являвшийся “отдушиной” для оптимизаторов, в одночасье превратился из добродушного друга в строгого полицая. Если раньше добиться хороших результатов можно было за счет “продавливания” ТОПа, по большому счету, лишь ссылочной массой, то теперь правила игры изменились. Однако у оптимизаторов есть на руках все необходимые инструменты для эффективного продвижения в данной поисковой системе. Какие именно? Об этом и пойдет речь в моем мастер-классе. Но обо всем по порядку.

Как изменились правила игры

Для начала предлагаю совершить небольшой экскурс в историю. Первые ощутимые трудности при продвижении сайтов в Google начались у западных SEO-специалистов еще в середине 2011 года.

  • Всё началось с появления алгоритма под дружелюбным названием “Панда”. Его целью являлось выявление низкокачественного контента, с которым он успешно борется до сих пор. Стоит отметить, что “Панда” пришла в Рунет гораздо позже, и первые трудности у отечественных оптимизаторов начались лишь в начале 2012 года.
  • Весной 2012 года компания Google представила новый алгоритм “ ” , который, также как и “Панда”, был направлен на борьбу с поисковым спамом. В отличие от других нововведений, “Пингвин” был запущен одновременно для большинства стран, в том числе и для России.
  • 28 ноября 2012 года небезызвестный Мэтт Катс объявил в своем блоге о готовящемся новом “EDM-алгоритме” , направленном на борьбу с SEO-доменами (это домены с прямым вхождением поискового запроса, как, например, plastikovie-okna-v-moskve.ru). После появления первой информации о запуске “EDM” многие оптимизаторы и владельцы SEO-доменов заметили значительное снижение трафика на их сайты.

Как мы видим, прошлый год оказался крайне насыщенным на события. Конечно, основные принципы продвижения в поисковой системе Google, по сути, не изменились. Все те инструменты, которые ранее давали результат, работают до сих пор, вот только качеству этих инструментов сейчас придается особое значение. На сегодняшний момент для эффективного продвижения в Google стоит работать по трем ключевым направлениям:

  1. Плавное наращивание ссылочной массы.
  2. Написание качественных и, что самое главное, продающих текстов.
  3. Работа с “кликовыми” поведенческими метриками.

Далее давайте рассмотрим ряд кейсов из моей практики, которые наглядно иллюстрируют то, как, используя озвученные выше методы, я справился с последствиями нововведений Google, а теперь работаю над увеличением пресловутой отработки (повышением % запросов в ТОП 10, которые достигли своей цели).

Примеры из жизни

Ввиду соглашения с клиентами о неразглашении информации, данные, представленные ниже, были обезличены. Итак, поехали:

Проект 1: возраст 3 года 8 месяцев, активно продвигается последние 18 месяцев. Это один из тех сайтов, который на себе ощутил удары новых алгоритмов и :



Как видно из графика, после запуска “Пингвина” (24-26 апреля) позиции данного сайта существенно просели. Помимо этого, в мае и июне наблюдалась тенденция к уменьшению % выведенных в ТОП запросов. Однако, начиная с июля, после того, как были проанализированы обратные ссылки и качество текстов, а также проведены соответствующие работы, стала проявляться положительная тенденция к росту. На сегодняшний день проект полностью оправился от падения, Google восстановлен и даже увеличен за счет повышения количества запросов, находящихся в ТОП 10.

Проект 2: возраст 2 года 5 месяцев, продвигается последние 2 года. Сайт получил штрафную карточку от Google после запуска “Пингвина”. Для сравнения ниже приведены данные по отработке проекта в обеих поисковых системах:



Как видно на графике, Проект 2 также получил пенальти от Google, однако при этом видимость сайта в поисковой системе Яндекс осталась на прежнем уровне. Отчасти это позволило минимизировать потери в трафике, поскольку в случае с данным ресурсом распределение трафика из поисковых систем выглядит следующим образом: Яндекс — 70%, Google — 30%. Тем не менее, работа над ошибками также была оперативно проведена, после чего позиции сайта восстановились.

Проект 3: молодой сайт, возраст 5 месяцев, продвижение проекта ведется с запуска ресурса.



Это наиболее интересный проект с точки зрения инструментов, которые использовались при продвижении. На его примере отчетливо видно, как плавно наращиваемая вкупе с качественным контентом показывают хороший результат. Стоит сделать оговорку: хотя ссылочная масса по большей части игнорирует тематику продвигаемого ресурса, но ввиду молодости сайта, ссылки закупались только с качественных и проверенных на других проектах донорах.

Отмечу, что, как показывает практика, в 90% случаев то, что хорошо для Google, хорошо и для Яндекса. Разумеется, рост позиций в главной поисковой системе Рунета не такой “взрывной”, как в Google, но он есть. Однако это уже совсем другая история, которую, в свете запуска новой , оставим для следующего мастер-класса.

Как достичь хороших результатов

Наверняка у вас мог возникнуть вопрос: “Как добиться хороших результатов или вернуть утраченные позиции в Google?” . Ответ прост: нужно количество превратить в качество . Бездумный подход, который раньше работал в подавляющем большинстве случаев, теперь не пройдет. Безусловно, и сейчас можно встретить индивидов, которые пытают продвигать свои проекты “по-старому”, но результат в большинстве таких случаев попросту отсутствует.

Как я уже писал выше, в настоящий момент в Google на первый план вышли контент, грамотная работа со ссылочной массой и . Далее я постараюсь максимально подробно рассказать про каждую из этих составляющих.

1. Контент. Ни для кого не секрет, что после запуска алгоритма “Панда” зарубежные оптимизаторы стали уделять большое внимание качеству контента на своих сайтах. Как показало время, наполнение сайта уникальной и полезной информацией дает положительный эффект в долгосрочной перспективе как в плане SEO, так и в плане маркетинга и рекламы в целом.

Как создать качественный текст, который заинтересует не только посетителей, но и роботов поисковых систем?

Все достаточно просто, и ниже я постараюсь описать по пунктам, чем стоит руководствоваться SEO-специалистам при составлении технического задания (ТЗ) копирайтерам на написание текстов:

  • Анализ конкурентов по поисковой выдаче . На этапе составления ТЗ копирайтеру стоит в первую очередь смотреть на сайты конкурентов. Основными критериями для оценки являются:
  • Размер текста . Исходя из данных о конкурентах, определяемся с минимальным и максимальным размером текста и, основываясь на принципах здравой логики, определяемся с объемом для своего текста. По своему опыту могу сказать, что не нужно стараться писать “простыни” — в 99% случаев для донесения всей необходимой информации хватает 2000-2500 символов. В конце концов, поставьте себя на место пользователя и подумайте, стали бы вы сами читать многостраничный текст о том, как хорошо “купить пластиковые окна в Москве”.
  • Количество вхождений фразы в текст . Проверяем количество точных вхождений и вхождений в словоформы ключевой фразы (например, “пластиковые окна”) в текст. По-отдельности для каждого слова, т.е. для слов “пластиковые”, “окна” и производных от них, мы смотрим на количество вхождений в текст. На основании полученных данных вычисляем максимальную плотность фразы и её отдельных слов.
  • Количество вхождений фразы в h1- h3 . Здесь все просто — смотрим на количество точных вхождений ключевой фразы в тегах h1-h3 в тексте.

Анализ текстов на страницах конкурентов можно провести в сервисе Rookee абсолютно бесплатно:


  • Естественность текстов . Оцениваем естественность текстов на страницах сайтов конкурентов. Для этого можно также использовать анализ в сервисе Rookee:


Чем значения столбцов ближе к идеальному значению, тем лучше. В приведенном примере текст не совсем естественный, и, как минимум, я бы на порядок сократил количество вхождений со словом “шина”.

  • Польза . Не стоит делать контент ради контента, всегда при его создании думайте о пользе для своих посетителей. Если же контент создается только ради позиций, то лично я считаю, что такой текст лучше в принципе не писать. Не будьте “just another one”, будьте лучшими!

Итак, после того, как текст готов, оцениваем его качество и, если оно нас устраивает с точки зрения конечного пользователя, то проверяем его на естественность инструментами, озвученными выше.

Обращаю внимание на то, что ключевую роль в цепочке “SEO-специалист —> текст” обычно играет копирайтер. Поэтому, если вы не уверены в качестве работы копирайтера или не знаете, где найти толкового специалиста, могу посоветовать заказать .

2. Работа со ссылочной массой . Для начала давайте вспомним, как ещё год назад осуществлялось продвижение в Google. Примерно это выглядело так:

1. идем на биржу или обращаемся в сервис по продаже ссылок,

2. покупаем “over 9000” ссылок на свой сайт,

4. получаем результат!

Наверняка, кто-то из вас узнал в этом и себя. Что же сейчас? В существующих реалиях такой подход если и дает эффект, то очень непродолжительный и крайне ненадежный.

Вот два мифа, которые появились в среде оптимизаторов после выхода “Пингвина”:

  • Влияние тематики на связку донор — акцептор . Факт в том, что в российской версии Google роль тематики сильно преувеличена. Если посмотреть первые 10 результатов по любому коммерческому запросу и проанализировать обратные ссылки, стоящие на сайты из ТОП 10, то в подавляющем большинстве случаев мы увидим ссылки с нетематических площадок, которые, тем не менее, хорошо работают.
  • Точное вхождение ключевой фразы в анкоры . Есть мнение, что большое количество точных вхождений ключа в анкоры ссылок негативно сказывается на позициях. Не сказывается — проверено. Грамотное использование анкоров с точным вхождением, точным вхождением с окружением и точным вхождением с разбавлением позволяет избежать переспама анкор-листа и получить стабильный рост позиций. Но зацикливаться именно на этих типах анкоров не стоит — импровизируйте! К слову, если вы продвигаете сайт в сервисе Rookee, вы можете выбрать стратегию продвижения именно под Google и самостоятельно настроить генерацию текстов ссылок:


В идеале, для достижения положительных результатов нужно плавно наращивать ссылочную массу. Необходимо, чтобы картина прироста ссылочной массы была максимально равномерной и продолжительной по времени. У большинства моих проектов график прироста ссылочной массы выглядит примерно так:





Еще один важный момент, который стоит учитывать для получения от Google максимальной отдачи: не сосредотачивайте всю ссылочную массу только лишь на продвигаемых страницах — для поисковых систем это выглядит неестественно.

Если показать наглядно, то не советую делать так :



Старайтесь делать так:


  • Поведенческие факторы (ПФ) . О ПФ и их влиянии на результаты поиска мы привыкли говорить в контексте поисковой системы Яндекс. Но не стоит забывать, что Google тоже использует ПФ при ранжировании сайтов в поисковой выдаче. Немаловажную роль здесь играет показатель CTR (кликабельности) ссылки в поисковой выдаче. К примеру, запрос с CTR 10% стабильно держится в ТОП 3 поисковой выдачи:


А вот запросу с CTR, равным 1%, пока только предстоит побороться за внимание пользователей в поисковой выдаче:



Если мы говорим о CTR ссылки на наш сайт в поисковой выдаче, то стоит упомянуть, что на кликабельность прямо влияет качество самого сниппета. Мне всегда очень нравилось, как выглядят сниппеты SEO-компаний в украинской выдаче Google. Многие методы, которые используют украинские специалисты, можно и нужно использовать для повышения CTR своего сайта в выдаче. Для наглядности приведу несколько наиболее интересных, на мой взгляд, примеров, взятых из выдачи (Google, Киев):

Чтобы сделать для своего сайта такой же выделяющийся сниппет, достаточно добавить в текст description специальные символы. Открываем таблицу спецсимволов HTML (ее можно найти в интернете) и, используя их, составляем красивый и выделяющийся description для своего сайта.

2.

В данных сниппетах используется несколько техник:

  • Сниппет №25 — рейтинг и количество отзывов реализовано с использованием микроформатов, их еще называют “микроразметкой” (прочитать про нее можно в справке Яндекса).
  • Сниппет №26 — URL украшен спецсимволами и аватаркой автора из Google+. Чтобы добавить в сниппет аватарку из G+, достаточно вставить ссылку на свой аккаунт в формате текст_ссылки. Спецсимволы в ссылке на страницу реализованы через связку “микроформат + спецсимволы HTML”. Если посмотреть код страницы, то мы увидим следующую конструкцию:

Опять же, если вы хотите получить такую же красоту, то читаем справку по микроформатам, ссылку на которую я уже приводил выше.

Исходя из своего опыта, могу посоветовать всем читателям работать над своими сниппетами — использовать представленные выше техники и придумывать свои. К примеру, спецсимволы можно указывать и в теге Title — это тоже будет способствовать улучшению кликабельности сниппета в выдаче поисковой системы Google. Улучшая CTR сниппетов, вы будете в конечном счете улучшать и кликовые поведенческие метрики, что в конечном итоге положительно отразится и на росте позиций в поиске.

В заключение статьи я хочу сказать, во-первых, надеюсь, что данный материал был вам полезен. Во-вторых, надеюсь, что мне удалось развенчать некоторые мифы об агрессивности поисковой системы Google по отношению к SEO-специалистам. Используя информацию из данного мастер-класса, вы точно сможете эффективно продвигать свои ресурсы в Google.

Успехов и максимально быстрой дороги к ТОПу!


Дата публикации: 19.02.2015

комментариев 25

  1. NMitra написал:
    19 Фев 2015 в 21:18

    Да, я выключила аналитикс — позиции не упали

  2. Алексей написал:
    19 Фев 2015 в 22:18

    Есть три маленьких проекта, на одном из них есть как аналитикс так и метрика, на двух других только метрика, на последних двух (хотя они очень молодые) некоторые нч выскочили в гугле буквально после месяца запуска просто вот сами, а в яше ниже 100-й строки эти же нч. Не уверен, конечно, что это именно по этой причине, но случайность интересная, которая требует подтверждения.
    Игорь, не хотите провести эксперимент? 🙂

  3. Bakalov Igor написал:
    20 Фев 2015 в 10:19

    Алексей, сомнительный будет эксперимент 🙂

  4. Семён написал:
    20 Фев 2015 в 10:20

    Не понятен ответ:
    Мы решили вместо поведенческих факторов и социальных сигналов использовать рост и вес вебмастера.
    Что в данном случае подразумевали под ростом и весом вебмастера?
    Догадываюсь что рост — это увеличение числа страниц сайта, а вес — это количество ссылок? Моя догадка верна?
    Ответ больше похож на шутку:)

  5. Сергей Нижегородцев написал:
    20 Фев 2015 в 12:11

    Привет, Игорь! Спасибо за хорошую подборку ответов команды Гугл на тему ПФ.

    Я уверен, что Яндекс скоро сделает то же самое. Этим и накрутчиков добьют, и больше случайные сайты не попадут под раздачу, которых пытаются выбить из ТОПа конкуренты.

    Опять будет много недовольных, но всем не угодишь. Накрутчики сейчас, как перед агонией, обкакавшись несколько раз подряд (последний раз 31.12.14) и загубив тысячи коммерческих проектов, все активнее зазывают лохов в свои сервисы — http://i.imgur.com/cI89QLw.png 🙂

    К тебе вопрос. Многие любители ссылок и накруток (особенно кто на них наживается) стонут, что выдача рухнет. Что думаешь по этому поводу.

    Спасибо заранее за ответ 🙂

  6. Максим написал:
    20 Фев 2015 в 12:54

    По поводу веса и роста. Эта метрика может учитываться для контентных проектов, где автор — может считаться новичком, любителем, экспертом — и благодаря некому «Автор-ранку» материалы будут ранжироваться выше или ниже.

    Но давайте поговорим про интернет-магазин, как понять его рост и вес? Число страниц? Трафик? Входящие ссылки? Что-то еще?

  7. Bakalov Igor написал:
    20 Фев 2015 в 18:09

    На счет «веса и роста», ребят у вас совсем с чувством юмора туго? 🙂

  8. Marian написал:
    21 Фев 2015 в 15:31

    Про рост и вес комментари убили)))
    Ребята, иногда нужно понимать всё буквально 🙂

  9. ВВО написал:
    22 Фев 2015 в 21:09

    Вам про BrowseRank все ясно на форуме ответили, жаль, что вы так и не поняли.
    Что тут нового и полезного в этой статье?

  10. Bakalov Igor написал:
    22 Фев 2015 в 22:38

    ВВО, на форуме Google я ясно дал понять, что меня не интересует мнения так называемых «ведущих участников», т.к. они пишут откровенную чушь.

  11. ВВО написал:
    23 Фев 2015 в 17:30

    Ведущие участники наверняка знают поболее вас, так как на прямую контактируют с Гуглерами и зачастую ответ ВУ — это трансляция ответа сотрудника Гугл.
    Что касается разного рода поведенческих факторов, то есть интервью Мэтта, Липатцева, о том, что именно для целей ранжирования они не учитываются.
    Всякие адепты поведенческих факторов, которые бебожно впаривают лохам всякого рода накрутки, не могут смериться с тем, что для Гугл этот лохотрон не работает.

  12. Bakalov Igor написал:
    23 Фев 2015 в 17:48

    ВВО, а вы случайно сами не из этих «ведущих участников»? А то по манере общения больно смахиваете.

  13. Дмитрий Севальнев написал:
    24 Фев 2015 в 20:35

    Общение с сотрудниками Google, даже больше чем с сотрудниками Яндекса, напоминает общение со стенкой.

    Им доводы - они в ответ шаблоны.

    Это, конечно, круто, отрицать сам факт учёта ПФ, высший пилотаж, покер-фейс на 100% -) Но тут, кажется, всем очевидно, что это абсурд.

    Даже Mail учитывает и выводит два интегральных ПФ-фактора в своём Вебмастере, а вот Google не учитывает. Ага, да, точно.

  14. Bakalov Igor написал:
    25 Фев 2015 в 14:00

    Дим, а почему покерфейс Яндекса, касательно отмены ссылок в Московской коммерческой выдаче тебя не смущает? 🙂

  15. Дмитрий Севальнев написал:
    26 Фев 2015 в 1:04

    Игорь, мне кажется они просто разные цели преследуют -)

    Яндекс - хочет типа сломать систему и нарушить карго-культ оптимизаторов, и, надо сказать, для многих данные заявления работают. Хотя сам Яндекс и не раскрывает карты о наблюдаемом объеме коммерческих ссылок в Рунете.

    Что же касается Google - я не знаю за что они борются, ты думаешь за то чтобы народ отказался от накруток? Если да, то хочется каких-то более мощных действий, скажем, фильтр Пеликан для ПФ. Мало же кто смотрит эти видеовстречи с вебмастерами, а практика работы с ПФ в Google - говорит явно об обратном =)

  16. Сергей Анисимов написал:
    09 Мар 2015 в 14:41
  17. Анатолий написал:
    10 Мар 2015 в 19:06

    Спасибо, Игорь, спасибо за подборку информации, как всегда интересно.
    Собственные наблюдения за последние годы:
    Накрутка ПФ для Яндекса — эффект стримится к 0!
    Накрутка ПФ для Google — эффект явно есть, причём достаточны быстрый

    Чистота выводов конечно под большим вопросом т.к. невозможно отследить значение ПФ в отрыве других факторов, даже если с сайтами борльше нечего не делать, поскольку на длительном отрезке времени даже с этими сайтами происходят колебании (иногда очень значительные)…

  18. Артем написал:
    16 Апр 2015 в 20:13

    А только мне кажется здесь противоречие «Речь шла только о том, что если вы выпихните сайт в топ плохими ссылками, то очень скоро он оттуда улетит под плинтус. А то, что не кликают по топовому результату – это только сигнал, что с выдачей не совсем все правильно и нужно обратить внимание. Такой сайт либо заслуживает ручных мер, либо алгоритм ранжирования нуждается в корректировке.

  19. Bakalov Igor написал:
    17 Апр 2015 в 10:21

    Артем, да странного много тут, например увиливания про граф переходов. У них на сайте есть публикации, где вскользь упоминается, что для ряда исследований использовали данные тулбаров, но в ранже видите-ли не используют. Стоит понимать, что это лишь официальная позиция Google и не стоит верить им на слово 😉

  20. Николай написал:
    07 мая 2015 в 21:27

    Они говорят, что поведенческие внутри сайта не является сигналом ранжирования. Джон Мюллер тоже сто раз отвечал на этот вопрос.
    Он привел простой пример, сказав, что когда он вбивает запрос в гугле, то очень часто открывает сразу несколько вкладок, допустим читает одну, остальные 4 открыты в других вкладках. После чего он может вообще про какие-то забыть и закрыть их позже, или перебить запрос на более уточняющий. Таким образом время на сайте очень шумный сигнал. Также он сказал, что если находит ответ на свой вопрос то тут же закрывает вкладку.
    А накрутки ПФ работают потому, что накручивается CTR в выдаче. А Рэнд Фишкин уже делал эксперимент, предлагая своим фэнам вбивать запрос в гугле, идти на 3 страницу и кликать по ссылке. И конечно эксперимент подтвердился, что CTR влияет на выдачу. Гугловцы об этом и говорят, что они учитывают поведенческие факторы только внутри самой выдачи. Смотрят кто куда жмет, как часто и т.д. Только вот непонятно CTR влияет только на данную страницу, или хороший ctr на некоторых страницах положительно влияет и на другие страницы. Ведь хороший ctr может быть не только из за привлекательного заголовка, но и за доверие к бренду(известному домену).

  21. Bakalov Igor написал:
    08 мая 2015 в 10:49

    Николай, в том то и фишка, что Гугловцы говорят, что CTR и прочие «кликовые» фишки — не влияют.
    Что до времени на сайте, не проблема учитывать время только на активной вкладке, это все реализуемо средствами JS.

  22. Николай написал:
    08 мая 2015 в 11:34

    Об этом говорили на каком-то вебмастерском гугловском видео. Кстати тебя там видел тоже вроде, среди задающих вопросы через скайп, если не ошибаюсь конечно.
    В очках там есть такой гугловец:), вот он и говорил, что они оценивают поведение пользователей на выдаче, а не на сайтах. Что там еще можно оценивать кроме CTR? Ну например очередность кликов, скажем вбил запрос, выдало результаты, кликаешь сначала по третьему месту, потом по второму. Вроде ctr обеспечил этим двум ссылками одинаковый, но заинтересовался сначала третьим местом, посчитав его заголовок более привлекательным к примеру.
    Ну и Джон Мюллер об этом говорил несколько раз, отвечая на вопросы про то что якобы гугланалитикс подглядывает за нами 🙂

  23. Bakalov Igor написал:
    08 мая 2015 в 13:01

    Николай, немного не правильно вы поняли. Допустим возьмем Яндекс. Есть ваш сайт на 3 месте по [запросу], если на него кликают чаще (читай выше CTR), то Яндекс считает, что этот сайт лучше и его по этому запросу надо поставить выше. У Google же официальная (!) позиция принципиально другая. Они в целом смотрят на поведение и клики пользователей в SERP и затем в целом «улучшают» алгоритмы, чтобы сайты на которые кликают чаще были выше. По факту конкретная связка запрос-документ не важна, т.к. это для них «шум». Поскольку поиск всегда старается найти грань между точностью и полнотой, на выходе может оказаться так, что ваш сайт не будет ранжироваться лучше, даже при высоком CTR. Немного сумбурно, но надеюсь вы поняли о чем я.

  24. Николай написал:
    08 мая 2015 в 20:35

    Возможно, но эксперимент Рэнда Фишкина это подтвердил, когда он сказал своим подписчикам в твиттере сделать определенные действия в серпе, то есть вбить запрос и кликнуть куда нужно.

    Может быть они еще смотрят на соотношение брендовых запросов и переходов по ним. Соответственно чем больше брендовых запросов делается, тем выше сайт должен ранжироваться и по другим небрендовым но релевантным запросам.

    Хотя возможно конечно и показатель отказов из поиска считают. Хотя тот же Джон Мюллер говорил, что он сам ищет довольно быстро, если быстро ответ нашел, то закрывает страницу. Но тут наверное от запроса зависит, ведь очевидно что в ecommerce запросах пользователю понравился сайт в том случае если он остался на странице и начал делать действия какие-то, добавлять в корзину и т.д. А если открыл и сразу закрыл, то вероятно что-то не так, допустим товара нет временно в продаже, о чем висит уведомительная надпись, значит будут уходить со страницы, а следовательно зачем ее высоко показывать.

  25. Bakalov Igor написал:
    09 мая 2015 в 0:04

    Николай, ну я же не зря сделал акцент, что это официальная (!) позиция Google 😉 А сеошники знают, что далеко не все заявления представителей поиска являются истиной 🙂

Здравствуйте, уважаемые читатели блога сайт. Сегодня будет статья на тему, о которой говорят уже все кому не лень — поведенческие факторы. На самом деле уже многие в курсе что это такое, да и я сам около полугода назад писал о пользовательских характеристиках, как одном из трех китов, на которых стоит продвижение сайтов в современных условиях.

Особенный резонанс влияние поведенческих факторов, а точнее их накрутка, получили в последнее время. Яндекс с конца мая начал пессимизировать ресурсы, использующие различные способы накрутки поведения пользователей на сайте. Причем, все это было сделано с большой помпой, под горячую руку попало очень много ресурсов и в том числе лидеры области . Все это получило большую общественную огласку (ролик в новостях по ТВ, статья в ведомостях, масса публикаций и обсуждений в интернете).

Поведенческие факторы — история появления

Т.е. Яндекс сотворил эдакую показательную порку всех тех, кого ему далось поймать за руку на накрутке поведенческих факторов продвижения (а с точки зрения поисковых систем — документов ). Понятно, что как только оптимизаторы поняли, что за накрутку поведения посетителей можно , то тут же стали пытаться завалить таким не хитрым способом своих конкурентов.

Вроде бы как даже всего нескольких оплаченных, например, в юзаераторе (один из многочисленных сервисов предлагающих услуги накрутки пользовательских характеристик) кликов по сайтам конкурентов из поисковой выдачи Яндекса было достаточно для того, чтобы отправить этого конкурента под фильтр. В результате, по тем запросам, по которым продвигался данный ресурс с помощью накрутки ПФ, он резко выпадал за Топ 100.

Наверное, большинству из вас, уважаемые читатели, понятно, что до бесконечности так продолжаться не могло и сейчас поисковик номер один в рунете уже не наказывает за подобную накрутку, но это вовсе не значит, что теперь все могут бросать это делать. Скорее всего у Яндекса сейчас работает алгоритм, который просто нивелирует (обнуляет) влияние накрутки, тем самым полностью сводя на нет результат от этого способа продвижения.

Но давайте вернемся к тому, что такое поведенческие факторы, на какие группы они подразделяются, какие способы накрутки ПФ существовали (и продолжают существовать, но уже не будут иметь такой сумасшедшей популярности), как Яндекс, да и мы с вами, можем определить, что на ресурсе проводилась накрутка ПФ, и какие существуют «белые» способы улучшения влияния ПФ на продвижение ().

Итак, откуда и когда именно появилось понятие пользовательских факторов , и какая из поисковых машин стала его первой использовать? Кто-то считает, что еще в 2004 году после появления алгоритма Флорида в Google (сейчас текущий алгоритм уже называется Панда) эта поисковая система стала активно учитывать ПФ на ресурсе, и именно тогда произошло проседание многих искусственно накрученных и накачанных ссылками сайтов.

Также достоверно известно, что не безызвестная компания Микрософт (имеющая непосредственно отношение к ) в 2008 опубликовала документ , поясняющий принцип работы такого показателя как Browserank, который судя по опубликованному документу должен был стать гораздо более эффективным инструментом, чем разработанный гораздо раньше всем вам известный .

Если обобщать, то Browserank в какой-то степени является аналогом pagerank, но при этом вес отдельных документов в сети оценивается не по проставленным ссылками, а по конкретным осуществленным переходам по этим ссылкам , т.е. по кликам. При использовании Browserank гораздо более высокие позиции в поисковой выдачи должны были получить сайты социальных сетей и других ресурсов, где пользователи проявляют большую активность (кликают).

Ну, и относительно недавно об учете пользовательских характеристик заговорил и Яндекс. Так почему же всем без исключения поисковикам, которые хотят иметь актуальную и релевантную выдачу, нужно учитывать ПФ? Наверное, просто потому, что два других основных фактора, на которые обращали поисковики свое внимание при ранжирования документов, уже себя изжили. Я говорю об анализе непосредственно контента документа и анализа проставленных на этот документ ссылок.

Нет, конечно же, текст и ссылки по-прежнему влияют на ранжирование, но они уже не могут оказывать решающего влияния из-за того, что сильно дискредитированы, попросту заспамлены . Сначала оптимизаторы (вот, гады) заспамили тексты и все те факторы текстовой оптимизации, на которые обращали особое внимание поисковые системы ( в заголовках, тегах выделения, мета тегах и т.п.).

А потом эти самые оптимизаторы (чтоб им) заспамили и ссылочные факторы, на которые поисковики поначалу возлагали очень большие надежды, ибо текст оптимизировать совсем не сложно, а вот ссылки на себя проставлять ведь нужно с других ресурсов, что значительно сложнее.

Но данную проблему решили биржи ссылок, например:

  1. МираЛинкс описанный
  2. ГоГетЛинкс — читайте о нюансах работы с ним
  3. ГетГудЛинкс — описание возможности по покупке ссылок со страниц имеющих PR (большой статический вес)
  4. РотаПост — полный обзор возможностей биржи

Они стали посредниками между теми, кто желал продажей ссылок со своего сайта, и теми, кто желал получить преимущество в продвижении, купив нужное количество бэклинков с нужными анкорами.

Теперь использование ключевых слов, по которым продвигается ваша статья (), стало равнозначно тому, как будто бы вы сами сообщили поисковику (в письменной форме) о том, что данные ссылки являются покупными. Нет, конечно же, они хоть и знают, что ссылка покупная, но все равно могут ее учитывать, но встает вопрос, а насколько учитываются они при ранжировании.

Для некоммерческих поисковых запросов велика вероятность того, что покупная ссылка (с оптимизированным анкором) вообще учитываться не будет, а вот для коммерческого запроса эти ссылки по-прежнему работают, но с такими большими оговорками, что, пожалуй, вам никто не даст точного ответа как именно. Все оптимизаторы покупают бэклинки, но многие уже начинают улучшать не покупкой дополнительных ссылок, а, наоборот, снятием заведомо плохих. Вот как извратили такую хорошую идею.

В общем, Яндекс и Гугл по-прежнему учитывают оптимизированность текстов и проставленные обратные ссылки, но уже с очень и очень большим количеством оговорок. И тут как раз очень кстати пришлись поведенческие факторы.

Если попробовать проследить за поведением пользователей в выдаче, а так же на сайтах (страницы которых должна ранжировать поисковая машина), то можно при должном умении извлечь из этого очень много полезной информации, позволяющей лучше настроить ранжирование по всем запросам и получить выдачу еще более релевантную им.

Получается своеобразная обратная связь , когда сами посетители своими действиями подтверждают или, наоборот, опровергают право нахождения данного ресурса на данной позиции в поисковой выдаче.

Но тут опять же все не «здорово живешь». Во-первых, снова возникает угроза того, что пользовательские факторы очень быстро заспамят (что, собственно, и происходит), а во-вторых, нужно не просто собрать информацию о поведении посетителей и в поисковой выдаче (для поисковиков это не проблема), и на самих пользовательских ресурсах (где им статистику собрать сложнее, но тоже можно), а еще ее и интерпретировать либо в плюс, либо в минус.

Но давайте обо всем поговорим по порядку и попробуем разложить информацию по полочкам.

Расчет поведенческих факторов в выдаче и на сайте

Итак, давайте подумаем, на что и где именно могут обращать внимание поисковики при анализе ПФ. Вообще принято считать, что они отслеживают поведение пользователей в двух основных местах:

  1. в своей собственной поисковой выдаче
  2. на ранжируемых сайтах

Давайте посмотрим, на что могут обращать внимание поисковые системы при учете поведения пользователей в поисковой выдаче :


Как поисковики узнают о поведение людей на сайте и на что смотрят

Понятно, что из своей собственной выдачи и Яндекс, и Google смогут вытянуть всю необходимую им информацию о ПФ, но вот непосредственно на пользовательских проектах у них такой власти уже нет. Но тем не менее поисковые системы с успехом решают данную задачу, а значит мы сможем предположить как это им удается.

Итак, как же Яндекс и Google смогут оценить поведение пользователей на вашем сайте :

  1. обладает богатейшим функционалом и при этом является бесплатным. Никогда не задумывались, зачем его разработчикам быть столь щедрыми? Да просто они получают в случае установки их счетчика на сайт всю необходимую им информацию для ранжирования ресурса, опираясь на поведенческие факторы. Это вполне логично.
  2. Довольно не сложно продолжить логическую цепочку и прийти к выводу, что, скорее всего, такие приложения для как , панель Google или та же способны собирать нужные данные о поведении посетителей на ресурсах, которые те (в смысле «обаренные» пользователи) посещают.
  3. Вы, наверное, все знаете, что в интернете, и в частности в рунете, существует масса бесплатных сервисов, предоставляющих свои счетчики посещений. А какая им выгода от того, что вы поставите на свой проект их скрипт? Обратная ссылка? Возможно, но слишком мелко. Тут, наверняка, есть более заманчивые варианты. Если у одного игрока интернет бизнеса есть то, что нужно другому, то они завсегда смогут договориться об обоюдной выгоде:
    1. — есть мнение, что сливает за денежку набранную Яндексу
    2. — судя по тому, что , то и в области учета поведенческих факторов при ранжировании у них возможно такое же тесное сотрудничество

Наверное, можно и еще чего-нибудь придумать, но и этого вполне хватает, чтобы понять, что поведение посетителей на любом ресурсе рунета для Яндекса (и Гугла) в той или иной степени не будет являться секретом.

Но ведь пользователи это не асессоры Яндекса, которым специально платят зарплату за то, чтобы они давали оценки веб проектам по целому ряду позиций. Им денег никто не платит и то, как понимать их действия, Яндексу придется как-то решать самому, используя логику и силу программистской мысли.

Причем, один и тот же показатель поведенческих факторов для ресурсов разных тематик может означать в одном случае хорошо, а в другом — не очень.

Так, а теперь давайте подумает, какие ПФ на сайте могут учитывать поисковиками:

  1. Ну, наверное, учитывается много факторов, но наверняка такая характеристика, как показатель отказов , будет учитываться обязательно. Показатель отказов показывает отношение сессий с единичной глубиной (точка входа совпадает с точкой выхода) к общему числу сессий. Если вам это не очень понятно, то обязательно ознакомьтесь со статьей о посещаемости сайта (ссылка на нее была приведена чуть выше), где все это очень подробно разжевано.
  2. Думаю, что при анализе поведенческих факторов поисковиками учитывается также и продолжительность сессии — время, проведенное посетителем на сайте, пока он не сделал перерыва в открывании страниц более 30 минут или не закрыл браузер.
  3. Ну и глубина сессии (сколько страниц просмотрел пользователь за одну сессию) по всей вероятности тоже должна приниматься в расчет.
  4. Так же, на мой взгляд, поисковики должны учитывать объем и, что более важно, источники трафика на сайт. Другими словами, лучше будет, если посетители на ваш проект будут приходить не только с выдач поисковиков, но и из других источников, как, например, закладки браузера, социальные сети и т.п.

Анализ пользовательских факторов и способы их улучшения

Если с последним пунктом все ясно, то вот по первым трем такой ясности и однозначности нет. Судите сами, у интернет магазина (а еще даже лучше для примера подойдут доставка пиццы или заказ такси) может быть очень короткая сессия и показатель отказов близкий к ста процентам (посетитель зашел на страницу, увидел номер контактного телефона и ушел звонить), но тем не менее сам интернет магазин может быть очень хорошим и будет хорошо ранжироваться в Яндексе.

Для новостного же портала или блога, подобного тому что вы сейчас читаете, показатель отказов в 100% (ваш ресурс пользователям, скорее всего, не интересен) или даже в 90% будет катастрофой, которая лишит его львиной доли трафика с поисковых систем.

Т.е. ПФ учитываются Яндексом и другими поисковиками сугубо избирательно. Видимо существуют определенные срезы сайтов по тематикам , для которых у Яндекса есть усредненные показатели поведенческих факторов и с которыми будут сравниваться все другие ресурсы отнесенные к этому же срезу.

Т.е. слишком низкий показатель отказов для магазина по доставке пиццы может быть интерпретирован поисковиками как не очень положительный ПФ (пользователи слишком долго ищут нужный им телефон для заказа), и возможно что позиция этого ресурса будет несколько скорректирована в худшую сторону. Но думаю, что по одному единственному поведенческому показателю такое решение вряд ли будет выноситься.

Как узнать, какие значения ПФ будут нормальными именно для вашего ресурса ? У Гугла есть масса полезных сервисов, которыми мало кто пользуется, например, все тот же DoubleClick Ad Planner, который я толком и не понимаю для чего нужен, но вот его данные могут нам пригодиться в оценке пользовательских факторов собственного проекта.

Введя на этой странице (для входа на нее нужно иметь ) в поле «Просмотреть данные о сайте» URL своего ресурса, вы получите массу полезной информации о своем веб проекте. В области «Статистика по трафику» в двух самых нижних строчках вы как раз и увидите ваши пользовательские характеристики:

Надеюсь, что вы знаете другие ресурсы в вашей тематике, с которыми можете сравнить имеющиеся у них и у вас поведенческие факторы. Я, например, сравнил свой блог с проектом Михаила Шакина, который имеет по мнению DoubleClick Ad Planner такие ПФ:

Если вы таких ресурсов не знаете, то посмотрите что вам присоветует сам Ad Planner в области «Также посещенные сайты». Как бы это один из, наверное, многих способов проверки соответствия ваших поведенческих факторов стандартам принятым в вашей нише.

Теперь еще осталось сказать пару слов про белые способы улучшения пользовательских характеристик для своего сайта:

  1. Не устаю приводить в пример Михаила Шакина — он уже года три как использует очень хороший способ увеличения продолжительности сессии (времени проведенного пользователями на его блоге). Наверное, и сами уже догадались? Я говорю про видеоролики в конце каждого его поста. Очень хорошая идея, ведь недаром Михаил уверено ориентируется в буржуйском SEO, которое несколько опережает Сео рунета.
  2. Второй способ подольше удержать пользователей на своем сайте — это создание какого-то интересного или полезного сервиса, который может занять ваших посетителей на некоторое время. Чего именно стоит сделать зависит, наверное, от тематики вашего ресурса. У меня лично никаких идей по этому поводу для своего блога нет, а жаль.
  3. Наверное, самый избитый совет, который дают все по поводу улучшения поведенческих факторов, это поработать над (удобством пользования вашим ресурсом). Что тут сказать? Дело это не просто сложное, а очень и очень сложное, так что каждый решает его по мере своего умения.
  4. Также очень не плохо будет понять, что попытка продвижения по тем поисковым запросам, которые не полно отражены на страницах вашего ресурса, может привести только к ухудшению пользовательских факторов . То, что попало в выдачу поисковиков случайно, само по себе отсеется (пользователи проголосуют за это высоким показателем отказов и короткой сессией), но делать это специально не стоит.
  5. Для лучшей оценки вашего сайта поисковыми системы с точки зрения поведения посетителей, вам нужно будет сформировать костяк своей постоянной аудитории ( вам в руки, ну или ) или же стараться постоянно получать поток посетителей с источников отличных от поисковых выдачи ().
  6. Такая безобидная с виду вещь, как часто встречающиеся , может служить мощнейшим стимулом для проседания поведенческих характеристик ранжирования. Раздражает это многих. Увы и ах, но такие патологически безграмотные типы, как я, вынуждены прибегать к различным онлайн способам проверки орфографии до и после публикации статьи на блоге.
  7. , как ни банально и не избито это звучит, влияет в итоге на посещаемость вашего проекта. Поисковикам до лампочки, почему именно посетители сразу покидают ваш проект так ничего не нем и не посмотрев. Это может быть плохого качества SEO контент, а может быть пауза в несколько секунд, которая сопровождает открытие каждой его страницы.

Запрещенные способы и методы накрутки ПФ

Так, а теперь давайте посмотрим, какие такие накрутки поведенческих факторов занимали умы многих оптимизаторов и оптимизаторских контор до недавнего времени. Насколько я понимаю, накручивали именно поведение в поисковой выдаче Яндекса, а не непосредственно на сайте.

Причем, можно выделить два вида накрутки :

    Накрутка ПФ через ботнет, т.е. через сеть зомбированных вирусом компьютеров по всему миру. Владельцы компьютеров зараженных вирусом при этом обычно ничего не замечают и спокойно шарятся по интернету, а скрипт вируса заходит в выдачу Яндекса по нужному запросу и осуществляет от имени этого пользователя переход на нужный сайт.

    Что примечательно, данный вирус еще умеет подменять рекламные объявления на ресурсах, по которым ходит владелец зараженного компьютера на другие (заказанные). Но это только по слухам (читайте про мою эпопею ). Вообще, ботнет — это уже уголовно наказуемое преступление, а сотрудничество с его хозяином, наверное, равносильно скупке краденного. Собственно, сам Яндекс говорит о том, что за такой способ накрутки (равно как за другие) он будет наказывать.

    Накрутка поведенческих факторов вручную за счет армии не шибко дорогих кликеров из бирж подобных юзератору. Т.е. оптимизатор давал задание набрать в поисковой строке Яндекса определенный запрос, а затем перейти со страницы открывшейся поисковой выдачи на нужный сайт.

    На первый взгляд такой способ может показаться очень даже приемлемым, ибо получается дешево и сердито, а связать клики совершенно различных (физических) пользователей с юзератором или другим сервисом накрутки, казалось бы очень сложно. Но это только казалось.

Собственно, даже не нужно быть Яндексом, чтобы понять, что, например, самый известный из зафильтрованных проектов Megaseo накручивал ПФ. В общем-то, они и сами это признали, но тем не менее достаточно зайти на Alexa (кстати, Alexa появился даже раньше Гугла, хоть и не стал столь успешным) и перейти на страницу с данными по Megaseo:

Http://www.alexa.com/siteinfo/megaseo.ru

Переходите на вкладку «Clickstream»:

И видите следующую картину:

Как объясняют знающие люди, выделенный на скриншоте домен является персональным сервисом накрутки, на который могли попасть только пользователи зарегистрированные в Megaseo. Возможно именно поэтому получилось так, что «уши из под шапки видны».

Немного поясню по последнему скриншоту. В верхней табличке приведены ресурсы, с которых люди чаще всего заходили на Megaseo, а внизу, на которые посетители чаще всего уходили с этого зафильтрованного оптимизаторского ресурса.

В общем-то, если уж обычные смертные с их куцыми способами и средствами способны заподозрить что-то неладное, то что уж говорить про Яндекс. Он все знает и все видит. И в общем-то, он показательно дал сильную затрещину самым зарвавшимся накрутчикам ПФ, а дальше он, скорее всего, вообще перестанет учитывать подобные вещи (т.е. будет обнулять влияние накрутки поведенческого ). Иначе в юзераторе конкуренты начнут заказывать друг друга на попадание под фильтр.

В довершение хочу привести видео по теме использования поведенческих факторов в продвижении сайтов рунета — психология поведения пользователей на сайте :

Удачи вам! До скорых встреч на страницах блога сайт

посмотреть еще ролики можно перейдя на
");">

Вам может быть интересно

Контент для сайта - как наполнение уникальным и полезным контентом помогает в современном продвижении сайтов
Релевантность и ранжирование - что это такое и какие факторы влияют на положение сайтов в выдаче Яндекса и Гугла
Как ключевые слова влияют на продвижение сайта в поисковых системах