Google Panda – как работает он и как работать с ним. Google Panda: Зверь совсем рядом

Панда – алгоритм поисковой системы Google, о котором писали неоднократно и не только мы. Но она до сих пор вызывает много вопросов и не все её понимают. В данной статье мы попытаемся собрать в одно целое все, что знаем о Google Панде, ответим на самые частые вопросы и развеем мифы о несуществующих свойствах этого алгоритма. Итак, начнём

Суть алгоритма Панда

Панда создана, чтобы следить за качеством контента сайтов. Если контент не отвечает представлениям Панды о хорошем качестве, позиции сайта в поисковой выдаче Google будут понижены.

Немного истории

Впервые Панда появилась в феврале 2011 года. Тогда алгоритм шокировал SEO-сообщество, так как выдача изменилась кардинально, но никто не понимал – почему. Когда Google, наконец-то, пояснил в чем дело, начался длительный процесс переоценки приоритетов в продвижении сайтов.

За 5 лет Google Панда обновлялся 28 раз. При этом в первые 2 года обновления шли часто (практически раз в месяц), в 2014-м Google сбавил обороты, выпуская Панду раз в полгода. Алгоритм Панда работал как фильтр. То есть после оценки сайта основным алгоритмом Google, включающим 200+ факторов, сайт оценивал и Панда. Данные о качестве сайтов копились до очередного апдейта, после чего выкладывались разово, меняя всю картину гугл-выдачи.

Последний апдейт в июле 2015-го происходил совсем по иному сценарию. Алгоритм «раскатывался» в течение нескольких месяцев. И специалисты заговорили о встройке Панды в основной алгоритм Google.

Панда сейчас и в ближайшем будущем

И действительно, в своем твиттере Гари Илш подтвердил, что Панда теперь ЯВЛЯЕТСЯ частью основного алгоритма ранжирования:

Дженифер:
Превосходно, спасибо за подтверждение... и дополнение, что никаких других животных не появилось))

Гарри Илш:
Если сказать точно, Панда - теперь часть основного алгоритма, но мы не изменяли саму Панду. Никаких других животных.

При этом Илш опровергает возникшее предположение, что Панда обновляется в режиме реального времени:

Пит:
Я не уверен, в какой момент началось обсуждение Панды в режиме реального времени, просто пытаюсь разобраться.

Гарри Илш:
Панда в режиме реального времени - это неверно. Мы обновили основной алгоритм, и вне зависимости от этого мы рассказали чуть больше о Панде в интервью TheSEMPost.

И что все это значит? Как теперь работает Панда? На сегодняшний день (10 марта 2016) точного ответа нет (как это ни печально). Мы изучили интервью и просмотрели записи последних выступлений представителей Google по этому вопросу. Но их высказывания по теме очень туманны. Гари Илш на прямые вопросы об интеграции Панды ответил вот что:

Кеничи:
1. Панда теперь часть основного алгоритма ранжирования. Значит ли это, что Панда будет обновляться автоматически, а не вручную (даже если и не в режиме реального времени)?
2. Что это вообще за "Основной алгоритм ранжирования"? Насколько он отличается от остальных алгоритмов (не входящих в него)?

Гарри Илш:
Я переговорил с Джоном Мюллером о том, как ответить на ваши вопросы, чтобы было меньше путаницы. Решили так:

1. Мы продолжаем обновлять данные, которые используются для распознавания качественных сайтов, и мы выкладываем эти данные со временем. Иногда мы вынуждены делать ручные обновления, иногда это происходит автоматически, но не играет роли, как именно мы выкладываем данные.

2. Думаю, что это не лучший пример, но представьте себе двигатель автомобиля. Если в нем нет стартера, то водитель вынужден подходить к капоту и использовать какие-то инструменты, чтобы запустить двигатель. Сегодня стартеры есть в любых бензиновых двигателях, они встроены. Это сделало использование двигателя более удобным, но по сути ничего не изменилось.
Для пользователей и даже для вебмастеров не должно иметь значение, где какие компоненты расположены (в основном алгоритме или в других), это действительно не важно, и поэтому я думаю, что люди должны меньше фокусироваться на этом.

Кеничи:
Понял, что вы хотели сказать. В общем, для нас, вебмастеров, не важно, как работает алгоритм "внутри". Мы должны фокусироваться на создании контента уникального, качественного и неотразимого, как Джон Мюллер постоянно говорит.
Возможно, вы столь много раскрыли в последние несколько дней, что это вызвало мои вопросы (не поймите меня неправильно, я ни в коем случае не обвиняю вас). В любом случае, спасибо за ответы))

Попробуем резюмировать из этого (и других источников, с которыми мы ознакомились) основные мысли по новой Панде:

  • Панда может функционировать в автоматическом режиме (но пока НЕ онлайн режиме), т.е. обновления будут происходить периодически и будут запускаться по каким-то внутренним законам основного алгоритма.
  • Обновления Панды (в рамках основного алгоритма) будут происходить теперь чаще, чем было в последние годы.
  • Google больше не будет подтверждать апдейты Панды (как отдельного алгоритма) и вообще как-то их выделять. Так что узнать, попал ли сайт под Панду или позиции понизили по другим причинам, будет затруднительно.
  • Можно забыть про Панду, как фильтр или алгоритм. Работайте над улучшением сайта не ради Панды, а чтобы отвечать ОБЩИМ требованиям Google. Теперь качество контента – один из основных факторов ранжирования Google.

За что именно наказывает Панда?

– За откровенный копипаст

Если весь ваш сайт это сборник скопированных статей, то, скорее всего, он уже под Пандой. Если еще нет, то скоро будет.

– За отсутствие реальной ценности

Если страница хорошо оптимизирована и даже тексты технически уникальны, но информация никакой пользы не несет и на запрос пользователя не отвечает или отвечает общими, размытыми понятиями. А такое встречается часто, особенно когда вебмастера заказывают дешевые статьи для блога на биржах. Такие страницы могут стать жертвой Панды.

В общем и целом Google не против рекламы или ссылок. Но только если они уместны и не мешают пользователю. Если же реклама очень навязчива (особенно поп-ап окна) или рекламные блоки расположены так, что мешают прочтению, а ссылки на сторонние ресурсы проставлены к месту и не к месту и не являются тематическими, то Панда вас обязательно догонит.

А за что Панда не наказывает

В сети встречаются мнения, что приведенные ниже факторы могут навлечь Панду. Частично эта информация устарела, частично никогда не была правдой. Следующие 4 фактора к Панде отношения не имеют, но на ранжирование сайта (посредством других алгоритмов) влияют:

– Дублированные страницы

Дубли страниц на одном сайте это плохо. Но работает с ними не Панда, а отдельный фильтр за дубли.

– 404 ошибка

Тоже никак не привлекает Панду, хотя большое число ссылок, ведущих на страницу с ошибкой 404 в общем и целом, безусловно, плохо.

– Маленькие тексты и/или мало текстов

Панда НЕ наказывает за тексты маленьких объемов и НЕ наказывает за малое количество статей на сайте. Google отдает предпочтение качеству, а не количеству. И если ваш текст в 300 знаков хорошо отвечает на запрос пользователя, то это замечательно. Только вот надо уметь писать такие тексты.

Вот что пишет Джон Мюллер в форуме помощи вебмастеров:

Проблема малых объемов и малого числа статей на сайте заключается не в Панде. А в том, что в этом случае вы не сможете дать пользователю столько полезной информации, сколько могли бы. И ваш сайт будет показан по ограниченному числу запросов.

– Вовлеченность пользователя

В то же время комментарии к статьям (если они качественные) могут быть зачтены в карму сайта. Но не как сигнал вовлеченности пользователя, а как дополнительный контент, который появился на странице и учитывается поисковиком наравне с телом самой статьи.

И еще 5 спорных вопросов о Панде

– Панда атакует весь сайт или только те страницы, качество которых Google посчитал плохим?

Панда понижает только те страницы, которые были определены, как некачественные. Те страницы, которые алгоритм посчитал хорошими, не будут иметь проблем с ранжированием. Но, если на сайте слишком большое число плохого контента, то к такому сайту будет «предвзятое» отношение. И даже качественные материалы могут быть ранжированы ниже тех позиций, которых реально заслуживают.

– Страницы под Пандой могут быть показаны в поиске или это в принципе невозможно?

Представители Google говорят, что страницы, забракованные Пандой, могут быть показаны по очень специфическим (уточненным) запросам, если нет другой альтернативы. Но в целом, такие страницы так далеко в выдаче, что поискового трафика на них ждать не стоит.

– Надо ли удалять страницы, которые попали под Панду?

Нет, Google не рекомендует этого делать. Во-первых, вы по ошибке можете удалить страницы, которые Пандой вовсе не атакованы. Во-вторых, отсутствие контента никак не повлияет на улучшение ситуации. Сайт по-прежнему не будет показываться по продвигаемым в такой странице запросам.

Лучший способ решить ситуацию – переработать/улучшить контент на странице, которую вы подозреваете в присутствии Панды. Да и вообще, если вы сами считаете, что контент на какой-то странице плохой, то не ждите Панду, исправляйте сразу.

Давным давно, в далёкой-далёкой галактике, поисковая система Google создала алгоритм, который получил название Panda. Разработали этот алгоритм всего два человека, это Амит Сингал вместе Мэтт Катс. Этот алгоритм отличается от своих собратьев тем, что, прежде всего он рассчитан на человеческий фактор. А также алгоритм учитывает и другие факторы при ранжировании сайта.

В этом материала мы постарались собрать всё, что может касаться алгоритма Google Panda, как его определить и как под него не попасть, чтобы с успехом .

Количество и качество ссылок (ссылочный профиль)

Алгоритм также учитывает ссылки. Причём он учитывает все ссылки, и входящие и исходящие. Требование всего одно, и тот и другой сайт должен быть одной тематики. Конечно же, алгоритм отслеживает количество входящих и исходящих ссылок, но это не самый важный фактор при ранжировании сайта. Первое, что его интересует, это человеческий фактор. Другими словами, он внимательно смотрит за пользователем на сайте. Что он делает, сколько времени проводит, читает ли он материал, заполняет ли формы и так далее. Конечно, разработчики проделали огромную работу, по созданию и обкатке этого алгоритма. По сути, этот алгоритм потребовал шлифовки и других алгоритмов, чтобы поисковая система могла выдавать только качественные сайты.

При введении этого алгоритма при ранжировании сайта, попасть в ТОП поисковой выдачи могут только реально полезные и качественные сайты. Именно этот алгоритм, и сделал поисковую систему Google мощным поисковым инструментом. Это подтверждается тем, что аудитория Гугл растёт в геометрической прогрессии. Более того, бюджет компании так же растёт как на дрожжах. Ведь обмануть пользователя ещё можно, используя так называемые чёрные методы продвижения. Различные фишки и агрессивную рекламу. А вот инвестора обмануть нельзя, и он прекрасно знает и осознаёт, что Гугл – дело прибыльное.

Конечно, такой рост компании это заслуга не только одного алгоритма. А теперь вернёмся к теме статьи.

Поведенческие факторы

В этот показатель входит целый ряд критериев, такие как:

  • показатель отказов;
  • сколько времени проводит человек на сайте за одну сессию;
  • сколько страниц он посетил за один визит;
  • возвращается ли он на сайт и как часто;
  • сколько показывается сайт в выдаче, и сколько переходят по ссылке (CTR).

Все это алгоритм отслеживает, причём он делает это для каждого пользователя. То есть он следит за каждым посетителем и внимательно смотрит, что он делает, переходит ли по ссылкам, заполняет ли формы, прокручивает страницу вниз или нет и так далее. Таким образом, алгоритм определяет, отвечает ли на запросы пользователь сайт или отдельная страница и находит ли пользователь ответ на запрос введённый в поисковую строку.

Как понять, что сайт попал под фильтр Panda и что делать?

  1. Резкое падение трафика. Если Вы обнаружили, что количество переходов из Google резко снизилось, то одной из возможных причин, может являться Panda и технические проблемы сайта, которые не были выявлены:
    — медленный ответ сервера;
    — недоступность страниц и прочие.
    Чтобы проверить это внимательно проанализируйте данный и .
  2. Аккуратнее с ссылками. Хоть ссылки для Google остаются ключевым факторам ранжирования, не стоит слишком заострять внимание на них, потому что поисковик давно научился отличать естественные ссылки от закупленных, а так же выявлять неествественный прирост ссылочной массы.
  3. Плохие тексты. Тексты написанные не человеческим языком, с множеством орфографических ошибок, короткие, не уникальные и размещённые в виде газетной полосы — убьют любой сайт, так как служат сигналом для Панды понизить сайт в выдаче.
    Что делать? Пишите качественный, уникальный контент, который полезен для пользователей, тщательно его проверяйте и редактируйте.
  4. Нет видео и фото. Если Вы не разбавляйте содержание статей и страниц сайта, картинками, инфографикой и видео, то глазу читателя просто не за что зацепиться и если это плохо для пользователя, значит это не нравится Панде.
    Добавляйте больше оптимизированных фото и видео, заполняя атрибуты alt и title .
  5. Мало внутренних ссылок. Зайдя на сайт, пользователь должен легко и не принуждёно перемещаться по нему, при этом попадая именно на те страницы, которые он ожидал увидеть. И здесь очень важно сделать грамотную внутреннюю перелинковку, которая позволит переходить на такие страницы. Так же отличным решением будет разместить виджеты с последними записями в блоге, самыми популярными статьями и наиболее интересными разделами.

И помните: «Лучше не злите Панду!».

Здравствуйте, уважаемые читатели блога сайт! В продолжение темы настала очередь оценить действие Панды как одного из фильтров Google в отношении вебсайтов, пытающихся манипулировать результатами поисковой выдачи.

В прошлой статье были рассмотрены нюансы работы другого представителя гугловской фауны - , базовой задачей которого является понижение вебресурсов за ссылочный спам. Panda же пессимизирует вэбсайты в основном за внутреннюю переоптимизацию и низкое качество контента.

Зачем Гуглом был создан Панда и какие требования он предъявляет к вебпроектам

В общем и целом цели поисковых систем схожи: обеспечить максимальную степень релевантности страниц вебресурсов. Это необходимо для того, чтобы в результате ранжирования (в - о факторах, влияющих на содержание выдачи Яндекса и Гугла) вебресурсов в ТОПе оказывались бы те ресурсы, которые наиболее отвечали бы конкретным ПЗ ( - о видах поисковых запросов) пользователей.

Поэтому общие принципы механизмов, регулирующих качество находящихся в выдаче документов, у Гугла и Yandex тождественны. Алгоритм Panda, к примеру, наказывает практически за то же самое, что и , это касается и других фильтров обоих ПС, разница лишь в деталях.

Надо сказать, что за последнее время выдача и Google, и Yandex существенно очистилась. Особенно радует то, что резко сократилось число ГС, место которых заняли настоящие СДЛ (сайты для людей), хотя до идеала еще ой как далеко.

Однако, есть и другая сторона медали. Очень хорошо, что некачественные вебресурсы теряют надежду попасть в ТОП, что справедливо. Но во многих случаях вполне приличные ресурсы все равно оказываются не у дел. Это связано с тем, что поисковики постоянно экспериментируют, меняя содержание алгоритмов ради глобальной цели получения релевантной выдачи.

Сие благое намерение вполне понятно, впрочем оно сообразуется со стремлением Яндекса и Гугла добиться конечной цели в виде повышения своих доходов, которые достигают на данный момент десятков миллиардов долларов в год. Было бы весьма странно, если такие гигантские интернет корпорации не использовали бы такую возможность.

Расчет здесь весьма прост: чем больше пользователей будет находить конкретную информацию по искомому запросу, тем больший их процент будет доверять данному поиску. А в этом случае увеличится число кликов, совершаемых по объявлениям контекстной рекламы (в о монетизации сайта посредством контекста общая информация), доходы от которой составляют львиную долю ПС.

В общем, меркантильные интересы поисковиков налицо, что, впрочем, вполне логично. Кстати, частыми обновлениями алгоритмов они преследуют в том числе еще одну цель: создать условия для перехода части владельцев вебресурсов из SEO в другую область получения трафика для продвижения своего бренда, услуг либо товара, а именно с помощью использования контекста Директ или AdWords. То бишь, они стремятся увеличить армию рекламодателей, которые будут приносить дополнительный доход.

Но простые вебмастера, имеющие информационные проекты, не всегда имеют возможность таким образом заработать на сайте (в об этом подробнее) в соответствии с затраченными ресурсами (время, расходы на содержание вебпроекта и т.д.). Поэтому очень важно в данной ситуации вовремя предугадывать, в какую сторону поворачивает СЕО. Хотя в глобальном смысле алгоритмы не могут изменяться на 180 градусов, все-таки пожелания пользователей остаются теми же, однако нюансы могут быть. Дьявол, как известно, кроется в деталях.

Я позволил себе это информационное отступление, чтобы лишний раз напомнить о необходимости постоянного мониторинга всех событий, касающихся современного SEO, частью которого являются правила, устанавливаемые ПС, в том числе их сдерживающие фильтры.

Это необходимо, чтобы вовремя реагировать на них и обеспечить максимальную эффективность в продвижении своего проекта. Ну а теперь немедленно переходим к конкретике, актуальной именно на данный момент, и посмотрим, за что может наказать тот же Панда (этот алгоритм впервые появился в 2011 году). Итак, вэбсайт непременно понесет наказание, если Panda вдруг обнаружит следующее:

  • большое количество некачественного контента: (копипаст), низкопробный рерайт и т.д.;
  • переоптимизация, заключающаяся в переспаме ключевиков в подавляющем большинстве текстов, причем не только в теле статьи, но и в заголовках, тайтлах, описании. Кроме того, под лапу Панды могут угодить материалы, в которых неестественно часто использованы теги акцентирования (например, тот же STRONG, обеспечивающий подчеркивание жирным);
  • объявления (в том числе ), не релевантные основному контенту на странице и в принципе огромное количество рекламных элементов;
  • невообразимое число дублированного контента. Как известно, современные CMS (Content Management System) очень удобны для создания вэбсайта или блога и имеют массу преимуществ, но некоторые из них генерируют дубли;
  • плохие поведенческие факторы (время, проведенное посетителями на вебсайте, показатель отказов, глубина просмотра);
  • массу не работающих линков, ведущих на страницу с ошибкой 404 ( о том, как создать корректную page not found, можете узнать все детали);

Как определить, под действием какого алгоритма находится вебсайт

Итак, если вы увидите, что число посетителей, приходящих с поиска Гугл, вдруг начинает неуклонно падать (и это не связано с присущими вашему вэбсайту обычными сезонными колебаниями), то весьма вероятно, что ресурс попал под один из фильтров. Отслеживать посещаемость с поисковых систем удобнее всего используя LiveInternet, который обладает богатым функционалом. Вот график изменения посещаемости одного из моих проектов:


Как видите, с сентября 2014 года кривая трафика начала неуклонно ползти вниз. Как раз в это время был последний апдейт Панды. Проследить обновления всех фильтров можно с помощью специализированных сервисов, одним из которых является Moz.com , где представлены все даты обновлений:


Так что в данном случае все ясно, именно фильтр Panda стал причиной падения посещаемости. Однако не всегда так легко соотнести даты обновления алгоритмов и начавшиеся проблемы с проседанием позиций вэбресурса и, соответственно, трафика. Поэтому существует зарубежный ресурс Barracuda, который предлагает специальный инструмент Panguin Tool :

С его помощью можно проследить, например, кто из сладкой парочки Гугла (Панда или Пингвин) стал причиной крушения вашего вэбсайта. Правда, для этого необходимо предоставить доступ к вашей статистике Google Analytics. Конечно, мировому гиганту поиска можно доверять в вопросе сохранения конфиденциальных данных, но чем черт не шутит. Ведь с основным аккаунтом Google (в о создании аккаунта в Гугле все подробности) обычно связана и учетная запись , что как-то напрягает.

В этой связи я вспомнил, что вполне возможно делегировать права на данные Аналитикс другому своему профилю, на котором нет никакой важной информации, благо Google не накладывает ограничения на количество учетных записей. Что и было сделано. Для этого я вошел во вкладку «Администратор» основного профиля Гугл Analytics и выбрал раздел «Управление пользователями»:


Там прописал адрес электронной почты, соответствующей другой моей учетной записи. Этим самым я предоставил право получения статистических данных через другой аккаунт:



Естественно, отреагировал на это положительно, кликнув по соответствующей кнопке. Дальше вылезло сообщение, предлагающее выбрать конкретный канал статистики:


В итоге была сформирован результирующий график, где точные даты обновлений алгоритмов накладываются на кривую изменения посещаемости моего блога.


Если проанализировать эту графическую информацию, то не заметен спад посещаемости после какого-либо апдейта. Единственный непродолжительный участок провала, где трафик упал до нуля, связан со снятием счетчика Аналитикс, сейчас уже не помню, по какой причине. Следовательно, сайт, похоже, пока избежал острых клюва и когтей Панды либо Пингвина.

Если по графику невозможно понять, под какой фильтр угодил вэбсайт (безусловно, бывает и такое), то при анализе трафика надо обратить внимание на следующее. Если вас клюнул Penguin, то проседание позиций, скорее всего, будет только для тех запросов, по которым вы продвигаете заспамленные "плохими ссылками" страницы. Если же покусал Panda, то падение начнется по всем ключевикам, следовательно, будет более стремительным.

Как обойти Google Panda или выйти из-под этого фильтра

В первой главе текущей публикации мной были упомянуты нарушения, при обнаружении которых Пандой может быть наказан вебресурс. Теперь рассмотрим, как сделать так, чтобы избежать его лап. Или, если вам не удалось этого избежать, каким образом восстановить позиции своего ресурса. Итак:

2. Ликвидировать переизбыток ключевых слов в Тайтле, заголовках H1-H3, Description (описании). Все заглавия и описания статей должны быть читабельны, понятны пользователям и цепляющими взгляд. Кроме этого, они обязаны полностью соответствовать содержанию публикаций. Ведь в противном случае читатели покинут вебсайт, поскольку не найдут обещанного.

3. Убрать лишнюю рекламу со страниц вепроекта, особенно те блоки, которые не являются релевантными его содержанию. Ведь такие рекламные объявления не принесут достойного дохода, а навредить могут серьезно. Также откажитесь от использования большого количества агрессивной рекламы типа попандеров, кликандеров, всплывающих окон и им подобных элементов.

4. Уничтожить весь имеющийся дублированный контент. Как это сделать, например, для блога WordPress с древовидными комментариями, я подробно писал в статье о страниц, которые, поверьте, могут стать причиной полного краха. Это действительно серьезно.

5. Улучшить поведенческие факторы вебсайта, качество которых связано с предыдущими шагами. Если реализуете первые три пункта, то большая часть работы будет выполнена.

Это основные пункты, следование которым поможет избежать Панды или, в худшем случае, освободиться от его объятий. Помните, что Panda это машинный алгоритм, который накладывается автоматически. Никакие обращения в хелп Гугла не помогут ускорить его снятие. Только после всех исправлений вы можете обратиться с подробным описанием всех предпринятых вами действий.

Поэтому лучше, конечно, изначально не давать ему повод испытать свои зубы на вас. Ну а если не посчастливиться, что вполне возможно при современном развитии событий, не примените воспользоваться моими рекомендациями, данными чуть выше. Хуже точно не будет.

В августе 2011 года введённый в действие для всех сегментов Всемирной паутины. Для англоязычных интернет-пользователей алгоритм был запущен немного ранее – в апреле того же года. Разработчиками нового алгоритма стали сотрудники поискового гиганта Амит Сингал и Мэтт Катс. Новый алгоритм радикально отличается от прежних разработок своей ориентированностью на человеческий фактор. Однако алгоритм учитывает при ранжировании и обычные критерии.

Уникальность контента

Неповторимость текстового наполнения учитывается Пандой в виде процентного соотношения копипаста как для конкретной страницы, так и для сайта в целом. Другими словами, теперь наличие заимствований ухудшает не только позиции конкретной страницы, но и всего «пиратского» ресурса. Плюс к тому, Панда легко отслеживает такой показатель, как шаблонность. Проще говоря, алгоритм устанавливает похожие по содержанию страницы, контент которых создаётся даже под разные ключевые запросы .

Релевантность рекламы

Реклама детского питания, размещённая на странице интернет-магазина, который продаёт тяжёлые грузовики, почти гарантированно вызовет «неудовольствие» поисковика . Такое внимание Google к качеству размещения рекламы призвано остудить пыл к зарабатыванию денег неразборчивыми оптимизаторами и веб-мастерами . Цель – поднятие сайтов, по-настоящему соответствующих заявленной тематике

Ссылочная масса

Здесь речь идёт как о размещённых, так и об обратных ссылках . Требование одно – нахождение сайтов в едином информационном пространстве. То есть, сайты, обменивающиеся ссылочной массой, должны быть максимально схожи по тематике. Количество обратных ссылок , конечно, учитывается Пандой, но является далеко не определяющим при ранжировании.

Человеческий фактор

В данном случае было бы правильнее оперировать SEO-терминологией, в которой человеческий фактор называется поведенческим . Поисковый алгоритм Панда как никакой другой до него придирчиво учитывает поведение пользователя на сайте. Очевидно, что для этого разработчикам необходимо было колоссальное усложнение алгоритма, поэтому, к слову сказать, алгоритм так долго запускался для всего интернета – создатели до бесконечности шлифовали поисковые инструменты.

Однако результаты, прямо скажем, впечатляют. На топовые позиции в Google на сегодня способны выйти по-настоящему полезные сайты. Благодаря использованию нового алгоритма поисковая система Google реально стала мощнейшим поисковиком на планете, что подтверждается не только ростом количества пользователей этого сервиса, но и уровнем капитализации Google, который перевалил за 200 миллиардов долларов. Пользователя ещё можно обмануть различными модными фишками и агрессивной рекламой, но инвестора дешёвыми трюками не взять. Он чувствует, что Google – дело прибыльное. И это не в последнюю очередь благодаря Панде.

Итак, поведенческие факторы. К ним относится, в принципе ограниченный набор критериев:

  • показатель отказов;
  • время, проведенное пользователем на сайте;
  • соотношение возвратов на сайт к общему количеству переходов.

Причём, Панда обращает внимание, так сказать, на деталировку каждого показателя. Проще говоря, учитывается, например, не только время, в течение которого пользователь оставался на сайте, но и то, какие действия он там производил, к примеру, совершал ли переходы по ссылкам, так или иначе относящимся к предмету, который содержался в ключевом запросе. Словом, алгоритм даёт возможность определить не только факт привлекательности и полезности данного ресурса для пользователя, но и степень этой привлекательности, средства, которые делают данный сайт таковым.

Оптимизатор, продвигающий сайты в Google, может сегодня даже при сравнительно небольшой ссылочной массе получить достаточно высокие позиции в выдаче . Для этого необходима грамотная перелинковка внутренних страниц сайта и в целом повышение удобства ресурса для каждого пользователя – и для гуру, и для того, кто лишь вчера услышал слово «интернет». На этом стоит новый поисковый алгоритм Google – Panda.