Помогут улучшить результаты пессимизация. Фильтры Яндекса и Google — за что можно получить пессимизацию или бан от поисковых систем. За что наказывают и почему

Пессимизация является весьма спорной темой в сфере продвижения сайтов. Об этом много говорят, но часто ли мы с ним сталкиваемся?

В этой статье мы постараемся разобраться с этими вопросами.

Что вообще такое пессимизация?

Пессимизация сайта – это набор средств, направленных на снижение рейтинга сайта конкурентов для поисковых машин. Такими средствами являются создание спам-ссылок на сайт, кража контента и даже взлом сайта. Мы рассмотрим различные средства, но не все.

Немного истории

С первого дня существования поисковые системы пытаются распознавать неестественные ссылки, оценивая рейтинг страницы. Изначально, ссылки, которые ПС принимали за спам, просто игнорируются: они не повышают рейтинг страницы, на которую ссылаются.

Специалисты SEO создавали покупали тысячи (а иногда и миллионы) ссылок. Те, что проходили проверку, приносили большую пользу, а те, что не проходили, никак не влияли на рейтинг сайта.

В апреле 2012 года Google запустил обновление для Penguin , а Яндекс в мае 2015 года выпустил Минусинск , в котором впервые были приняты строгие меры наказания против сайтов, манипулирующих ссылками. Конечно, это помогло Google добиться более справедливых результатов поиска. Но также это породило способ пессимизации с использованием спам-ссылок.

Комментировал ли Google эту проблему? Они признали, что атаки на сайты с целью пессимизации происходят, но не очень часто .

"Мы решаем эту проблему. Мы работаем над алгоритмами, которые позволят распознавать подобные проблемы и предотвращать их появление. Я редко вижу подобные ситуации на практике, а когда встречаюсь с ними, наша команда готова разобраться и убедиться, что это не проблема, искусственно мешающая работе сайта."

Теперь давайте разберем разные формы пессимизации и способы защиты от каждого из них.

Внешняя пессимизация

Как подразумевается в название, внешняя пессимизация наносит вред сайту без всякого внутреннего воздействия на него. Чаще всего это означает манипулирование обратными ссылками сайта или дублирование его контента на других сайтах.

Линкоферма – это группа взаимосвязанных сайтов. Изначально эти сайты содержали ссылки друг на друга, что повышало рейтинг страниц сайтов. Вы могли покупать ссылки с таких сайтов, чтобы повысить рейтинг своего сайта. Примером линкофермы является секта сайтов – , созданных только для построения ссылок, которыми, обычно, владеет один и тот же человек. создаются на просроченных доменах, что означает сайт имеет некоторое количество обратных ссылок и авторитетность к тому времени, как попадет в сеть.

Для большего эффекта, атакующий может создать , чтобы снизить рейтинг текста этого анкора. Такие анкоры могут быть вообще никак не связаны с вашей сферой деятельности или же они могут включать ваши ключевые слова, из-за чего создастся впечатление, что это вы управляете этими ссылками.

Реальным примером пессимизации сайта при помощи ссылок является WP Bacon , сайт с подкастами о WordPress. Сайт был атакован тысячами ссылок с анкорным текстом "porn movie ".

В итоге, на 10 дней он опустился более чем на 50 строчек по каждому ключевому слову. Однако, у этой истории счастливый конец: владелец сайта запустил отклонение ссылок с сайтов, участвовавших в атаке. Пока атака продолжалась, они продолжали отклонять ссылки с новых сайтов, с которых исходили ссылки. В конце концов, WP Bacon восстановил свой рейтинг по большинству ключевых слов.

Как обезопасить себя?

Полностью избежать атак не в ваших силах, но возможно достаточно рано заметить атаку. Чтобы это сделать, нужно регулярно проверять рост ссылочного профиля. Можно использовать MajesticSEO , SEO SpyGlass или Ahrefs , например, предоставляет вам графики как по количеству ссылок, так и по количеству сайтов, которые ссылаются на ваш сайт.

Необычный скачок в любом из графиков является весомой причиной, чтобы присмотреться к ссылкам, которые вы неожиданно приобрели.

Обычно графики выглядят вот так:

С другой стороны, если вы видите что-то такое, в то время, когда вы не создаете ссылки на свой сайт, возможно, стоит обратить внимание на ссылки, которые стали причиной скачка:

2. Клонирование контента.

Другой техников пессимизации является клонирование контента. Под этим понимается кража контента с вашего сайта и размещение его на других сайтах , иногда являющихся частью линкоферм, о которых говорилось выше.

Вы, наверное, знаете, что обновление Google Panda создавалось, частично, с целью обнаружения и борьбы с . Поэтому, когда обнаруживает контент, размноженный на несколько сайтов, он учитывает только один из таких сайтов. Хочется надеяться, что поисковые системы достаточно умны, чтобы распознавать оригинальный источник контента, и в большинстве случаев так и происходит… если только украденная копия не была проиндексирована раньше оригинала .

Поэтому боты часто автоматически копируют новый контент и сразу размещают его на других сайтах. Если поисковая система первой обнаружит "украденную" версию, он может понизить рейтинг вашего сайта и повысить рейтинг сайта-дублера.

Есть множество вариантов, которые позволят обезопасить вас от копипастеров. Одним из них является Copyscape . Вам нужно ввести адрес вашего сайта, чтобы узнать, есть ли дубликаты вашего контента в сети.

Можно использовать ещё один ловкий трюк, который не требует больших усилий, если вы уже обнаружили, как крадется ваш контент. Заключите отрывок в кавычки, чтобы искать точное соответствие.

Если вы обнаружили украденные копии своего контента, стоит связаться с владельцем сайта с просьбой удалить их (хотя вероятнее всего, они не ответят). Если это не сработает, нужно сообщить в Google о нарушении авторских прав (если вы ими реально обладаете).

Не забываем, что Яндекс дает отличную возможность "застолбить" за собой текст в Яндекс.Вебмастере при помощи "Оригинальных текстов", о которых написано . А также нужно помнить о том, что правильная и помогает избежать множества проблем.

Для оптимизации сайта в определенной местности многое значат отзывы. Приток негативных отзывов не так плох для вашего рейтинга, как для вашего бизнеса. Но отзывами довольно легко управлять, и, вероятно, это будет первая мера, которую предпримут ревнивые конкуренты. - одна из важнейших стратегий развития бизнеса в интернете.

Вам нужно следить за вашим списком в Google My Business и иных локальных каталогах (форумах и т.п.), просматривать новые отзывы, которые получает ваша компания. Ложные отзывы нарушают правила Google, согласно которым, никто не имеет права "размещать отзывы от имени других людей и представлять в ложном свете личность или место, о котором они отзываются".

Если вы уверены, что заметили ложный отзыв, вы можете либо пожаловаться на него в системе, в которой они оставлены, либо предпринять действия по .

4. Большая нагрузка на сервер.

Не найдя ничего лучше, отчаявшийся конкурент может попытаться нарушить работу вашего сайта. Это достигается путем запроса большого объема данных сайта, что приводит к большой нагрузке на сервер.

Это может замедлить или полностью прекратить работу всего сайта. Так как поисковый робот не может попасть на ваш сайт, пока он не работает, ваш рейтинг будет снижаться в случае многоразового повторения таких ситуаций.

Если вы заметили, что работа сайта замедлилась или, что ещё хуже, приостановилась, разумно будет связаться с провайдером или владельцем сайта, они смогут вам сообщить, что является причиной перегрузки (если сами знают).

Отслеживать нагрузку можно разными инструментами, но лучше иметь доступ именно к серверным инструментам отслеживания, а не просто к статистическим, .

Можно пользоваться как серверными версиями фаерволов, так и сервисами по типу VirusDie .

Вокруг кликов много споров, не все согласны, что они имеют значение для рейтинга. Но реальные эксперименты подтверждают, что необычно высокое количество кликов по конкретному результату поиска может повысить его рейтинг, а результаты с низкой кликабельностью понижаются в рейтинге.

Внимательно контролируйте кликабельность своих ключевых слов в Google Search Console , а также в Яндекс.Вебмастере . Там вы сможете увидеть общую кликабельность вашего сайта и кликабельность отдельных ключевых слов.

Внутренняя пессимизация

Внутреннюю пессимизацию осуществить труднее. Она включает в себя взлом вашего сайта и подмену данных, но все-таки это не редкость. Вот основные угрозы, которые влечет хакерская атака.

1. Подмена вашего контента

Вы думаете, что заметите, если кто-то подменит ваш контент, но на самом деле, это очень трудно обнаружить. Сюда входят создание спама (и ссылок) на сайт. Суть в том, что спам обычно умело спрятан (например, при помощи "display:none " в HTML), поэтому вы не увидите его, пока не заглянете в код.

Здесь одним из самых простых решений для большинства "мелких" и "средних" сайтов станет ВирусДай , например. На некоторых сайтах он используется, где это позволяет заказчик или приватность данных.

2. Деиндексация сайта

Внесение изменений в robots.txt является одной простой заменой, которая может ударить по оптимизации вашего сайта. Директивы Disallow достаточно, чтобы поисковая система полностью игнорировала важные страницы вашего сайта или даже весь сайт.

Возможным вариантом пессимизации сайта является изменение страниц так, чтобы они перенаправляли пользователей на сайт взломщика. Большинству маленьких компаний это не угрожает, но если ваш сайт авторитетен и популярен, кто-то может воспользоваться этим хитрым методом, чтобы повысить рейтинг своего сайта или просто перенаправлять пользователей на свой сайт, когда они переходят на ваш.

Для сайта подвергшегося атаке эти перенаправления не просто временные неудобства. Если поисковая система обнаружит это раньше вас, вы можете быть наказаны за "перенаправление на подозрительный сайт".

3. Взлом вашего сайта в целом

Даже если хакер не ставит перед собой целью пессимизацию, атака может повредить вашему рейтингу. Поисковая система хочет защитить своих пользователей и с неодобрением относится к сайтам, содержащим хакерские программы (или сайтам, ссылающимся на них). Поэтому если они заподозрят, что сайт был взломан, они могут понизить рейтинг вашего сайта или, по крайней мере, добавить надпись "этот сайт может быть взломан" рядом с вашим сайтом в выдаче.

Не говоря о пессимизации, одним из вашим главным приоритетов должна быть защита атак хакеров.

Слово вам

Мы рассказали о 9 способах пессимизации сайта и методах защиты от них. Но это далеко не полный список: против вас может быть использовано все, что может негативно повлиять на репутацию сайта.
Главной мыслью является то, что необходимо следить за трафиком, рейтингом вашего сайта и ссылками на него.
Если у вас есть какие-то советы или дополнения к списка, дайте мне знать в комментариях!

На самом деле оптимизация сайта под поисковые запросы — это, по большому счету, ходьба по лезвию бритвы. Причем все те действия, что совсем недавно не вызывали у никаких нареканий, могут с течением времени стать причиной наложения фильтра или даже попадания в бан. Во второй половине статьи я опишу свою печальную историю об общении с техподдержкой Яндекса на предмет попадания сайт под фильтр за переоптимизацию, ну, а пока немного теории.

Пессимизация и фильтры при ранжировании (продвижении)

Все описанное выше было бы очень здорово, если бы у поисковиков не было такой вещи как пессимизация и фильтры, которые способны существенно понижать в выдаче даже высоко релевантные запросу сайты. Для чего нужны поиску эти инструменты?

Ну, очевидно, что для отсева различных вариантов накрутки и переспама описанных чуть выше факторов ранжирования. Те же самые тексты можно так забить ключевыми словами для якобы повышения соответствия поисковому запросу, что на документ будет наложен соответствующий фильтр, позволяющий алгоритму исключить такой документ из индекса или же серьезно понизить его релевантность. Тоже самое относится и к переспаму анкор листов и накрутке поведенческих факторов.

Пессимизация и фильтры (или бан) — это инструменты поисковых машин для борьбы с накрутками и спамом. Они последнее время очень сильно нацелены на то, чтобы бороться с попытками манипуляций с факторами продвижения и попытками улучшения значения формулы релевантности для своего ресурса. Поисковики стараются не допускать и бороться с искусственным воздействием на формулу и все используемые ими способы пессимизации можно разделить на две категории:

    Фильтры, накладываемые еще до начала построения формулы ранжирования для вашего сайта. В этом случае поисковики снижают влияние или полностью обнуляют для вас некоторые факторы, тем самым существенно снижая ваши шансы попадания в Топ выдачи. Например, при активных попытках манипуляции с входящими ссылками, могут обнулить значение ссылочных динамических факторов (ссылочное или анкорное влияние) для вашего ресурса (не учитывать ссылки вообще).

    После наложения такого предварительного фильтра, тем не менее, к вашему ресурсу будут применяться стандартные формулы ранжирования, но за счет нулевого (или пониженного) значения одного из факторов, место вашего сайта в поисковой выдаче будет не соответствовать реальной релевантности документа. Пессимизация во все красе.

  1. Есть фильтры, которые накладываются уже после того, как для сайта будет рассчитана формула. Но вследствие наложения фильтров рассчитанная релевантность будет понижена на определенную величину, т.е. от полученного значения для определенного документа вычитается некий штраф. К данному типу фильтров можно отнести так называемый «портяночный фильтр» Яндекса, который за переспам ключевых слов в контенте опускал ресурс довольно сильно в результатах поиска.

Давайте рассмотрим несколько примеров, показывающих, за что могут быть наложены фильтры (пессимизация):

    Аффилированность сайтов — иногда оптимизаторы (или владельцы бизнеса) идут на то, чтобы захватить как можно больше мест в Топе поисковой выдачи и тем самым перехватить как можно больше целевых посетителей (потенциальных клиентов). Сделать это не так то просто, т.к. в результатах поиска обычно отображается только один документ с каждого ресурса (наиболее релевантный запросу). Но выход есть.

    Создается еще один или несколько ресурсов помимо основного и их тоже начинают усилено продвигать по тем же поисковым запросам. В результате, в Топе результатов поиска может присутствовать несколько сайтов одного и того же владельца (фирмы). Поисковикам такая ситуация не нравится и при обнаружении такой попытки повлиять на ранжирование, они накладывают фильтр за аффилированность, в результате действия которого в выдаче остается только один ресурс, а остальные начинают считаться его зеркалом.

    Что примечательно, этот фильтр работает не всегда корректно и именно благодаря ему появился способ борьбы с конкурентами, который позволяет убедить поиск в том, что ваш сайт аффилирован с ресурсом вашего конкурента, но поиск предпочтет, в силу ряда причин, оставить в выдаче именно ваш ресурс, выкинув конкурента не только из Топа, но и вообще из результатов поиска по данному запросу.

    Ну, это так, для общего сведения, а сейчас, наверное, пора переходить к перечислению запретных способов манипуляции релевантностью веб документов, в частности, Яндекса. Дело в том, что поисковые системы могут не только повышать или понижать уровень соответствия страниц наших сайтов запросам поиска, но и могут применять санкции и вносить их в черные списки, в случае, если они посчитают, что мы их пытаемся обмануть (описанные выше фильтры и баны).

    В лицензии поиска такие моменты очень подробно описаны, чтобы к ним не было по этому поводу никаких претензий. Например, в лицензии на использование поисковой системы Яндекса довольно подробно описано про ранжирование:

    В первом абзаце лицензии говорится, что оно осуществляется, как и следовало ожидать, на основе определения релевантности страницы поисковому запросу, но делается акцент на то, что она определяется не предвзято с помощью программы, причем, настройки этой программы могут постоянно меняться и, следовательно, ваш ресурс может совершенно спокойно скакать в выдаче с одного места на другое по мере изменения алгоритмов и ничего вы с этим поделать не сможете.

    В третьем абзаце пункта 3.4 Яндекс как раз говорит о том, что для него и любой другой поисковой системы главное это интересы пользователя , а не авторов веб проектов (по которым осуществляется поиск), чтобы сразу же в корне пресечь все попытки вебмастеров апеллировать к Яндексу с вопросами о не справедливом и не правильном расчете релевантности по тому или иному запросу (мой ресурс такой хороший, а вы его в конец очереди...).

    В первом предложении пункта 3.5 как раз описано то, чем занимаются все SEO оптимизаторы (как начинающие, так и продвинутые) — обманом и спамом (искусственное завышение релевантности страниц для улучшения позиций). При этом Яндекс грозит нам фильтрами (ухудшением позиций — пессимизация сайта), либо вообще баном (полным исключением ресурса из индекса и, соответственно, поиска).

    Во втором абзаце этого пункта лицензии написано, что о факте понижения в ранжировании (наложении фильтра или забанивания) вам никто специально не сообщит и возможностей выхода из под фильтра вам никто не гарантирует.

    Хотя, на самом деле, при корректном общение с «Платоном Щукиным» (так обычно подписываются операторы службы поддержки Яндекса) можно будет выяснить и причину понижения в выдаче, и решить проблему с выходом из под фильтра (полностью банят ресурс сейчас крайне редко). Правда, нервов и времени уйдет на это предостаточно.

    Далее Яндекс говорит, что не обязан отчитываться за что именно вас забанили или понизили в выдаче, тем более, что со временем могут появляться все новые и новые методы спама, за которые можно будет угодить под фильтр. Но зато он приводит ссылку на весьма полезный документ — Чем отличается качественный сайт от некачественного с точки зрения Яндекса , который следует изучить со всем тщанием. Давайте вкратце пробежимся по его ключевым моментам, чтобы понимать чего не следует ни в коем случае делать в погоне за повышением релевантности.

    За что пессимизирует сайты Яндекс

    В разделе «Основные принципы» говорится о том, какие ресурсы он хотел бы видеть в своем индексе. Тут нас «агитируют за советскую власть» — советуют использовать только оригинальный контент, продумывать , не проставлять ссылки на страницах своего проекта за деньги, а так же думать прежде всего о посетителях (т.е. создавать нужно именно СДЛ) и не пытаться продвигаться по тем поисковым запросам, по которым на страницах нашего ресурса не будет исчерпывающей информации. В общем-то, справедливо, но...

    Наверное, это все интересно, но гораздо интереснее то, что написано в разделе «Примеры к принципам» после слов «Мы стараемся не индексировать или не ранжировать высоко».

    В первом пункте Яндекс предупреждает, что за не уникальный (скопированный) контент ресурс может быть пессимизирован.

    Наверное, небольшой процент не уникального контента не приведет к печальным последствиям, но при переходе определенной грани можно попасть под фильтр и сильно потерять в позициях в выдаче, несмотря на то, что релевантность страниц вашего сайта будет достаточно высокой.

    Следующие два пункта кидают камень в огород так называемых дорвеев или доров.

    Несколько лет назад было довольно популярным занятием создавать дорвеи, тексты страниц которых генерировались автоматически с простановкой нужного количества ключевых слов. Таким образом эти дорвеи попадали в Топ выдачи по нужным ключевым запросам, но пользователи, переходящие на доры из поисковиков, не видели этот автоматически генерированный бредо-текст, т.к. их автоматически перебрасывало на страницы совершенно другого ресурса, продвигаемого таким образом.

    Этот способ продвижения относится к так называемому черному SEO. Сейчас двигаться с помощью дорвеев очень сильно затруднено в связи с очень серьезным отношением к этой проблеме поисковых систем. Доры попросту долго не живут и умирают, так и не успев попасть в Топ поисковой выдачи. Однако, их все равно продолжают клепать, дорвеестроители стараются всегда найти лазейку во все еще довольно крупноячеистой сети поисковиков, в которой они отлавливают кандидатов на отправку в бан или под фильтр.

    В связи с этим становится ясно, что продвижение с помощью прогона по каталогам, которое было популярно несколько лет назад, сейчас уже не работает в силу нахождения всех этих каталогов под фильтрами Яндекса (они искусственно занижены в ранжировании, несмотря на реальную релевантность их страниц). В общем, не создавайте сами ГС каталоги и не прогоняйте по ним свои ресурсы, ибо это абсолютно бесполезно (если не вредно).

    Понятно, что если вы чего-то прячете от посетителей (например, портянку текста, напичканную ключевыми словами), то несмотря на высокую релевантность этой страницы продвигаемому запросу, Яндекс все равно не позволит ей высоко подняться в выдаче.

    Чуть ниже вы сможете узнать, что даже заключая большой текст с ключами в окошко со скролингом, вы все равно потеряете в позициях за счет попадания под фильтр и последующую пессимизацию (пару лет назад это стало громом среди ясного неба для многих профессиональных сеошников).

    Затем он предупреждает нас о недопустимости использования еще одного приема продвижения из области черного SEO — клоакинг .

    При использовании клоакинга сайт программируется таким образом, чтобы определять, кто именно осуществляет запрос данной веб страницы — поисковый робот или же браузер пользователя (сделать это не сложно на основе анализа запроса к веб серверу). Соответственно, боту отдается веб страница релевантная нужному запросу, а реальному пользователю показывается совершенно другое содержимое.

    В очередном примере того, чего не нужно делать, чтобы не попасть под фильтр, Яндекс предупреждает о недопустимости создания ресурсов, которые предназначены лишь для того, чтобы «лить трафик» на вебсайт какой-либо партнерской программы.

    Очень часто этим занимаются в так называемой «фарме». Несмотря на высокую релевантность страниц таких ресурсов они будут серьезно пессимизированы. Хотя, многие на этом живут, с успехом обходят все препоны, которые расставляют поисковики на их пути, и их сайты не попадают под фильтр.

    Равно, кстати, как и ресурсы, использующие агрессивные способы рекламы с всплывающими окнами (popup, popunder, clickunder). Лично я только за расстрел таких ресурсов из оружия крупного калибра, ибо понижение в выдаче для них уж слишком мягкое наказание — бан и никак не меньше. Вот такой вот я злой, ибо до того как стать вебмастером, я был обычным пользователем и потратил много нервов (сдерживался, чтобы не врезать кулаком по монитору) на подобные сверх раздражающие вещи.

    Довольно часто раньше встречался на многих сайтах такой вид спама — «нас находили по таким-то поисковым запросам» и далее следовал список этих самых запросов. Веб сервер собирал эту информацию и выкладывал на данной веб странице запросы в чистом виде, тем самым существенно искусственно повышая релевантность этой страницы.

    Вот я раньше попадая на такую страницу очень долго гадал, а чего это меня поисковик на нее привел, когда там нет ответа на мой вопрос (даже намека нет), а только перечисленные фразы, включая ту, которую задавал и я в поисковой строке. Естественно, что такая изгаженная выдача не нравится никому (поисковики теряют на этом лояльных посетителей) и начинают понижать в ранжировании такие ресурсы, загоняя их под фильтры или даже в бан (полное удаление из индекса).

    Плагины и расширения, реализующие такой вид спама для увеличения релевантности страницы, можно встретить и сейчас, но упаси вас воспользоваться ими — ни в коем разе, ибо сразу пессимизируют и так понизят в выдаче, что трафика с поисковиков вообще не будет .

    Но что обидно, иногда под этот фильтр можно попасть за использование совершенно, казалось бы, безобидного «облака тегов», если поисковик сочтет его за такой вид спама и стремление искусственно повысить соответствие страницы запросам поиска.

    Есть такой хитрый способ оккупации всего топа поисковой выдачи за счет создания целой когорты сайтов для одной и той же фирмы, которые делаются на разных доменных именах и наполняются разным контентом, с высокой релевантностью нужным запросам. В результате продвижения их выталкивает в топ выдачи Яндекса и Гугла и, в случае большой удачи, весь Топ 10 может быть заполнен ресурсами одной и той же фирмы.

    Для данной фирмы это будет неоспоримая удача, но поисковикам такая ситуация кажется неправильной и они всеми силами и средствами пытаются выявить и понизить в выдаче такие дубликаты (аффилиаты). Обычно аффилиаты палятся (попадают под аффилиат-фильтр) на одинаковых контактных телефонах и других признаках принадлежности одному владельцу, но гораздо чаще по «стуку» конкурентов .

    Понятно, что поисковикам не интересны спамные форумы и доски объявлений, где любой посетитель может написать все что угодно и поставить любую нужную ему ссылку, и они будут нещадно понижать в ранжировании и фильтровать вплоть до полного исключения из индекса (бана).

    Яндексу, равно как и другим поисковикам, очень не нравятся ресурсы, продающие ссылки для накачки релевантности других ресурсов. Продажные ссылки портят стройный алгоритм ранжирования, основанный на ссылочном факторе.

    Однако, основному риску попадания под фильтр или в бан подвергаются ресурсы, устанавливающие скрипты бирж ссылок типа Sape, в то же время, как продавать ссылки через «биржи вечных ссылок», подобные описанным ниже, можно практически безболезненно и ничем не рискуя.

    1. МираЛинкс описанный
    2. ГоГетЛинкс — читайте о нюансах работы с ним
    3. ГетГудЛинкс — описание возможности по покупке ссылок со страниц имеющих PR (большой статический вес)
    4. РотаПост полный обзор возможностей биржи

    Довольно часто, особенно несколько лет назад, для продвижения проектов и получения внешних ссылок использовали так называемые «сателлиты», т.е. группа сайтов, которая создается только лишь для продвижения одного или нескольких ресурсов, путем проставления на него ссылок. Такие вещи сильно не нравятся поисковикам, т.к. создается искусственная накрутка релевантности и сетки сателлитов довольно эффективно выявляют и отправляются под фильтр или в бан.

    Практически на любом ресурсе будет присутствовать внутренний поиск. Он может быть реализован средствами используемого движка, а может быть прикручен с помощью скрипта , либо от . Но в любом случае страницы с результатами поиска по материалам вашего ресурса не должны попадать в индекс поисковых систем во избежании наложения фильтра.

    Как это сделать? Ну, у нас всегда есть под рукой очень сильный инструмент по управлению .

    Фильтр подкрался незаметно

    Решил отписать по поводу санкций, под гнетом которых сейчас находится данный блог. Если кто-то посматривал на расположенный внизу правого сайдбара счетчик посещаемости, то, возможно, заметил, что его показатели существенно уменьшились. Началось падение, в общем то, еще давно, в конце апреля 2012 года, и совпало оно с активацией Гугловской сладкой парочки — Панды и Пингвина.

    Но тогда все не было так серьезно — фактически просто прекратился рост посещаемости. Количество посетителей с Яндекса планомерно росло и компенсировало проседание в Google. После каждого апдейта Панды (думаю, что угодил я именно под нее) ситуация все более и более усугублялась. Последний раз, в прошлом году, падение в Гугле совпало с практически одновременным ростом в Яндексе аккурат перед новым годом.

    Весной Yandex меня радовал и количество ежедневных посетителей, приходящих с этой поисковой системы, неуклонно приближалось к довольно-таки приятной цифре — 10 000. Но вот наступило 3 апреля 2013 года и после очередного я почувствовал, что ситуация поменялась и не в лучшую для меня сторону.

    В первый день сайт потерял лишь около полутора тысяч посетителей, но то было лишь начало лавины, которая сойдя вниз оставила мне от щедрот своих (примерно, недели через полторы или две) лишь пятую часть ежедневной аудитории черпаемой из бесконечных закромов зеркала рунета (2 000 переходов).

    Естественно, что будучи читателем некоторых , я решил спросить о причине такого обвала непосредственно у первоисточника (техподдержки Яндекса или, как они обычно подписываются — Платона Щукина). Задать подобный вопрос можно через всем известный и популярный (в левой колонке снизу находится ссылка «Задать вопрос о сайте службе поддержки»).

    Сформулировал я свой вопрос так:

    Здравствуйте!

    Заметил, что начиная со вчерашнего дня (3 апреля) на https://сайт дня резко уменьшилось количество посетителей приходящих с Яндекса. Это совпало с очередным апдейтом. Сегодня ситуация еще более ухудшилась.

    Не понимаю, что именно могло это вызвать. Вирусов, вроде бы, на сайте нет, новые материалы добавляются регулярно, ресурс был доступен. Возможно, что мне назначили пенальти за какое-то нарушение.

    Если это возможно, то поясните, пожалуйста, в какую сторону смотреть и что именно исправлять или изменять.

    На тот момент у меня еще теплилась надежда, что через один или два апдейта все вернется взад, но после ответа техподдержки все иллюзии рассеялись.

    Здравствуйте, Дмитрий!

    Проверив Ваш сайт, наши алгоритмы нашли страницы, содержание которых может негативно повлиять на ранжирование. На нем были проиндексированы страницы, содержащие списки поисковых запросов , то есть фрагменты текста, предназначенные не для пользователей, а исключительно для продвижения в поисковых системах. В силу того, что по многим запросам Яндекс не может корректно отранжировать такие страницы, Ваш сайт был понижен в результатах поиска.

    Если эти элементы страниц не являются жизненно важными для существования ресурса, уберите их, пожалуйста, или измените таким образом, чтобы они были удобны для восприятия пользователями. Так как сайт оценивается комплексно, то рекомендуем проверить как сами тексты, так и теги (в том числе тег title), и ссылки — для алгоритмов все это имеет значение.

    Вы можете сообщить нам об изменениях на сайте, и мы проверим, все ли с ним сейчас в порядке.


    С уважением, Платон Щукин
    Служба поддержки Яндекса

    Я быстренько пробежался по самым авторитетным сайтам по тематике продвижения (Елены Камской , SeoProfy , Деваки и некоторых других гуру) и понял, что дело может быть не только в высокой тошнотности текстов (перебор ключевых слов, большом кол-ве тегов strong и др), но и возможны варианты с переоптимизированностью заголовков страниц (в Title) и даже слишком насыщенные ключами и просто повторяющимися словами имеющихся на сайте изображений.

    Память человеческая довольно короткая и весьма избирательная, поэтому мне показалось, что уж тексты то у меня не могут быть переоптимизированы, ибо последнее время за этим тщательно слежу. Другое дело эти самые атрибуты Alt и Title .

    Еще в момент начала ведения этого блога я встал на определенные рельсы — описывать в них то, что изображено на картинке так, чтобы она имела шанс высоко и привлекать на статью дополнительный трафик. То, что эта идея была утопической, особенно по отношению к скриншотам на тему далекой от фривольной, я особо и не задумывался.

    Мне всегда говорили — не лечи то, что не болело и не чини то, что не ломалось. Именно так я и поступал все эти годы — прописывал с завидным постоянством в атрибутах Alt и Title описание картинок, потому что посещаемость росла, а поменяв что-то можно было навредить этому благолепию.

    Но, если в статье четыре десятка изображений, а сама она повествует, допустим, о Яндекс диске, то для каждой картинки нужно указать в атрибутах то, что она, как раз, имеет отношение к этому самому пресловутому Диску.

    Получается список из восьми десятков фраз содержащих в той или иной форме «Яндекс Диск». Если поиск учитывает содержимое атрибутов Alt или Title в ранжировании именно текста статьи, то тут получается явный перебор, как раз подпадающий под определение переоптимизации данное поддержкой Яндекса в ответе мне — списки поисковых запросов.

    Поняв это и осознав, что никакого трафика по картинкам я сейчас не получаю и никогда не получал раньше (да и не буду получать в будущем), было принято решение избавиться от этих самых атрибутов вообще . Т.е. все их удалить во всех статьях. На это ушло двое суток и было написано очередное обращение к поддержке Яндекса.

    Крушение надежд и планы на будущее

    Через несколько дней я получил ответ, который вселил в меня одновременно и радость и настороженность, ибо не было дано гарантий выхода из-под фильтра, а только высказано предположение и рекомендация подождать месяц.

    Здравствуйте, Дмитрий!

    Причина , по которой Ваш сайт был понижен в результатах поиска, была Вами устранена . Окончательно вопрос о снятии санкций будет решен примерно через месяц, после повторной проверки.

    В этот период Вы можете вносить любые запланированные изменения. Главное, чтобы на момент проверки был контент, доступный для индексирования. Что касается работ по оптимизации сайта, то с некоторыми нашими рекомендациями на этот счет Вы можете ознакомиться здесь: http://help.yandex.ru/webmaster/?id=1108938


    С уважением, Платон Щукин
    Служба поддержки Яндекса

    Ну, на самом деле, вы, наверное, уже догадались, что из под фильтра Яндекса мне выйти так и не удалось . Конечно же, я думал, что майские праздники и связанные с этим редкие апдейты увеличили срок ожидания, но, тем не менее, я все же решил уточнить этот вопрос у Платона Щукина и получил повергший меня в глубокую кручину ответ:

    Здравствуйте, Дмитрий!

    К сожалению, после повторной проверки алгоритмы приняли решение не снимать санкции . Поэтому, пожалуйста, внимательно ознакомьтесь с нашими рекомендациями:
    http://company.yandex.ru/rules/optimization/index.xml
    http://webmaster.ya.ru/replies.xml?item_no=11464

    Развивайте свой сайт в соответствии с этими рекомендациями и со временем его позиции будут улучшаться.


    С уважением, Платон Щукин
    Служба поддержки Яндекса

    Самое печальное, что к этому моменту от сайт полностью отвернулся и Google . Толи я еще глубже попал под Панду, то ли он смотрит на Яндекс, и раз тот не считает нужным хорошо ранжировать этот проект, то и он не будет. В общем, кругом одна сплошная печаль и тоска.

    Я еще раз написал в техподдержку Яндекса с просьбой снять фильтр вручную, но, естественно, у них нет такой прерогативы и возможности. Но, что меня приятно удивило, ответили на мое, в запале написанное письмо, очень вежливо и даже указали путь, который может привести к выходу из под фильтра:

    Здравствуйте, Дмитрий!

    Извините за задержку с ответом.
    К сожалению, конкретных способов устранения проблемы мы не указываем. Наилучший результат даст коррекция текстов, снижающая избыток ключевых слов .


    С уважением, Платон Щукин
    Служба поддержки Яндекса

    Процесс коррекции чудовищно долгий и сложный. Даже если сидеть не отрываясь, то максимум можно почистить три — пять статей в сутки, а их — несколько сотен. В общем, в ближайшие полгода мне есть чем себя занять, но, как ни странно, сам факт очеловечивания текстов приносит удовлетворение, что позволяет заниматься этой рутиной даже с интересом, во всяком случае пока.

    Да, забыл упомянуть, в поддержку Гугла я тоже писал с просьбой пересмотреть мой сайт (делается это в недрах Гугл Вебмастера — подать запрос на повторную проверку), на что мне отписались, что ручных фильтров на мой сайт наложено не было и ничем помочь не могут.

    Удачи вам! До скорых встреч на страницах блога сайт

    Комментарии и отзывы

    " id="comment-305254">

    Вова

    " id="comment-305274">

    Эльдар

    " id="comment-305295">

    alexzsoft

    " id="comment-305301">

    Юрий

    " id="comment-305308">

    Shao

    " id="comment-305359">

    Остап

    " id="comment-305410">

    Виктор

    " id="comment-305431">

    Юрий

    " id="comment-305432">

    Владимир

    " id="comment-305450">

    Алекс

    " id="comment-305457">

    Алексей

    " id="comment-305459">

    Людмила

    " id="comment-305461">

    Art_gud

    " id="comment-305462">

    Генрих

    " id="comment-305468">

    Виталий

    " id="comment-305471">

    Александр

    " id="comment-305494">

    Надежда Хачатурова

    " id="comment-305495">

    Наталья

    " id="comment-305496">

    Анна

    " id="comment-305500">

    Андрей

    " id="comment-305509">

    Максим

    " id="comment-305524">

    Web11

    " id="comment-305528">

    Сергей

    " id="comment-305532">

    Светлана

    " id="comment-305545">

    Александр Майер

    " id="comment-305553">

    Overmort

    " id="comment-305554">

    Владимир

    " id="comment-305570">

    Алексей Анисимов

    " id="comment-305598">

    Ирина Юр

    " id="comment-305618">

    Валерий

    " id="comment-305626">

    Алексей

    " id="comment-305658">

    Кирилл

    " id="comment-305670">

    pocherk

    " id="comment-305673">

    Porter

    " id="comment-305674">

    Softmaker.kz

    " id="comment-305707">

    Алексей

    " id="comment-305714">

    Alex22

    " id="comment-305715">

    Covax

    " id="comment-305720">

    Александр Майер

    " id="comment-305756">

    Олекс

    " id="comment-305758">

    Саша

    " id="comment-305766">

    Денис

    " id="comment-305816">

    Александр

    " id="comment-305880">

    Рустам

    " id="comment-305911">

    Людмила

    " id="comment-305959">

    Дмитрий

    " id="comment-305962">

    Андрей

    " id="comment-306030">

    Людмила Алешина

    " id="comment-306067">

    Кот

    " id="comment-306081">

    Александр Майер

Все описанное выше было бы очень здорово, если бы у поисковиков не было такой вещи как пессимизация и фильтры, которые способны существенно понижать в выдаче даже высоко релевантные запросу сайты. Для чего нужны поисковикам эти инструменты?

Ну, очевидно, что для отсева различных вариантов накрутки и переспама описанных чуть выше факторов ранжирования. Те же самые тексты можно так забить ключевыми словами для якобы повышения соответствия поисковому запросу, что на документ будет наложен соответствующий фильтр, позволяющий алгоритму поисковика исключить такой документ из индекса или же серьезно понизить его релевантность. Тоже самое относится и к переспаму анкор листов и накрутке поведенческих факторов.

Пессимизация и фильтры (или бан) -- это инструменты поисковых машин для борьбы с накрутками и спамом. Поисковые системы последнее время очень сильно нацелены на то, чтобы бороться с попытками манипуляций с факторами ранжирования и попытками улучшения значения формулы релевантности. Поисковики стараются не допускать и бороться с искусственным воздействием на формулу и все используемые ими способы пессимизации можно разделить на две категории:

1. Фильтры, накладываемые еще до начала построения формулы ранжирования для вашего сайта. В этом случае поисковики снижают влияние или полностью обнуляют для вас некоторые факторы, тем самым существенно снижая ваши шансы попадания в Топ выдачи. Например, при активных попытках манипуляции с входящими ссылками на ваш сайт -- могут обнулить значение ссылочных динамических факторов (ссылочное) для вашего ресурса (не учитывать ссылки вообще).

После наложения такого предварительного фильтра, тем не менее, к вашему сайту будут применяться стандартные формулы ранжирования, но за счет нулевого (или пониженного) значения одного из факторов, место вашего ресурса в поисковой выдаче будет не соответствовать реальной релевантности документа. Пессимизация во все красе.

2. Есть фильтры, которые накладываются уже после того, как для сайта будет рассчитана формула. Но вследствие наложения фильтров рассчитанная релевантность будет понижена на определенную величину, т.е. от полученного значения для определенного документа вычитается некий штраф. К данному типу фильтров можно отнести так называемый «портяночный фильтр» Яндекса, который за переспам ключевых слов в контенте опускал сайт довольно сильно в результатах поиска.

Давайте рассмотрим несколько примеров, показывающих, за что могут быть наложены фильтры (пессимизация):

1. Аффилированность сайтов -- иногда оптимизаторы (или владельцы бизнеса) идут на то, чтобы захватить как можно больше мест в Топе поисковой выдачи и тем самым перехватить как можно больше целевых посетителей (потенциальных клиентов). Сделать это не так то просто, т.к. в результатах поиска обычно отображается только один документ с каждого сайта (наиболее релевантный запросу). Но выход есть.

Создается еще один или несколько сайтов помимо основного и их тоже начинают усилено продвигать по тем же поисковым запросам. В результате, в Топе результатов поиска может присутствовать несколько сайтов одного и того же владельца (фирмы). Поисковикам такая ситуация не нравится и при обнаружения такой попытки повлиять на ранжирование, поисковые системы накладывают фильтр за аффилированность, в результате действия которого в выдаче остается только один сайт, а остальные начинают считаться его зеркалом.

Что примечательно, этот фильтр работает не всегда корректно и именно благодаря ему появился способ борьбы с конкурентами, который позволяет убедить поиск в том, что ваш сайт аффилирован с сайтом вашего конкурента, но поиск предпочтет, в силу ряда причин, оставить в выдаче именно ваш ресурс, выкинув конкурента не только из Топа, но и вообще из результатов поиска по данному запросу. Как говорится, чистая победа.

Фильтр на одинаковые сниппеты -- если у нескольких сайтов в результатах поиска по определенному запросу будут до некоторой степени одинаковые сниппеты, то будет показываться только один из них. Причем, не факт, что останется более релевантный документ. Наверное, данный фильтр наиболее актуален для интернет магазинов, которые зачастую имеют одинаковые описания товаров (а они могут использоваться в качестве сниппета) взятые с сайтов производителей.

  • 2. Фильтры за качество контента
  • 1. Портяночный фильтр -- переоптимизированные тексты, где чрезмерно высоко количество употреблений ключевых слов. Этот фильтр зависит от конкретных запросов (в основном применяется к коммерческим) и на его наложение или неналожение может повлиять авторитетность ресурса.

Например, в случае коммерческого запроса и пятидесяти вхождений ключа в тексте документа вы гарантированно попадаете под портяночный фильтр и релевантность вашего документа уменьшится на величину штрафа (кстати, очень большого, способного отбросить сайт за первую сотню в выдаче).

Для того, чтобы исключить наложение портяночного фильтра достаточно будет:

  • § избегать многократного употребления ключевых слов (не более пяти десятков в документе, а лучше половину от этой цифры)
  • § не допускать концентрации ключей в конце текста (фильтр был направлен именно на Seo тексты, где все ключи собирались в самом конце текста, до которого никто из посетителей не доходил)
  • § не допускать высокой концентрации ключевых слов в отдельных фрагментах текста, т.е. распределять ключи как можно равномернее
  • 2. Фильтр за переоптимизацию -- направлен против манипулирования текстовыми факторами ранжирования и попытки оказать влияние на релевантность документа. Отличается от портяночного фильтра тем, что штраф накладывается не за количество употреблений ключевых слов в тексте.

Данный фильтр применяется практически исключительно для коммерческой выдачи и не привязывается к конкретному поисковому запросу, т.о. если этот фильтр накладывается на документ, то веб страница понижается по всем запросам, по которым она продвигалась. Причем, штраф (пессимизация) при наложении этого фильтра будет меньше, чем при наложении портяночного фильтра (пару десятков позиций, т.е. просто выкидывается сайт из топа)

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Подписаться

Пессимизация сайта - это понижение поисковиком сайта в выдаче из-за применения запрещенных методов продвижения.


Больше видео на нашем канале - изучайте интернет-маркетинг с SEMANTICA

Термин появился в 2003 году в рамках определения принципов работы ПС Рамблер и закрепился в понятийном аппарате seo-специалистов несмотря на то, что Яндекс, Google и другие поисковики официально его не используют.

Как понять, что произошла пессимизация сайта

Необходимо с помощью специальных сервисов контролировать позиции по продвигаемым запросам. Панели вебмастера Яндекса и Google помогают следить за состоянием вебсайта и сигнализируют о неполадках.

Понижение позиций может произойти по нескольким причинам и не все из них фатальные:

  • Если по высокочастотным запросам вы слетели, но средне- и низкочастотные на месте, это, скорее, активность конкурентов.
  • Если сайт разово выпал и быстро вернулся, причин волноваться тоже нет.
  • Если сайт упал по продвинутым запросам за сотню позиций (иногда просто на несколько десятков пунктов), не возвращается, стабильно не реагирует на попытки поднять рейтинг, вот здесь пора принимать меры. Есть все основания полагать, что это пессимизация сайта, причем часто позиции в одной ПС, например, в Гугле, сохраняются, а слетели только в Яндексе.

Об этом же свидетельствует обнуление тематического индекса цитирования (тИЦ).

Типы пессимизации

В зависимости от того, кто найдет нарушения и наложит санкции, различают ручную и автоматическую пессимизацию.

Модераторы поисковых систем вручную обнаруживают и обрабатывают нарушения. Чтобы вывести сайт из-под такого фильтра, нужно устранить причины и направить письменное обращение, что проблемы устранены.

Однако наиболее часто встречающиеся случаи - это автоматическая пессимизация. Происходит она на основании анализа информации, собранной роботами поисковиков.

За что Яндекс и Гугл могут наложить на сайт фильтры и понизить позиции в выдаче

Существует ряд причин, почему поисковики могут пессимизировать сайты. Список, приведенный ниже, содержит наиболее частые из них, но не является исчерпывающим. Поскольку официальной информации на эту тему нет и быть не может во избежание недобросовестного использования.

  • Неуникальный, некачественный контент.
    Если вас уличат в плагиате информации, как минимум, поместят на позиции ниже оригинального источника, в худшем случае можно выпасть из индексации.
    К нарушениям также могут отнести избыток ключевиков, нерелевантные тексты, генерируемые автоматически, дублирование контента на разных страницах, статьи объемом до 500 символов.
  • Черное SEO.
    Ключевые слова, оформленные невидимым шрифтом.
    К неблагонадежным методам, приводящим к пессимизации сайта Яндексом и Гуглом, также относят , свомпинг, сателлиты, дорвеи и прочие.
  • Линкопомойки.
    Избыток внешних ссылок с сайта. Подобные страницы в выдаче нередко помечаются как спам. При большом количестве исходящих ссылок сайт могут наказать.
  • Ссылочный спам.
    Это, наоборот, ссылки на сайт. Один из популярных способов продвижения, при этом требующий контроля за количеством и качеством ссылок. Большой объем нерелевантных низкого качества сайтов, которые ссылаются на вас, сослужат плохую службу. Резкое увеличение числа внешних ссылок на сайт, неестественный прирост могут привести к бану.
    Если поисковики обнаружат искусственное увеличение, могут свести вес, передаваемый всеми ссылками, проставленными в этот период, к минимуму или нулю.
  • Накрутка поведенческих факторов.
    Тут все понятно, попадетесь - хорошего не ждите.
  • Много рекламы на интернет-ресурсе.
    Это не просто будет мешать вашим пользователям воспринимать информацию, но и станет причиной переизбытка внешних ссылок с сайта и пессимизации за перелинковку.
  • Выделение текста жирным.
    Не злоупотребляйте тегами b и strong, рекомендуется их использовать только для точечных акцентов.
  • Изображения.
    Все картинки, указанные к индексации, должны отображаться и быть релевантными. В противном случае это похоже на спам.
  • Биржи.
    Если участвуете в автоматизированной продаже ссылок со страниц сайта и поисковик решит, что бирж слишком много, можно попасть под санкции.
  • Ложные обменники - сайты, предлагающие скачивать файлы, для распаковки которых требуют отправить платное смс или распространяющие вирус. Поисковые системы наказывают не только такие площадки, но и вебсайты, которые на них ссылаются.

Кроме того, ПС могут снижать позиции сайтов, которые не поддерживают актуальность информации, размещают множество отзывов, вызывающих подозрение, не предоставляют полезные опции посетителям. Например, если это каталог заведений, он должен предлагать не просто список мест, а предоставлять информацию по ценам, афишам, рейтингу, отзывам и т. д.

Как избежать пессимизации

Лучший способ не попасть под фильтры и избежать пессимизации при ранжировании - вести максимально легальные работы по оптимизации вашего ресурса и использовать только белые методы продвижения.

Если вы покупаете готовый сайт, который уже имеет какой-то возраст и историю, не пожалейте времени или средств сделать анализ состояния.

Используйте специальные сервисы - например, Вебмастер - чтобы контролировать рост позиций и другие важные факторы, типа процесс индексации, ссылки, ошибки, тИЦ и тд.

Если позиции упали, сайт перестал индексироваться, а вы «ничего такого, на ваш взгляд, не делали», свяжитесь с технической поддержкой. Там могут подсказать, в чем проблема, ее нужно будет устранить и сообщить об этом.

Относительно просто самостоятельно проверить тексты, картинки, title на уникальность. Проведите контентную оптимизацию: разбейте текст на абзацы, оформите заголовки и маркированные списки. Проанализируйте, нет ли избытка рекламы, других серых и черных методов продвижения. Проверьте ссылки, даже если их очень много, просмотрите все ли ваши, возможно имел место взлом.

Если пессимизация очевидна, а проблема неизвестна и самим обнаружить не удается, можно и нужно заказать аудит сайта у специалистов.

После устранения всех недочетов отправьте администрации ПС просьбу отменить санкции.

Видели письмо, которое начинается так: «Это вымогательство денег», а в продолжении говорится, что если вы не заплатите определенную сумму денег, мы понизим ​​сайт в поисковой выдаче.

К сожалению, SEO пессимизация работает невероятно хорошо и имеет потенциал атаковать любой сайт с различных флангов. Далее о подходах, как можно навредить сайту:

Плохие ссылки

Ваш конкурент может поставить спамные ссылки на ваш сайт. Заплатив несколько долларов, ссылки на ваш сайт появятся на помойных сайтах. Google начал решать эту проблему и в настоящее время предоставляет решения через Disavow tool (Google Webmaster Tools).

Редиректы

301 редирект может вести с сайта с запрещенным содержимым (порнография, казино) на ваш сайт.

Вирусы

В результате SQL-инъекции злоумышленник может записать на сайт вирус. Тогда пользователь увидит сообщение «Этот сайт может нанести вред вашему компьютеру».

Дубликаты

Создание нескольких дубликатов немедленного войдет под внимание поисковой системы. Со злым умыслом легко сделать копию любого сайт и выгрузить в сеть. Показать отказов увеличивается.

Замедление скорости открытия сайта

Периодично измеряйте скорость загрузки сайта.

Глава отделения по борьбе со спамом Google о негативной поисковой оптимизации. Видео:

Google не всегда может отличить атаку на сайт от спама. Поэтому, важно следить за входящими ссылками и трафиком. Отслеживайте внезапное падение поискового трафика.

SEO пессимизация это опасно. Через сервис MegaIndex можно бесплатно посмотреть список входящих ссылок.