No Image

Уменьшение влияния внешних ссылок

СОДЕРЖАНИЕ
0 просмотров
10 марта 2020

В статье:

Внешние ссылки: понятие и назначение

Внешние ссылки — это путь к странице одного сайта, размещенный в тексте или экранной форме другого. Их назначение известно: так гораздо легче найти нужную информацию. Однако с появлением поисковиков все изменилось: теперь каждая ссылка — совет пользователю прочесть другую страницу. Получается, что чем больше ресурсов советуют своим пользователям прочитать ваш контент, тем большего доверия он заслуживает. Так "рассуждает" поисковик и присуждает сайтам, на которые ведет много ссылок более высокий рейтинг. Это основной принцип, который корректируется качеством и концентрацией ссылок.

Статистический вес — показатель оценки ссылок

Как результат сопоставления количества и качества ссылок на страницу, по ней рассчитывается показатель "статистического веса" (СВ): в Google до 2013 года существовал PR (Page Rank), а в Яндексе был ТИЦ (Тематический индекс цитирования).

Page Rank рассчитывался в результате того, что Google интерпретировал ссылку со страницы A на страницу B как голос A в пользу B. Конечно же, учитывалось не только количество голосов, но и качество голосующих страниц. От показателя отказались, так как мастера продвижения стали использовать различные стратегии манипуляции для вывода сайта в топ поисковой выдачи.

Для расчета показателя Яндекса интернет-ресурсом называют как сайт, так и его раздел (в случае, если он описан в каталоге Яндекса). При этом в расчете ТИЦ большую роль играет тематическая близость ресурса и ссылающихся на него сайтов. Само по себе количество ссылок на ресурс также влияет на значение его тИЦ, но он определяется не просто количеством ссылок, а суммой их весов.

С помощью внешней ссылки один сайт делится с другим некоторой долей своего СВ. Чем больше СВ страницы, тем значительнее та доля, которую он может передать. Соответственно, ваша задача с точки зрения продвижения — получить как можно больше ссылок со страниц с хорошим статическим весом.

Задачи, которые можно решить с помощью внешних ссылок

Основные цели наращивания ссылочной массы – повысить рейтинг сайта для поисковика и передвинуть его на более высокую позицию. Однако это не единственная область применения ссылок.

Вот несколько дополнительных задач:

  • наращивание трафика;
  • продвижение сайта среди целевой аудитории с помощью тематических запросов (особенно актуально для низкочастотных запросов);
  • поиск и оценка потенциальных дополнительных сегментов целевой аудитории. Например, на сайте интернет-магазина по продаже товаров, сопутствующих вашему или в разделе торговой площадки с аналогичными вашему товарами.

Черные и белые приемы в ссылочном продвижении

Оформление ссылок: чем виднее, тем лучше?

Когда расстановка сил в борьбе между поисковиками и владельцами сайтов стала понятной, каждая из сторон начала поиск универсального решения. Способ получения ссылок, чтобы попасть в топ выдачи. Способ фильтрации нарушителей, чтобы оставить в ней только честных труженики контента. Но ни того, ни другого обнаружено не было до сих пор. Поэтому комбинирование черных и белых приемов в работе со ссылками продолжается. Обсудим самые распространенные суждения сторонников черного и белого продвижения.

"Основа легального продвижения — качественный контент и естественные ссылки. Если пользователь прочитал интересную для него статью, то он сам поставит на нее ссылку. "

В этом смысле идеальным вариантом SEO является его (видимое) отсутствие. Ближе всего к этому варианту нативная реклама как часть общей стратегии продвижения бренда.

Если вы все же выбираете создание ссылок на ваш ресурс, то нужно найти, где собирается целевая аудитория. Кроме прямых и не самых эффективных способов продвижения через каталоги или сайты-агрегаторы, следующая группа способов — SEO-контент и гостевые посты.

Продвижение какими-либо другими способами, помимо собственного, актуального для пользователей контента, оба основных поисковика не приветствуют. Так в феврале этого года Джон Мюллер (Google) повторил, что не рекомендует использовать гостевые посты для получения внешних ссылок.

Важный момент — оформление ссылок. В качестве официальной позиции можно почитать рекомендации от Google и Яндекс.

Слова, которые содержатся внутри ссылки, называются ее анкором. Чаще всего это слова или словосочетания, соответствующие вашим ключевым запросам плюс "здесь", "тут" и их синонимы. Бывают также и безанкорные ссылки.

"Безанкорные ссылки выглядят естественнее, поэтому стоит перейти на них полностью."

Стремясь как можно больше замаскировать ссылки внутри контента, некоторые оптимизаторы выбирают только безанкорные ссылки. Однако не все так очевидно. Одно из исследований безанкорного продвижения показало следующее:

  • для Яндекса из альтернативных слов в безанкорном продвижении лучше всего использовать только слово "тут", так как остальные не приведут к попаданию околоссылочного текста в нпс;
  • также в тексте ссылки можно использовать адрес сайта или страницы, но обязательно с http, иначе сам адрес сайта попадет в анкор-лист вместо окружающего текста;
  • для Google безанкорное продвижение полезно лишь в целях разнообразия ссылок, так как окружающий текст не попадает в анкор-лист;
  • в основном, учитывается правый от ссылки околоссылочный текст.

Получается, что лучше комбинировать анкорный и безанкорный варианты, основываясь прежде всего на естественности текста и удобстве пользователя.

"Ссылку можно поставить куда угодно, чем заметнее, тем лучше — например, в футер сайта. От места ссылки на странице результат зависит напрямую."

Если ссылки на каждой странице сайта действительно оправданы (что бывает редко), то ее можно оставить и в футере. Это может быть ссылка на студию, которая продвигает ваш сайт, или на сайт головной компании, если ваша — дочерняя. Однако стоит проанализировать, не вызовет ли это обратный эффект. Например, если вы ставите ссылку на статью-обзор новинок производителя в футере интернет-магазина, это может быть оправдано, тогда как ссылка на главную страницу сайта партнера — нет. Не забудьте проверить, что ссылки не закрыты от индексации.

"Ссылку нужно ставить не на главную страницу сайта, а на внутренние страницы, соответствующие ключевому запросу."

Так, например, если вы рассказываете в контенте о скидках на конкретную часть ассортимента, то не нужно ставить ссылку на главную страницу для быстрого перехода к контактам — укажите ссылку на страницу с акциями, оставив пользователю возможность ознакомиться с их условиями, а уже оттуда перейти на описание мест продажи.

"Продвижение в соцсетях не учитывается наряду с ссылками в Интернете, поэтому не стоит тратить на них время."

Необходимость продвижения в соцсетях по-прежнему актуальна — большая часть ваших пользователей имеет один или несколько профилей в соцсетях и проводит там значительную часть времени. Это означает, что внешние ссылки в тематических страницах или группах могут привести на ваш сайт потенциальных пользователей. При этом, у этого канала общения с аудиторией есть свои особенности, которые проявляются на всех уровнях, в том числе и в размещении ссылок. Чаще всего новостная лента соцсетей пролистывается за несколько секунд и ваш контент (с тщательно замаскированной ссылкой) должен быстро привлечь внимание. Это можно сделать с помощью:

  • яркого баннера;
  • интересной инфографики;
  • запоминающегося заголовка;
  • небольшого размера текста или видео;

Основной принцип, который стоит использовать при выборе формы поста: готов ли я уделить этому последние 10 секунд своего свободного времени?

Не стоит забывать, целью продвижения в соцсетях являются не столько внешние ссылки сами по себе, сколько привлечение огромной потенциальной аудитории, которая может впоследствии перейти на основной сайт.

Существуют, однако, "искусственные" способы перенаправления аудитории на сайт. Это могут быть различные конкурсы с просьбой поделиться баннером акции, в котором содержится ссылка на основной сайт, либо фотоквест или викторина, которые размещены в специальном разделе сайта.

Количество и виды ссылок: чем больше, тем лучше?

"Количество ссылок на странице может варьироваться в зависимости от ее назначения. Рекомендуемый вариант – не более двух."

Все платные ссылки поисковики не приветствуют и просят честно их отмечать. Так Мэтт Каттс еще в 2013 году призывал закрывать их атрибутом и помечать как рекламные. В остальном количество ссылок на странице должно отвечать назначению окружающего их текста.

"Большое количество ссылок, полученных путем обмена и покупки – универсальный способ завоевать позиции в выдаче, особенно для молодого сайта."

На старте перед сайтом всегда возникает проблема получения ссылок – отдача от качественного контента придет не сразу, а завоевывать место под солнцем нужно. Однако стоит помнить, что покупка большого количества ссылок за короткий период времени может вызвать "ссылочный взрыв" (или "бум"), что приведет к штрафным санкциям от обоих поисковиков. В целом, для того, чтобы не вызывать нарекания с их стороны, прирост ссылочной массы должен быть естественным, то есть постепенным.

Читайте также:  Зубной протез термопласт отзывы

"Выбирая между арендными и вечными ссылками, стоит сделать ставку на их комбинацию."

По времени существования ссылки принято делить на "вечные" — ­оплачивается 1 раз и размещается на сайте до конца его жизни, и временные, "арендные" — оплачивается ежедневно и размещается на период оплаты.

Преимущества вечных ссылок:

  • ручное размещение ссылок в рамках текста или экранной формы сайта
  • доноры как правило высокого качества
  • размещаются на новых страницах сайтов

Недостатки вечных ссылок:

  • большие разовые затраты на размещение
  • ссылками будет сложно управлять – изменение возможно не всегда и в любом случае оно не происходит моментально

Преимущества арендных ссылок:

  • распределение затрат во времени, что очень важно для молодых сайтов
  • гибкость в управлении
  • позволяют получить основную ссылочную массу

Недостатки арендных ссылок:

  • т.н. "мигание" – если оптимизатор не следит, когда заканчивается период оплаты, то возможны паузы в работе ссылки
  • ниже вероятность естественных переходов

Наращивание ссылочной массы: чем быстрее, тем лучше?

"При выборе способов получения ссылок отталкивайтесь от двух вещей: их ценности для продвижения и алгоритмов работы фильтров ПС."

При выборе каналов получения ссылок стоит обратить внимание на следующие критерии:

  • ссылки должны обеспечивать "живые" клики;
  • ссылки должны увеличивать вашу потенциальную аудиторию;
  • ссылки должны повышать авторитет бренда, а не наносить ему урон;
  • контент должен быть полезным для пользователя.

К видам контента, который привлекает пользователей, относятся:

  • обзоры товаров и услуг;
  • рейтинги и списки необычных кейсов использования;
  • тематические новостные инфоповоды;
  • акции, скидки, дополнительные услуги;
  • контент от производителей или партнеров;
  • встроенный необычный контент — инфографика, диаграммы;
  • справочная информация, которую пользователь обычно ищет самостоятельно — перечень сервисов и т.д.;
  • отзывы и форумы клиентов;
  • фото и видео.

Фильтры поисковых систем

Когда выбираете, где получить ссылки, учитывайте алгоритмы работы фильтров поисковых систем.

Google использует фильтр Пингвин, запущенный в апреле 2012 года. Основной принцип — ухудшение позиций ресурса, если на него ссылаются очень много сайтов. Во главу угла по-прежнему ставится контент, его качество и актуальность для пользователей. Вот, что будет учитывать алгоритм:

  • качество страницы-донора;
  • количество страниц, передающих ссылочный вес;
  • количество страниц с частичным вхождением фразы;
  • количество страниц с точным вхождением фразы.

В качестве иллюстрации сравним две диаграммы из исследования Microsite Masters: сайтов, которые не оштрафовал Пингвин и сайтов, которые он "задержал". И, как говорится, найдите 10 отличий:

Пингвин: сайты, прошедшие фильтр Пингвин: сайты, не прошедшие фильтр

Яндекс использует несколько фильтров, в том числе запущенный последним, в марте 2017 года, Баден-Баден. Он выявляет сайты, которые используют покупку ссылок для SEO-продвижения и ограничение их при ранжировании. Помимо этого, фильтр борется со следующими стратегиями горе-оптимизаторов:

  • сайт-донор имеет другую тематику;
  • окружающий контент отсутствует;
  • анкоре нельзя назвать естественным по отношению к контенту ссылки;
  • концентрация ссылок на одной странице;
  • резкое увеличение ссылочной массы;
  • сайты-доноры с сомнительным авторитетом.

В классификаторе ссылок Яндекса более ста факторов, по каждому из которых проставляется одно из бинарных значений (SEO-ссылка/естественная ссылка). После анализа всех нулей и единиц, рассчитывается итоговый показатель. Кроме того анализируется и сопоставляется тематика слов и страницы в целом, как по сайту-донору, так и по сайту-акцептору.

В итоге, можно проследить, что для обеих поисковых систем ключевые факторы – качественный контент и естественные ссылки. Все, что помогает их использованию – повысит ваши позиции, а все остальное – сведет усилия на нет. Более подробно способы получения ссылок, которые навлекут на вас гнев поисковиков, мы рассмотрим во второй части статьи. Кроме того, там будут приведены примеры сервисов, которые позволяют оценить используемые ссылки.

22 года назад основатели Google придумали PageRank и навсегда изменили интернет. Вот несколько изначальных принципов, отличающих PageRank от прочих факторов ранжирования:

Ссылки в сети подобны голосам. Изначально они равны (но ненадолго).

Страницы, которые получают больше голосов, становятся важнее в глазах Google и занимают более высокие позиции.

Чем важнее страница, тем важнее может быть её голос.

Google не остановился на этих постулатах: добавил анализ анкоров, тематическое соответствие, оценку контента, трастовые метрики, вовлечённость пользователя и прочие факторы.

Так ссылки перестали быть равными. Совсем.

В этой статье (автор оригинала — Сайрус Шепард) мы рассмотрим 20 актуальных принципов оценки ссылок. Некоторые из них подтверждены Google, другие — запатентованы. Обратите внимание, что это не жёсткие правила, а гибкие принципы, которые взаимодействуют друг с другом. Всплеск «свежих» ссылок может перевесить «мощные» ссылки, а спамные могут притупить эффект «свежих» и так далее.

Настоятельная рекомендация — старайтесь проверять правила на практике. Как говорит Рэнд Фишкин: «Нет ничего лучше для изучения SEO, чем эксперименты в диких условиях».

1. Ссылки с популярных страниц мощнее

Начнём с фундаментального принципа. Концепция, которая легла в основу оригинального патента PageRank и помогла превратить Google в самый популярный поисковик.

PageRank довольно сложная система, но если по-простому:

Чем больше ссылок, тем выше PageRank (и другие сигналы на основе ссылочной массы).

Чем выше PageRank страницы, тем весомее исходящая с неё ссылка.

В общих чертах, популярными страницами считаются те, что набрали больше голосов в естественных условиях. Оценивая ссылки, Google придаёт большее значение ссылкам именно с подобных страниц.

2. Ссылки в уникальном контенте ценнее тех, что «внутри» бойлерплейт-кода

Патенты Google, посвященные сегментированию страниц и бойлерплейт-коду (шаблонные элементы на странице), показывают, что ссылки в рамках уникального текста имеют больший вес, чем те, что находятся в сайдбарах, футере, хедере или любых других шаблонных элементах.

Для сайтов на популярных CMS это важный момент. Google чётко разграничивает основное содержание страницы и повторяющиеся неуникальные фрагменты кода. Даже руководство для асессоров призывает обращать внимание именно на уникальные элементы.

3. Ссылки «выше» в рамках контента работают эффективнее

Какую ссылку выбрали бы вы?

Размещённую на видном месте, в первом абзаце текста.

Размещённую несколькими параграфами ниже.

Вероятно, первую. Google действует так же — в патенте Reasonable Surfer описан метод, благодаря которому такие ссылки получают больший вес, ведь пользователи кликают на них чаще.

Однажды Мэтт Каттс (в прошлом глава команды по борьбе со спамом в Google) призвал оптимизаторов обращать внимание именно на первую ссылку в контенте и не «хоронить» под текстом важные ссылки.

4. Ссылки с релевантным и тематическим анкорным текстом имеют большее значение

Этот принцип также закреплён в патенте Reasonable Surfer. Более того, из его текста следует, что ссылки с нерелевантными анкорами ждёт девальвация или полное игнорирование.

Главное — избегать переспама и сохранять естественный разброс ключевых фраз на странице, в том числе для анкоров исходящих ссылок.

Судя по всему, так же работает текст, окружающий ссылку. Хотя доказательств этому меньше, но даже в патентах есть упоминания окружающего ссылку контента и важности тематической связности со страницей, на которую эта ссылка уводит.

5. Ссылки с уникальных доменов

Опыт показывает, что лучше иметь 50 ссылок с разнообразных доменов, чем 500 с одного и того же.

Это имеет смысл, ведь Google пытается определить популярность страницы в сети, а не в рамках какого-то одного ресурса, даже очень качественного. Подобная корреляция подтверждается большинством популярных исследований ссылок как фактора ранжирования.

6. Внешние ссылки весомее внутренних

Если расширить концепцию из пункта №5, то принцип приоритета внешних ссылок в качестве фактора ранжирования становится совсем очевидным. Чем больше внешних ссылок с разнообразных доменов (в родственной тематике), тем лучше.

При оценке ссылочной массы поисковики придерживаются концепции — важнее что и сколько говорят о нас другие (сайты), чем то, что мы сами о себе говорим.

Тем не менее, про внутреннюю перелинковку забывать не стоит. Грамотная архитектура сайта и удобная навигация могут существенно повысить ваши позиции и обрадуют пользователей.

Читайте также:  Jquery посчитать количество элементов

7. Ссылки с доменов с высоким трастом

Идею и механику обновлённого TrustRank мы уже рассматривали, поэтому знаем, как важна эта комплексная метрика для Google. Кроме того, важна «длина» — то есть расстояние в ссылках между авторитетными донорами (сидами) в тематике и конечной целевой страницей. Чем расстояние короче, тем больший импульс получает ссылка.

Так PBN (приватные сети блогов, которые используются в black hat SEO) теряют эффективность, если сами не получают ссылок с авторитетных сайтов в тематике.

Google внимателен к онлайн-репутации ресурсов — от обзоров и отзывов до достоверности публикуемой информации. Это особенно актуально для YMYL-сайтов, которые затрагивают вопросы финансовой безопасности пользователей и их здоровья.

То есть ссылки с доменов, которые заслуживают доверие Google, ценятся гораздо выше, чем, например, с сайтов, вводящих пользователей в заблуждение.

8. Ссылки с тематически связанных страниц

Предположим, у нас молочная ферма. Какая ссылка для нас важна?

Сайт национальной ассоциации молочников.

Сайт ассоциации автомобильных механиков.

Снова очевидно. PageRank чувствителен к тематической связности, учитывается также фразовое индексирование и локальная принадлежность. Эта концепция также позволяет Google бороться со спамными ссылками.

9. Ссылки со «свежих» страниц

Google использует несколько методов для оценки свежести контента. Один из них — возраст ссылок, ведущих на страницу. Свежесть здесь эквивалентна актуальности. Если на страницу ведут ссылки с новых или постоянно обновляющихся документов, то это хороший сигнал для Google — содержание страницы акцептора также актуально.

Важно отметить, что устаревшие страницы — это те, которые:

Содержат утративший актуальность контент.

Получают всё меньше ссылок с течением времени.

Показывают снижение вовлечённости пользователей.

Таким образом, свежесть связана с актуальностью контента и активностью пользователей, а не с возрастом страницы.

10. Активный рост ссылок указывает на актуальность контента

Прирост свежих ссылок — позитивный сигнал для Google, влияющий на FreshRank и ранжирование. Но есть и обратный эффект, когда рост замедляется и ссылок приходит всё меньше, то, вероятно, страница уже устарела.

Такая концепция «свежести» зафиксирована в патенте «Information retrieval based on historical data» (поиск информации на основе исторических данных).

11. Google обесценивает спам и ссылки низкого качества

Хотя в сети триллионы ссылок, правда в том, что Google игнорирует большинство из них. Цель поисковой системы — сосредоточиться на ссылках, которые размещаются естественным образом, без нашего вмешательства.

Начиная с версии Penguin 4.0, Google закрепляет этот принцип и обесценивает ссылки, не соответствующие стандартам, то есть те, что получены с помощью схем обмена ссылками (покупка, чрезмерный обмен, масштабная реклама, автоматизация создания ссылок и прочее).

Некоторые специалисты по-прежнему считают, что некачественные ссылки не только игнорируются, но и способны понизить наши проекты в выдаче.

12. Ссылочное эхо — влияние ссылки может сохраняться даже после её удаления

Эффект реверберации или «призрачные ссылки» подтверждается экспериментами Рэнда Фишкина — даже спустя месяцы после полного удаления ссылок, Google несколько раз переобходил и индексировал страницы, на которые они указывали.

Возможно, для страниц с хорошими позициями Google оценивает постоянство или деградацию динамики ссылочной массы как некоторый отдельный показатель (на ограниченное время), и он перестаёт зависеть от фактического наличия ссылок. Но это лишь предположение.

В качестве контрапункта стоит упомянуть исследование Нила Пателя — и без того не самые высокие позиции сайтов с низким уровнем авторитета и траста резко ухудшились после одновременной потери большинства внешних ссылок.

13. Сайты, которые ссылаются на авторитетные ресурсы, также получают бонус

Хотя Google утверждает, что ссылки на качественные ресурсы не являются фактором, влияющим на ранжирование, Мэтт Каттс однажды заявил почти обратное:

«Так же как Google меньше доверяет сайтам, ссылающимся на спамные или некачественные ресурсы, он поощряет ссылки на хорошие сайты.»

Многочисленные эксперименты также подтверждают положительное влияние таких ссылок на позиции самого донора.

14. Ссылки на спамные ресурсы обесценивают и другие размещённые на странице ссылки

Это отчасти следует из цитаты Мэтта Каттса выше — Google не доверяет сайтам, ссылающимся на спамные ресурсы. Также концепция соответствует духу борьбы с PBN и платными ссылками.

Так, если на странице 3 ссылки, 2 из которых ведут на низкокачественных акцепторов, то последняя ссылка обесценивается вместе с ними.

15. Nofollow-ссылки не сканируются, но имеют значение

Если захотите подробно разобраться с атрибутом rel=”nofollow”, то загляните в наше руководство. В общих чертах — nofollow-ссылки создавались как метод борьбы со спамом и сообщают поисковикам «не нужно учитывать и ходить по этим ссылкам».

Есть только один нюанс, подвергающий сомнению полное игнорирование таких ссылок Google: «In general, we don’t follow them» или «в целом, мы не переходим по ним». Что обозначает «в целом» не особенно ясно, но оставляет повод для теорий, которые порой подтверждаются исследованиями.

16. JavaScript-ссылки передают вес, если Google способен их отрендерить

В далёкие времена, обычной практикой было сокрытие ссылок с помощью JS. Сегодня Google довольно неплохо сканирует и рендерит сайты на JavaScript и даже учитывает подгруженные с его помощью ссылки.

Но сканирование JS-элементов требует больше времени, кроме того код должен быть предельно доступным и чистым, а ссылки обязаны содержать атрибуты href.

17. Если страница ссылается на один и тот же документ, то первая ссылка имеет приоритет

А если ещё конкретнее, оценивается только первый анкор — он и учитывается при ранжировании. Будьте особенно аккуратны при внутренней перелинковке и помните про этот принцип, размещая несколько ссылок на важные страницы вашего сайта.

Ранее публиковались результаты экспериментов, в которых удавалось обойти правило приоритета первой ссылки на странице, но новые исследования давно не проводились.

18. Robots.txt и мета-тег robots способны повлиять на сканирование ссылок

Кажется очевидным, но для того, чтобы учитывать ссылку в алгоритме ранжирования, Google должен иметь возможность сканирования и перехода по ней. Ряд директив могут помешать этому:

URL запрещён к сканированию с помощью robots.txt.

Мета-тег robots или HTTP-заголовок X-Robots-Tag используют директиву «nofollow».

Для страницы настроена директива «noindex, follow», которая в конечном итоге для Google равнозначна «noindex, nofollow».

Частенько Google включает в индекс даже запрещенные директивами URL, если на него ссылаются другие страницы. Но ссылки остаются почти «невидимыми» и бесполезными.

19. Disavowed-ссылки не передают вес (как правило)

Google предусматривает возможность отклонения обратных ссылок. После дезавуации поисковик перестаёт их учитывать, но если в файле отклонения допущены ошибки (или Google просто так считает), то он может проигнорировать запрос и оставит вес ссылок без изменений.

20. Даже упоминания без ссылок могут положительно влиять на авторитет сайта

Google оперирует сущностями и умеет распознавать понятия, связанные с брендами, личностями, массовой культурой даже без HTML-ссылок.

Поэтому любое вхождение названия вашего бренда, уникальной услуги или продукта в текст, может расцениваться как ещё один дополнительный «голос». Это похоже на ассоциации, интегрированные в алгоритм ранжирования.

Важно: вся информация в статье актуальна для Google. Для продвижения в рунете необходимо ориентироваться ещё и на особенности алгоритмов Яндекса.

Так, тематические анкорные ссылки имеют наибольший вес для Google. Но, во-первых, нужно избавляться от коммерческих хвостов в таких анкорах, во-вторых, ссылочную массу необходимо разбавлять безанкорными ссылками. Спамные коммерческие анкоры и слишком большая доля анкорных ссылок являются признаками «SEO-ссылок» для Яндекса. И если Google «плохие» ссылки официально только обесценивает, то Яндекс может наложить серьёзные санкции на весь сайт (помним про алгоритм «Минусинск»).

В Яндексе нет и аналога файла отклонения ссылок Disavow links, и поэтому запретить учитывать нежелательную обратную ссылку не удастся, придётся искать другой способ избавиться от неё.

Инструменты для анализа ссылочной массы

Теперь, получив чуть более точно представление о том, как Google оценивает ссылки, пора приступать к работе над собственными проектами и применять знания в реальных условиях.

Для анализа внешней оптимизации в «Пиксель Тулс» есть отдельный раздел инструментов-помощников. Для работы над ссылочной массой и проверкой доноров используйте:

Пусть на ваши проекты ссылаются почаще и максимально естественно!

Давным-давно раскрутка сайта в поисковых системах (ПС) делалась очень просто: писали «простыни» длинных текстов, напичканных ключевыми словами, а для борьбы с конкурентами размещались внешние ссылки любыми методами.

Читайте также:  Составить блок схему алгоритма решения квадратного уравнения

А способов было много — как ручных, так и автоматизированных:

  • Сайты менялись ссылками друг на друга, а позже для естественности использовали круговой обмен, когда группа сайтов ссылается друг на друга по кругу.
  • Ссылки размещались в виде комментариев вручную или с помощью специальных программ, например, для спама на форумах или досках объявлений, блогах и т. д.
  • Наконец, размещение ссылки всегда можно было купить. Причем вначале считалось нормальным автоматизированная продажа временных ссылок (через биржи наподобие «Sape») и постепенно приоритетным стало ручное размещение вечных ссылок в тематических статьях с уникальным текстом (через Миралинкс).

В те давние времени ТОП выдачи поиска нередко был нерелевантный и унылый, иногда невозможно было найти нужный ресурс, так как первые десятки вариантов в выдаче были «заспамлены». Проблема была в несовершенстве алгоритмов и поначалу внутренние факторы несколько уступали внешним по важности. Несколько лет назад для успешной раскрутки достаточно было сделать сателлит с более-менее уникальными текстами (простой рерайт с кучей ключевых слов) и купить внешних ссылок, причем чем больше, тем лучше. Годились даже временные ссылки, после их индексации позиции в выдаче росли даже у ГС («говносайтов»).

Таким образом, борьба за позиции велась бюджетами: кто больше ссылок купит, тот и в выдаче выше. Хорошее качество сайтов было не так уж важно, поскольку даже шаблонный дизайн, непонятное меню (плохая структура) и невнятный текст все равно дает какую-то конверсию при большом трафике. Постепенно для увеличения продаж или заказов улучшали продающие страницы. Но у многих вполне серьезных компаний годами никаких изменений не было: идет трафик, есть продажи, зачем что-то менять… Считалось самым важным бороться за позиции в выдаче для привлечения массовой целевой аудитории (ЦА).

Кому угрожают фильтры АГС от Yandex и Пингвин от Google

Еще пять лет назад в ТОП-10 Yandex и Google можно было увидеть дорвеи, но и качественных СДЛ («сайт для людей») было относительно мало. Чтобы отфильтровать «плохие» сайты с генерированным контентом (сателлиты и дорвеи), Яндекс ввел в 2009 году фильтр АГС-17 и достаточно быстро усовершенствовал его до АГС-30. Изначально эти фильтры были автоматическими и могли ошибаться, блокируя в выдаче поиска Яндекса даже «хорошие» СДЛ. Приходилось писать жалобы яндексоидам Платонам (сотрудникам Яндекса) и живой модератор мог вернуть сайту позиции, если не находил недочетов. В любых иных случаях яндексоиды никогда не говорили про найденные недостатки — всегда рекомендовали перечитать советы вебмастерам от Yandex.Help и не нарушать установленные ими правила, улучшать и правильно оптимизировать все страницы, исправлять ошибки.

У Гугла раньше началось постепенное уменьшение влияния SEO ссылок, но Яндекс старался не отставать и постоянно совершенствовал алгоритмы, которые ранжировали порядок выдачи. Вначале роботы ПС определяли только уникальность текста, потом научились отличать качественный текст от «простыни» написанной ради ключевых слов, в том числе за счет контроля поведенческих факторов (время пребывания посетителя на странице, процент отказов по статистике). Наконец, алгоритмы ПС стали различать региональные запросы и отделять коммерческие от информационных, при ранжировании учитывалось все больше и больше факторов, кратко вспомним самые основные:

  • Возраст сайта (траст), имя домена, количество страниц в индексе Яндекса, регулярность обновления контента и его качество.
  • Оптимизация структуры меню (перелинковка гиперссылками), уровень вложенности страниц и ЧПУ («Человеку Понятный Урл»).
  • Уникальные seo-тексты с умеренными вхождениями ключевиков, оформление публикаций (заголовки и подзаголовки, тайтлы, мета-теги и ALT для картинок ).
  • Чистый код страниц, отсутствие лишних фреймов, присутствие правильного robots.txt
  • Географическое определение сайта (зависит от доменной зоны или контента, можно устанавливать вручную, если указать нужные контакты).
  • Количество и качество внешних ссылок (с анкорами в виде ключевых слов для продвижения и безанкорные ссылки для естественности).

Уже давно в выдаче поиска Яндекса практически нет дорвеев, почти не осталось сателлитов, но ТОП-10 в 2013 году (особенно по коммерческим запросам) занимали оптимизированные сайты, которые закупили качественные внешние ссылки. Яндекс постоянно вводил новые алгоритмы для того, чтобы разнообразить поиск и в ТОПе были справочники, блоги, форумы, каталоги, информационные проекты, а не только «прокачанные» внешними ссылками коммерческие интернет-магазины или компании, продающие свои услуги.

Постепенно ПС научились определять, кто продает ссылки, и Yandex, Google перестали учитывать ссылки с таких доменов. Чтобы улучшить качество выдачи поиска в 2011 году, Гугл ввел алгоритм Панда, из-за которого произошло уменьшение влияния внешних ссылок. При этом усилилось влияние поведенческих факторов (ПФ) – времени пребывания посетителей на страницах, а также отказы по статистике, то есть Панда боролась с «псевдоСДЛ». Особенно легко алгоритмы ПС срабатывали, когда через биржи автоматом покупали временные ссылки и в «бан» уходил как донор, так и акцептор. Тогда оптимизаторы стали закупать «вечные ссылки» с хороших старых ресурсов с высоким ТИЦ и PR, но Гугл пополнил свой «зоопарк» алгоритмов и в апреле 2012 года пришел Пингвин.

Вебмастера приспособились к Панде и потом к Пингвину, а также к АГС-30: тщательная перелинковка внутренних страниц и естественные анкоры для внешних ссылок, теперь приходилось покупать безанкорные ссылки, а также оставлять некий процент анкоров «тут», «здесь» и т. д. Пингвин автоматически безжалостно понижал позиции и обнулял PR у всех сайтов, которые попадали под «подозрение», а выйти из-под фильтра — всегда долгое и сложное занятие по исправлению ошибок.

Массовая SEO покупка ссылок для Яндекса уходит в прошлое

В 2012-1013 гг. наблюдалось постепенное уменьшение влияния SEO ссылок, что было заметно по увеличивающимся срокам такого вида раскрутки. Яндекс , как и Гугл, постоянно совершенствовал алгоритмы, все труднее было попасть в ТОП, и при правильной удачной закупке внешних ссылок результат повышения позиций приходилось ждать месяцами, иногда полгода (причем никаких гарантий, всегда приходилось учитывать возможность неудачи).

В конце 2013 года Яндекс ввел новый фильтр АГС-40, который массово забанил множество «псевдоСДЛ» (опять под новым жестким алгоритмом пострадали и «правильные» СДЛ). А все из-за желания максимально быстро выходить в ТОП. Оптимизаторы и сеошники нередко рискуют, поскольку «переоптимизация» похожа на попытку манипуляции алгоритмами ранжирования, а это запрещено у ПС. Больше всего пострадали сеошники, массово закупавшие внешние ссылки: они потеряли позиции и трафик, ведь теперь учитывалось еще больше факторов в комплексе:

  • Возраст донора, вариант размещения (в подвале или блоками по несколько штук подряд).
  • Соотношение количества проданных ссылок и количества страниц, а также объем текстов на страницах (безусловно, чем больше ссылок, тем меньше их вес).
  • Если раньше содержание ключевых слов или фраз в анкоре ссылки было необходимо, то теперь слишком частое повторение одинаковых анкоров приводило Пингвина или АГС.
  • Быстрый прирост ссылочной массы, особенно у новых ресурсов с молодым доменом.
  • Внутренняя перелинковка стала лучше влиять на позиции, тогда как влияние внешних ссылок ослабевало при однообразных анкорах.
  • Нерелевантные тексту заголовки и тайтлы теперь уменьшали вес ссылок с таких страниц. Также мало толку стало от ссылок с площадок, которые сильно отличались по тематике.
  • Усилилась важность качества доноров, где размещаешь ссылки: траст и уникальность, наличие живого трафика у донора – залог успеха, а множество ссылок с «плохих» доноров могли даже понизить в позициях по выдаче в ПС.

Все эти факторы увеличивали ценность «вечных» ссылок, но если не хватало денег на дорогие площадки и размещение «навсегда» – искали варианты занять нишу за счет продвижения по низкочастотным запросам.

Борьба алгоритмов ПС и сеошников идет постоянно, но и качество сайтов улучшалось, поскольку иначе нельзя было занимать высокие позиции в выдаче ПС с неуникальным контентом или плохой структурой. Теперь стало проще заказать качественный уникальный текст, оплатить оригинальный дизайн и профессионально оптимизировать все страницы, чем пытаться обмануть алгоритмы и банально покупать массу ссылок. Но злоупотребления внешними факторами продолжаются до сих пор, и потому скоро Яндекс совсем перестанет учитывать ссылки в ранжировании. Накрутки ТИЦ и внешних факторов авторитетности для повышения позиций в выдаче дискредитировали значимость влияния внешних ссылок.

Комментировать
0 просмотров
Комментариев нет, будьте первым кто его оставит

Это интересно
No Image Компьютеры
0 комментариев
No Image Компьютеры
0 комментариев
No Image Компьютеры
0 комментариев
No Image Компьютеры
0 комментариев
Adblock detector