Могилёвский бомж блог могилёвского бомжа

Главная > 2025 > Теперь важен не «вес» ссылки, а её «длина»

 

 

Теперь важен не «вес» ссылки, а её «длина»

Теперь важен не «вес» ссылки, а её «длина»

    Теперь из слушания по делу «Гугла» мы знаем, что современный «Pagerank» («Пейджранк») является одним из ключевых входных параметров для расчёта показателя качества Q*. В этом посте, я кратко опишу сам патент и предложу стратегию линкбилдинга, вытекающую из этих данных.

 

 

    Патент «US9953049B1» (ключевые отличия от классического «Пейджранка» — на картинке ниже) описывает метод оценки страниц, основанный на их «расстоянии» в ссылочном графе от набора заранее выбранных авторитетных «эталонных» сайтов (seed sites). Вместо передачи «веса», система вычисляет «кратчайший путь» до каждой страницы, где у каждой ссылки есть своя «длина». Итоговый рейтинг страницы зависит от того, насколько она «близка» к этим трастовым источникам.

Ключевые отличия от классического «Пейджранка»

    В качестве примера эталонных сайтов названы «Google Directory» и «The New York Times».

    Поясняется, что такие сайты являются хорошими «эталонами», поскольку они надёжны, охватывают широкий круг тем и хорошо связаны с другими страницами (имеют большое число исходящих ссылок), выступая в роли «хабов» в Сети.

    От себя добавлю, что патент — довольно старый. И, на практике, эталонами считаются даже сайты поменьше, а какие-то «крупняки», которые массово продают размещения, вообще не считаются за авторитеты. Тут самостоятельно определите для себя, какие сайты считать за эталонные.

    Понимая, как работает современный «Пейджранк», можно прийти к главному стратегическому выводу: для повышения общего показателя Q*, не обязательно иметь прямую ссылку с авторитетных сайтов. Гораздо важнее находиться в «хорошем районе» Интернета, то есть быть как можно ближе к «авторитетам» в ссылочном графе.

    Цель: сократить «расстояние» вашего сайта до авторитетов, тем самым повысив его базовый Q*.

Тактика

  • 1. Картографировать граф ссылок

        С помощью аналитических инструментов, визуализируйте, как ваш сайт и сайты конкурентов связаны с трастовыми ресурсами.

  • 2. Оценивать «расстояние»

        Определите, через сколько «рукопожатий» (переходов по ссылкам с учётом их «длины») ваш сайт связан с авторитетами (по сравнению с конкурентами).

  • 3. Строить стратегию линкбилдинга

        Ищите возможности для получения ссылок не только с самих «авторитетов», но с сайтов второго или третьего уровня, которые находятся максимально близко к авторитетным сайтам. Такая ссылка может оказаться тем самым «коротким путём» и дать существенный прирост в базовом качестве вашего сайта.

Итог

    Фокус линкбилдинга смещается с «охоты за жирными ссылками» на стратегическое позиционирование своего сайта в экосистеме ссылок. Это — не просто работа над одним из многих факторов ранжирования, а целенаправленное улучшение одного из ключевых компонентов сигнала качества Q*, который определяет базовый уровень доверия поисковой системы к вашему сайту.

    Автор: «Advanced SEO».

Ещё с блога:

 

Написано Май 27, 2025


Комментарии:

 

PAU

Значит ли это условно, что берем топ 5 лидеров в нише. Находим общие бэки. Пытаемся получить ссылку там же. Это будет служить маяками что мы на «нужной стороне улицы» дальше классическая гонка ссылочного - качество/количество?

### Короткий ответ

Да, “разметить” общие доно́ры лидеров и достать от них ссылку ‒ хороший первый шаг, потому что он гарантированно не увеличит расстояние вашего сайта до «траста-зоны».

Но:

1. Не любая общая ссылка у топ-5 ведёт в сторону seed-сайтов.

2. Само по себе копирование профиля не даёт преимуществ, если ваш путь всё-таки остаётся длиннее, чем у конкурентов.

3. Алгоритм считает именно *расстояние* (взвешенные рёбра), а не простую сумму ссылок, поэтому «ещё 100 ссылок» ≠ «в два раза ближе».

Ниже — как выжать максимум из концепции «хорошего района» и не скатиться в банальную гонку количества.

---

## 1. Убедитесь, что ваши «маяки» действительно ведут к seed-сайтам

1. Соберите бек-профиль топ-N конкурентов.

Инструменты: Ahrefs, Majestic, SEMrush, GSC.

2. Отранжируйте доноров по доверительным метрикам, которые коррелируют с «близостью к seed»

  • Majestic Trust Flow / Citation Flow
  • Moz Spam Score (чем ниже, тем ближе к «чистым» зонам)
  • Ahrefs DR, но с фильтром «Referring domains to .gov/.edu/NYTimes.com…»

3. Выделите доноры из пересечения, которые сами имеют сильный входящий траст.

Это и есть «станция пересадки» между вами и seed-сайтом.

---

## 2. Постройте собственную карту расстояний

1. Создайте двухуровневый граф:

  • Вершины — домены доно́ров (T1) и их собственные доноры (T2).
  • Ребро — ссылка, вес = 1/лог(исходящих ссылок страницы).

2. Запустите алгоритм кратчайшего пути от условных seed-сайтов (NYTimes, gov-домены, Википедия) к каждой вершине.

Python-стек: NetworkX + Fresh index API → Pandas.

3. Сортируйте вершины T1 по суммарной длине пути seed → T1 → *ваш-сайт* (если ссылка уже есть) или seed → T1 (если ещё нет).

Чем меньше число, тем приоритетнее ссылка.

---

## 3. Как добывать “короткие” ссылки

1. Outreach / guest-пост только на тех T1-доменах, где

  • путь ≤ среднее по нише,
  • контент релевантен,
  • нет всплеска продажных исходящих.

2. Покрываем T1 список на 70-80 %.

После этого маржинальная польза от следующих ссылок резко падает: расстояние либо уже минимально, либо сокращается на 0 (дубликат пути).

3. Далее ищем «стыковочные» T2-сайты, которые дают *альтернативный* более короткий маршрут (обход логики конкурента).

---

## 4. Внутренняя оптимизация: не забывайте, что граф начинается внутри сайта

1. Чем меньше кликов от главной до страницы-приёмника, тем меньший вес она «трастит» наружу.

2. Сквозные навигационные блоки ссылаются на авторитетные внешние источники → создают *обратный* кратчайший путь «от вас к seed», повышая тиз-ранк всего домена.

---

## 5. Контроль рисков

  • Не копируйте 1-в-1 анкоры и точки размещения конкурентов — это явный алгоритмический паттерн.
  • Разносите время публикаций; distance-based PR не нуждается в «взрывных» пачках ссылок.
  • Ссылки с сайтов, удалённых > 4–5 переходов от seed, часто дешевы, но почти не двигают Q* и могут ухудшить профиль спама.

---

### Итог

Ваш план “берём топ-5 → собираем общие бэки → ставим там ссылки” работает, если его дополнить двумя вещами:

1. Фильтруем доноров по действительной близости к seed-сайтам, а не просто по факту пересечения.

2. Измеряем успех по сокращению суммарного расстояния до трастовых хабов, а не по росту счётчика ссылок.

Тогда вместо бесконечной гонки количества вы будете осознанно «приближать» домен к центру траста, что и повышает компонент Q* в алгоритме Google.

Advanced SEO
Я лично не очень доверяю показателям, которые высчитывают сервисы.
Для определения авторитетов, лучше взять побольше выборку сайтов их ссылочного исходящего и входящего до какого-то уровня, и построить ссылочный граф, тогда будет видно прям глазами, в какой части находятся качественные сайты и что можно считать авторитетом.
Но это конечно дорого и довольно долго.

Viacheslav Varenia
В описании судебных документов сказано, что Q star это агрегированный сигнал верхнего уровня, оценивающий качество как страницы так и сайта в целом.

PAU
Тут в этом и собака зарыта. Условно потратить время на построение, найти сидов. Либо найти через тот же ахрефс общие доменыбэки с топов у которых видимость и трафф с гугла от 500к монсли. Их брать за максимально близкое к сидам. Особенно если получение бэка там условно-бесплатное

Advanced SEO
Безусловно, но тем не менее остальные входные данные мы не знаем, тогда как про то, что на вход подается как раз современный Pagerank они упомянули. Зная это, уже можно как-то повлиять на этот параметр.
Тут уже каждый выбирает для себя самостоятельно как действовать.

JimmRush
По факту описан банальный Trust Rank бородатых годов, просто там было 2000 сидов размечено руками. Ничего нового.

Advanced SEO
Если докапываться, то это разное с точки зрения информационного поиска, иначе бы создатели трастранка докопались до патента гугла) трастранк скорее для борьбы со спамом и про затухание доверия с каждым переходом по ссылке. Вычисление кратчайшего пути у гугла в патенте по другому происходит.
Короче, на первый взгляд похоже, а если вчитываться, то разное.

JimmRush
Угу, почти одно и тоже. Траст ранк патент Гугла)

Антон
Получается, что majesticseo с его TF был максимально близок к пониманию траста, каким его видит гугл.

Advanced SEO
Нет, это довольно распространенная ошибка в SEO, изначально ввели термин ученые из стенфорда и Yahoo, билл славски когда-то целую статью написал
https://www.seobythesea.com/2009/10/google-trust-rank-patent-granted/

Евгений Молдовану => SEO блоггер
Ничего глобально не поменялось, только теперь тематический PR.
Отсюда и есть необходимость покупать ссылки из лучших сайтов в нише, несмотря на цену.

Advanced SEO
В Q* не про тематичность, тематичность относится к Topicality показателю.
Сидами могут быть и не тематичные сайты.

Евгений Молдовану => SEO блоггер
Все построено на тематичности.
Есть сайты построенные не на тематичном сем ядре и могут ранжироваться по разным запросам - там действительно может не влиять.
Вся суть Гугла была отойти от ситуации, где ссылка с 1 трастового нетематического ресурса давала топы по всем запросам.

JimmRush
От которой они так и не отошли

Евгений Молдовану => SEO блоггер
Ну причины понятны - к примеру сайт о оборудовании для майнинга, куча СМИ упомянули сайт, ясное дело что не учитывать из нельзя, но немного порезать передаваемый вес можно.

Advanced SEO
Тематичность ссылок действительно учитывается, но в другом параметре. К сожалению, нельзя все свести к какому-то одному простому выводу.
Если я правильно помню, у них даже есть возможность смотреть ссылочные графы, что может упростить работу по поиску сидов

 

Архив

О сайте

Контакты

 


 

Сайт создан в 2007 г. © Могилёвский бомж | Seoded.ru — Создание сайта