24 мая 2024 года в публичный доступ попала часть алгоритмов ранжирования Google. Это большой подарок для всех, кто хочет получать трафик из поиска Google в любой стране. Данная статья будет полезна маркетологам, владельцам бизнеса и, конечно, SEO-специалистам.
Меня зовут Олег Шестаков – я предприниматель, основатель SEO-агентства Rush Agency и уже более 12 лет занимаюсь исследованием алгоритмов поисковых систем, так что у меня большой опыт в исследовании таких утечек от поисковых систем.
Итак, в сеть попала документация к API одной из систем ранжирования Google – в документации описано более 14.000 функций – это названия факторов ранжирования, описание к ним – причем где-то довольно подробное, а где-то можно только догадываться о чем, тот или иной фактор.
Нельзя говорить со 100% вероятность – вот у них в документации есть такой фактор, и значит, он рулит. Такие документы нужно интерпретировать очень аккуратно, чтобы не загнать себя в ментальную ловушку.
Изначально документ анонимно прислали Ренду Фишкину – известному западному SEO-эксперту, который, в свою очередь, обратился к своим друзьям – экс-сотрудникам Google, и те подтвердили подлинность документа.
Теперь вы понимаете, на каких данных будут сделаны следующие выводы.
А я, в свою очередь, изучил разборы западные коллеги и потратил около 4 часов на рисерч документа.
Сейчас мы разберем что реально полезного и практически применимого мы можем вынести из этого слива, а в конце выпуска поговорим, какие теории заговора про Гугл оказались отнюдь не теориями.
P.S. Если вам лень читать, то смотрите видео «СЛИВ алгоритмов Google 2024. Выйти в ТОП может каждый!» на нашем ютуб-канале Rush Agency.
🥇 Авторитетность сайта
Google использует параметр Авторитетности сайта, хотя во всех публичных выступлениях они говорили обратное. То есть теперь можно закончить споры, есть ли такой параметр, как траст домена. Да, он есть и на мой взгляд, он является краеугольным успехом в SEO уже как минимум 3-4 года. Мы сейчас монтируем видео, как качать траст своего сайта – ссылочка на видео появится здесь.
📈 Поведенческие факторы
Google активно использует поведенческие факторы! Да, из документации понятно, что Google собирает все данные с выдачи, а еще следит за всеми вашими действиями в Google Chrome, Google картах, на YouTube и вообще во всех сервисах Google. Все это так или иначе используется для ранжирования.
Какие поведенческие факторы четко ясны после прочтения документа:
- CTR вашего сайта в выдаче – если на сайт не кликают – это очень плохо.
- Доля длинных кликов – это когда пользователь кликнул на ваш сайт и вовлекся в контент – т.е. остался на сайте на определенное время. Точное время в документе не указано – но для каждой ниши свои данные Это еще раз подтверждает важность качества контента.
- Выделен негативный фактор ранжирования: если пользователь зашел на ваш сайт и сразу вернулся на выдачу – вы получите штраф в ранжировании.
- Не все клики с поиска одинаково влияют на ранжирование – какие-то больше, какие-то меньше.
- У гугла есть специальный алгоритм защиты от клик-спама (что явно указано в документации) – он делит всех пользователей на доверенных (с историей в гугл хроме) и на недоверенных – с недостаточной историей. Именно поэтому у многих и не получается накручивать поведенческие факторы в Google. Но детально покопавшись в документации я думаю можно найти ключик. За это отвечает алгоритм NevaBoost – похоже, теперь он имеет один из самых сильных вкладов в ранжирование.
❗️ Как это применять
Нужно делать максимально релевантные тайтл и дескрипшн и немного разбавлять кликбейтом – чтобы выигрывать клики у конкурентов. Но ваш первый и второй экраны должны быть безупречными, и сразу давать понять пользователю, что он попал туда куда он ожидал, и получит ту информацию, которую искал.
🖐 Привет всем любителям мусорного AI-контента
Да, у Google есть песочница для молодых сайтов – теперь это явно подтверждено. В документе есть фактор HostAge и описании, к нему явно написано – это возраст домена, который мы начинаем учитывать с момента первого посещения сайта роботом. Также там указано, что цель этого фактора – защитить гугл от спама, который размещается на новых сайтах. Привет дорвейщикам 🖐.
❗️ Как это применять
Если вы делаете новый сайт или запускаете новый бизнес – сделайте сайт на Тильде из 5-10 страниц и добавьте его в гугл — время будет работать на вас.
🔗 Ссылки
Ссылки – про них довольно много информации в документе, выделим самые важные.
- Ссылки все еще являются важным сигналом ранжирования, и нет никаких фактов, указывающих, что их влияние снижается. Ну то есть первый вывод – да, продолжаем ставить ссылки – это работает.
- Траст или качество ссылки во многом оценивается трастом главной страницы донора. То есть нет никакого смысла ставить много дешевых ссылок с мусорных сайтов.
- Передаст ли ссылка вес или нет – во много может зависеть от кликовых и трафиковых показателей донора. Привет всем 🖐, кто покупает дешевые ссылки в GoGetlinks с сайтов без трафика.
- В документе целая куча факторов про ссылочный спам и самые интересные здесь следующие, что Google разделяет анкоры на спамные и не спамные и у них есть соответствующий классификатор. Гугл учитывает процент спамных анкоров во всем анкор листе сайта — то есть можно спамить, но аккуратно —
- Гугл учитывает скорость прироста ссылок и есть отдельный фактор про ссылочный взрыв. Поставили много ссылок разом – получили штраф. Теперь официально.
- Нашел интересный фактор, что для очень молодых сайтов, есть специальный фактор, который защищает новые сайты от пессимизации за большое количество ссылок. Иными словами – самые первые ссылки могут быть анкорными, и это ОК. Наверное, логика здесь такая, чтоб не пессимизировали сайты, которые запускаются с поддержкой диджитал PR и сразу получают много ссылок.
- Ссылки со СМИ заведомо считаются хорошими.
- Для трастовых сайтов – спамные анкоры признаются не спамными – официально. Капитализм во всей красе – богатые богатеют и могут спамить как хотят.
❗️ Как это использовать
Фокус только на ссылках с авторитетных ресурсов – лучше поставить 2 ссылки с авторитетных сайтов, чем 10-15 с каких-то мутных сайтов без трафика. Они могут вообще не работать.
- Ссылки со СМИ работают лучше. Можно спокойно ставить анкорные.
- Основная метрика оценки донора – его трафик и количество ссылок на главную.
🎯 Метрики качества сайта и контента
В документе реально много упоминаний оценки качества сайта и контента. Особенно интересны следующие моменты:
- Есть четкий параметр траста сайта – SiteAuthority – это авторитетность сайта в целом, на основе всех факторов.
- Есть фактор, который отвечает за качество сайта на основе поведения пользователей. То есть тот же траст, но основанный только на поведении пользователей.
- Есть отдельная метрика, оценивает среднее качество всех статей на сайте. Я говорил в своих видео, что некачественный контент будет тянуть на дно качественный контент на вашем сайте.
- Каждая страница оценивается еще и отдельно на основе метрик удовлетворенности пользователей.
- Гугл отлично понимает, кто автор статей на сайте, видит и пытается связать автора с компанией и всем его публикациями в интернете.
Отсюда можем сделать вывод – что траст сайта это многокомпонентный параметр и один из самых важных для SEO. И важно понимать что траст рассчитывается не только на основе ссылок с Forbes или Википедии, а еще и на основе реального поведения пользователей.
📜 Контент
- Метатеги все еще очень важны – не забывайте про тайтл и дескрипшн.
- Из документа понятно, что гугл умеет определять темы и микро-подтемы в каждой статье. А с помощью NLP умеет определять, на сколько ваша статья покрывает все микроподтемы соответствующие запросу.
- Гугл умеет понимать есть ли в вашей статье какая-то уникальная часть, ваша личная точка зрения или же это просто рерайт
- Гугл умеет определять, когда страница обновлялась. И у него есть фактор СУЩЕСТВЕННОЕ ИЗМЕНЕНИЕ КОНТЕНТА – т.е когда вы пытаетесь читерить с датой обновления – большой брат все видит. Не прокатит 🥺.
- В алгоритме немало факторов ранжирования, которые отвечают собственно за качество контента.
Как только у меня будет чуть больше времени на изучение документа – я обязательно выложу другие интересные факторы гугла, которые относятся к ранжированию контента.
❗️ Как это использовать
- Чтобы попасть в ТОП – нужно покрыть все микротемы внутри статьи.
- Вы должны закрывать интент пользователя, т.е. решить ту задачу, за которой он пришел, или статья будет считаться неполезной и не будет занимать высокие позиции в ТОПе. Именно для этого гугл оценивает вовлеченность пользователя в контент.
- Нужно представить контент с какой-то уникальной точки зрения – раскрыть проблему так, как ее еще никто не раскрывал в ТОПе.
- Свежесть важна – нужно обновлять контент каждые 3-6 месяцев, в зависимости от конкурентности вашей ниши.
А теперь информация для моих маленьких любителей поспамить и вывести свой сайт в ТОП максимально быстро и не совсем белыми методами. В текущем сливе есть весьма интересные факторы антиспама – их я выложил в моем телеграмме-канале. Поэтому переходите по ссылке в описании прямо к этому посту.
Если правильно интерпретировать эти факторы – можно кое-где срезать углы.
🦸🏻♂️ Про теории заговора – которые оказались весьма реальными
- Первое, что стоит уяснить: не стоит доверять никаким официальным лицам компании Google – т.к. все их заявления делаются только в их интересах. Практически все, что они писали у себя в официальных твиттер-аккаунтах оказалось враньем. То есть они специально вводили все маркетинг и SEO комьюнити в заблуждение. Давайте пройдемся по фактам:
- Представители гугл заявляли, что не используют информацию о поведении пользователей в ранжировании. А оказалось, что активно используют и следят за своими пользователями с помощью Google Chrome.
- Они заявляли, что нет никакой песочницы на старте. А оказалось, что есть – они специально занижают в ранжировании молодые сайты. И не важно с благими намерениями для защиты от спама или еще с какими – факт что их официальные лица врали в очередной раз.
- Они говорили, что понятия траста не существует. Оказывается, существует да еще и несколько типов траста.
- Компания гугл уже несколько лет утверждает, что роль ссылочных сигналов снижается. Не снижается.
- Также судя по данным из утечки — гугл имеет белые списки сайтов, которые искусственно повышает в ранжировании – например, в сфере путешествий.
- А есть и черные списки сайтов, которые никогда не попадут в ТОПы поиска – сайты с неугодным мнением про ковид и сайты сторонников одной из двух политических партий США, которых не устраивает текущая политика. Вот такая вот демократия)).
Надо отметить, что в черных списках есть сайты, которые действительно не должны попадать в ТОПы выдачи – это сайты педофилов и прочей нечисти. Тут все верно, спору нет.
Это только часть того, на чем поймали гугл в рамках исследования этого документа и в рамках недавнего судебного заседания. Почитать о других грехах корпорации можно в статье у Ренда Фишкина, который, собственно, и выложил этот документ в паблик. Ссылку на его статью и статью его коллеги оставлю в описании.