Автор: Gianluca Fiorelli

Оригинальное название статьи: «Распространенные ошибки конфигурации, обнаруженные на веб-сайтах, которые были удалены с последними обновлениями Core и HCU: два тематических исследования»

Первоисточник: https://www.iloveseo.net/common-misconfigurations-found-in-websites-that-dropped-with-the-latest-core-and-hcu-updates-two-case-studies/

Почти год назад Google начал серию обновлений, которые следовали одно за другим настолько быстро, что в мире SEO заговорили о «бесконечном сезоне обновлений Google».

Быстрая последовательность трех основных обновлений (Core Updates) в августе, октябре и ноябре, обновление полезного контента (Helpful Content Update) в сентябре, обновление спама (Spam Update) в октябре и обновление отзывов (Review Update) в ноябре означали внезапную «смерть» для многих веб-сайтов или драматическое падение для других.

Мартовское основное обновление 2024 года и мартовское обновление спама 2024 года не принесли значительных улучшений для многих веб-сайтов, пострадавших от предыдущих обновлений. Напротив, во многих случаях ситуация даже ухудшилась.

Как это случилось и с другими SEO-специалистами, многие веб-сайты обратились ко мне за помощью в анализе причин их падения, что означает, что у меня была возможность исследовать обновления Google на довольно большой выборке случаев, чего не было со времен Panda и Penguin.

Однако, даже если я делюсь реальными примерами и, хотя и с цензурой, настоящими скриншотами из Google Search Console и других инструментов, я не буду раскрывать названия веб-сайтов, которые я анализировал, из-за соглашений о неразглашении и из уважения к моим клиентам.

С другой стороны, я думаю, что раскрытие названий веб-сайтов не добавило бы реальной ценности к тем выводам, которыми я поделюсь о том, почему их органический трафик упал и какие действия клиенты и я начали предпринимать для исправления ситуации.

Пример исследования первый: "Падение Римской империи"

Падение Римской империи

Иногда проверка не может показать нам реальное состояние деградации, которую испытывает веб-сайт.

Каким-то образом она предоставляет нам картину, похожую на ту, что вы видите выше: древние здания, которые имеют явные недостатки, но все еще кажутся способными выполнять практическую функцию.

Технически испанский портал, который содержал новости и специальные целевые страницы для привлечения пожилых людей и который меня попросили проверить, выглядел относительно хорошо и не представлял никаких драматических проблем.

Однако Google ударил по нему почти при каждом основном обновлении:

Обновление Google

Одна вещь привлекла мое внимание, благодаря тому, что я настроил crawler на обход также органических целевых страниц, которые он мог получить из Search Console и Analytics: наличие многих страниц-сирот.

Страница определяется как сирота – как вы наверняка знаете – когда на нее не ссылается ни одна страница веб-сайта, но она все еще индексируема.

Часто они перечислены только в XML Sitemap, но это был не тот случай: это были старые страницы, которые по какой-то причине все еще были живы… много страниц.

Я начал анализировать их и тянуть за нитку, и вскоре обнаружил, что это были URL-адреса архитектуры сайта, существовавшей до нынешней, и такой, что она не только каннибализировала текущую категоризацию портала, но и предлагала противоречивую информацию о самой структуре контента не только для поисковой системы, но и для пользователя.

Проблемы, однако, никогда не приходят в одиночку, не в этом случае.

Также многие статьи, присутствующие в этих категориях-зомби, оказались сиротами, многие были очень старыми, и их содержание уже не актуально.

Например, в подкатегории «Новые технологии» была интересная статья с инструкциями о «Microsoft Word 2003» или КПК.

Однако не делайте ошибку, делая поспешные выводы. Не весь «старый» контент должен быть удален.

Проблема возникает, когда целые категории состоят только или в основном из старого контента, и это был случай для многих категорий портала, который я анализировал.

Проблема устаревания контента, однако, затронула не только эти категории-сироты, но и те, которые регулярно обходятся роботами в рамках веб-сайта, которые, теоретически, должны были представлять большее присутствие свежего или возможно обновленного контента.

Google трафик
Доказательства того, как обновление Core Update от октября 23 года коснулось статей портала. Они испытали похожее поведение в марте 24 года.

Свидетельство того, как октябрьское основное обновление 2023 года ударило по статьям портала. Они испытали подобное поведение в марте 2024 года.

Давайте вспомним, что этот портал нацелен на аудиторию пожилых людей, и что, следовательно, многие его категории посвящены здоровью, психологии, пенсиям, решениям, таким как дома престарелых, наследство и другие юридические темы.

Другими словами, темы, которые легко попадают в концепцию YMYL (Your Money or Your Life — Ваши деньги или ваша жизнь) и для которых, по крайней мере официально, Google уделяет особое внимание с точки зрения качества, корректности и актуальности предоставляемой информации.

Даже просто используя анкету, которую Google представляет о «Создании полезного, надежного, ориентированного на людей контента», для многих статей на портале ответы были бы «нет».

Веб-сайт представлял важные проблемы также в других разделах, которые когда-то были очень успешными, многие из них играли с концепцией ностальгии, такие как биографии известных людей, чьими фанатами является/была целевая аудитория, «что произошло в этот день», «дорогие воспоминания» и т.д.

Все эти разделы не поддерживались с течением времени, вызывая серьезные проблемы, такие как биографии, говорящие о некоторых людях, как будто они все еще живы, когда они умерли уже несколько лет назад, или короткие статьи о телесериалах, представляющие очень старые встроенные видео с YouTube с очень низким качеством.

Возможно, владелец веб-сайта слишком буквально воспринял старую фразу: «Если оно работает, не меняй его»… но пользователи не оценили среднее качество этих страниц, как показывали метрики вовлеченности (время на странице, показатель отказов, страниц за сеанс) в Google Analytics.

Если рассматривать эти проблемы по отдельности, они могут не считаться настолько серьезными, настолько, что даже кажутся классическими проблемами, которые откладываются на конец спринта, потому что есть другие вещи для решения, которые воспринимаются как более важные.

Однако со временем они накапливаются, и именно накопление мелких проблем, которые похожи, вокруг которых вращается вся дискуссия Google о концепции «порога», за которым проблема может вызвать негативную оценку общего качества веб-сайта.

Какие исправления были запланированы для реализации?

Первой рекомендацией, которую я дал клиенту, было оптимизировать архитектуру веб-сайта, чтобы создать большую согласованность его элементов и устранить избыточные, если не даже дублированные.

Второй, как вы можете догадаться, было установление процесса обновление и чистки контента.

Однако, помимо удаления наиболее очевидного старого и низкокачественного контента, при планировании процесса я также учитываю метрики, которые часто не рассматриваются в SEO, такие как:

Просмотры страницы, то есть сколько раз страница была просмотрена.
Сколько сеансов и общих пользователей попали на страницу из каналов, отличных от органического?
Насколько каждая страница способствовала, если способствовала, конверсиям и микроконверсиям?

А также эти менее рассматриваемые SEO-метрики:

  • Количество ключевых слов, по которым каждая страница генерировала показ в Google Search.
  • Количество и качество обратных ссылок, которые имеет каждая страница.
  • Насколько каждая страница способствует внутренней перелинковке с помощью встроенных ссылок в контенте?

Затем я установил следующие правила:

  • Если собранные метрики в основном плохие, контент должен быть помечен для удаления.
  • Если они в основном положительные, контент должен быть помечен для обслуживания и его регулярные обновления должны быть запланированы.
  • Если метрики очень хорошие, URL помечается как высокоприоритетный контент, то есть контент, чьи показатели должны отслеживаться регулярно, его качество улучшаться (например, изменение встроенного видео в случае с YouTube) и, если это необходимо, обновляться перед всеми остальными, чтобы поддерживать свежесть.

Пример исследования второй. Когда слишком много программного SEO - это слишком много

Другой клиент, веб-сайт, специализирующийся на сельских домах, который обратился ко мне из-за того, что пострадал от обновлений Google, также определил причину своих проблем в своем контенте.

Диагноз клиента: Обновление полезного контента (Helpful Content Update).

Самым важным разделом веб-сайта с точки зрения органического трафика был его блог, и его видимость уменьшилась в совпадении с развертыванием HCU:

Обновление полезного контента

Обвинение Обновления полезного контента было, на первый взгляд, правильным: доказательства были ясны, так как блог потерял позиции почти по 2500 ключевым словам в топ-10:

Позиции блога

Как вы можете легко заметить, в среднем потери составляют около 2-3 позиций, но этого достаточно, чтобы представлять важное снижение CTR, следовательно, органического трафика.

Однако это не похоже на классическое уничтожение, примеры которого мы видели много в сентябре 2023 года, а нечто более мягкое.

Более того, классические проблемы, вызывающие HCU, в данном случае не применяются:

  • Это «корпоративный» блог, который не полагается на рекламу для получения дохода,
  • Авторы не анонимны (напротив, они хорошо известны в отрасли и считаются экспертами).
  • Сам веб-сайт не является «еще-одним-туристическим-партнерским-веб-сайтом», а признанным порталом в своей нише.
  • Наконец, казалось, что это был единственный, кто терял видимость для типа контента, который другие десятки веб-сайтов публиковали и все еще публикуют почти в том же стиле:
Видимость сайта

А как насчет сезонности?

Ниже вы можете видеть, насколько уменьшились поиски «Сельские дома» в Испании между второй неделей августа и второй и третьей неделями сентября:

График сезонности

Меня бы не удивило увидеть, как SEO-видимость веб-сайта уменьшается и увеличивается, следуя сезонным паттернам.

Google Search Console также не указывала на потерю трафика во время и сразу после HCU:

Google Search Console

Были потенциальные проблемные паттерны, которые могли вызвать легкий удар, некоторые из которых, несомненно, оказали более сильное влияние позже на уже ослабленный веб-сайт (март 2024 года), но многие из них были общими с другими веб-сайтами, которые не получили никакого негативного эффекта от HCU.

Поэтому я решил устранить шум блога из моих анализов и исследовать раздел каталога сельских домов, и там я нашел то, что считаю причиной обновления, которое действительно представляло реального «Балрога» для этого веб-сайта: октябрьское основное обновление 2023 года (снова).

Если вы снова посмотрите на график Search Console выше, вы можете заметить, как это соответствует октябрьскому основному обновлению (и обновлению спама):

Изменение трафика

Потеря очевидна, и используя SISTRIX для просмотра рейтингов, доказательство было в том, что 56 989 не блоговых ключевых слов из 65 769, ранжированных в Топ-10, потеряли позиции.

Была ли потеря связана с тем, что Google что-то изменил в том, как он формировал результаты поиска? Не совсем. Функции поиска были практически такими же, как и до обновлений, так же как и воспринимаемые поисковые намерения.

Архитектура, снова, была раздута до чрезвычайно высоких и опасных пределов через программное SEO, генерируя тысячи новых категорий и страниц с фасетной навигацией, что вызвало:

  • Тонкий контент, то есть списки только одного или двух сельских домов, если не вообще отсутствие перечисленных сельских домов.
  • Существенное дублирование контента, когда две местности имели одни и те же сельские дома из-за того, как была разработана база данных.
  • Чрезвычайно высокое размытие ссылочного веса из-за слишком масштабной политики внутренней перелинковки, вызывающее «высыхание» «авторитета» наиболее важных PLP (Product Listing Pages — страниц списка продуктов).
  • Большинство этих PLP не имели поискового объема, что — учитывая относительную важность сигналов вовлеченности пользователей на SERP — переводилось в 0 кликов и почти 0 показов.

Самым очевидным случаем был раздел, созданный для представления сельских домов вблизи некоторых важных достопримечательностей.

Хотя это интересная идея, она может вызвать огромные проблемы, если довести её до предела.

Например, PLP была нацелена на «сельские дома рядом с Пуэрта-дель-Соль» (центральная площадь Мадрида) и другая на «сельские дома рядом с Парком Ретиро» (самый важный общественный парк Мадрида):

  • Сельские дома… сельские, поэтому не только странно рассматривать PLP об этом типе жилья в большом городе (в данном случае в столице). Другое дело, очевидно, поиск вроде «Сельские дома рядом с Мадридом».
  • Даже если бы «сельские дома» существовали в городе Мадриде, расстояние между Пуэрта-дель-Соль и Парком Ретиро настолько короткое, что сельские дома неизбежно были бы одними и теми же.
Google map

К сожалению, эта проблема не была диагностирована до моей консультации, которая произошла после того, как мартовское основное обновление 2024 года снова ударило по веб-сайту, и с еще большей силой.

Какие исправления были запланированы для реализации?

  • Очистка архитектуры для устранения всех фасетных навигаций и категорий PLP, которые считались бесполезными как для пользователей, так и для видимости веб-сайта.
  • Пересмотр и оптимизация базы данных сельских домов и правил для автоматизированного создания PLP (например, уменьшение географического радиуса, рассматриваемого для указания, что сельский дом связан с местоположением, который ранее был очень большим и вызывал существенные случаи дублирования).
  • Пересмотр и оптимизация автоматизированных правил внутренней перелинковки для лучшей приоритизации наиболее важных PLP.
  • Создание календаря для просмотра и оптимизации навигации и внутренней перелинковки для лучшего таргетинга направлений в зависимости от сезонности.

А как насчет блога?

Ранее я писал, что у него были проблемы, которые вызвали легкий удар HCU в сентябре.

Однако эти же проблемы, теперь в сочетании с PLP (помните, что Обновление полезного контента стало неотъемлемой частью общего алгоритма Google в марте 2024 года), создали идеальный шторм, который заставил блог потерять 50% своих кликов и показов:

Влияние алгоритма Google

Но почему — как видно также в сентябре — многие другие веб-сайты, создающие по существу тот же вид контента, не пострадали? Напротив, многие были вознаграждены лучшей видимостью.

Ключевое слово — «порог», как и в первом примере исследования.

Посмотрите на записи блога, которые потеряли больше всего трафика. Что у них общего?

таблица снижение трафика

Да, вы правы: записи блога были написаны по повторяющимся шаблонам в виде списков с не очень полезной информацией.

Не то чтобы веб-сайты конкурентов не делали то же самое, но клиент делал это в слишком большом масштабе.

Качество не было хуже, чем у других блогов, не пострадавших от мартовского основного обновления 2024 года (скажем так, они все представляют среднее качество), но частота и количество на блоге клиента были больше… настолько, что перешли порог толерантности к тому, сколько «низкого и среднего качества контента» Google, возможно, установил.

Рекомендации были следующими:

  • Преобразовать списки в страницы-столпы.
  • Сохраняя формат списка, сделать его более полезным, предлагая не общую информацию, доступную на каждом другом веб-сайте, а ответы на такие вопросы, как:
  1. Что мы не можем пропустить при посещении этого места?
  2. Что МЫ как эксперты в организации путешествий хотим подчеркнуть, что обычно не упоминается как обязательное для посещения?
  3. Предлагает ли оно интересные вещи для просмотра или посещения, если мы путешествуем с детьми или без них?
  4. Когда лучшее время для посещения этого места?
  5. Как мы можем добраться до этого места (не только на машине)?» и так далее.
  • Создать кластеры контента, которые подробно раскрывают тему, представленную в столпе (детальные руководства по отдельным Pueblos Bonitos или пешеходным маршрутам или замку X в местности Y…).
  • Оптимизировать внутреннюю перелинковку контентных хабов.
  • Оптимизировать внутреннюю перелинковку между связанным контентом, но принадлежащим к разным контентным хабам благодаря более умному использованию классических элементов, таких как теги.

Заключение

Эти два примера — лишь два случая из многих, которые я проанализировал, веб-сайтов, пострадавших от одного или нескольких обновлений, которые Google запустил год назад.

У некоторых были свои особенности, а некоторые были особенными, как, например, сайт, который вызвал кризис у Google, потому что после лет написания в основном футбольных новостей, также получая отличные обратные ссылки за свои эксклюзивные материалы, он внезапно решил удалить этот тип контента только для того, чтобы публиковать статьи о сплетнях, стирая всю историческую тематическую релевантность, которую он приобрел за годы работы.

Но в целом они все представляют шаблоны, общие с теми, что описаны в двух примерах исследований, представленных в этом посте.

Они следующие:

  • Прогрессивное снижение технического качества веб-сайта из-за — я не могу описать это по-другому — более расслабленного внимания, которое вызвало накопление тривиальных проблем сами по себе, но которые при накоплении становятся серьезными.
  • Ухудшение архитектуры веб-сайта, если не очень плохо структурированная архитектура с самого начала. Я никогда не устану настаивать, что многие проблемы SEO возникают из-за плохой архитектуры.
  • «En medio stat virtus,» говорили схоластические философы, перефразируя Аристотеля. И во всех случаях веб-сайт был наказан за то, что не смог поддерживать этот баланс. Программное SEO фантастично и обязательно к использованию во многих случаях; слишком много программного SEO неизбежно ведет к катастрофе. Или вы не должны настаивать на том же типе формата и контента только потому, что он «работает»; его постоянное повторение кажется неестественным, масштабированным и спамным.
  • Многие веб-сайты создавали контент, глядя на контент своих конкурентов, ранжирующихся лучше, вместо того, чтобы основываться на том, что их потенциальные пользователи хотят найти, и отвечать на эти поиски/потребности уникально и по-другому, чем другие. Почему Google должен вознаграждать очередной контент, который не говорит ничего отличного от других, которые, возможно, пользователи знают лучше и, следовательно, которым они доверяют больше, чем вам?

Помните, как я объяснял в предыдущем посте, сам Google ясно говорит нам в своих функциях поиска, какие вещи пользователи ищут, когда выполняют поиск. Очень немногие используют эти предложения, они просто «копируют» то, что делают другие. Затем они утверждают, что их контент лучше, но это та же старая каша под другим названием.

Наконец, обновления — особенно Основные обновления — затрагивают так много переменных, что вы не можете войти в Мордор и думать, что одно решение или несколько («убрать рекламу», «писать только о вещах, о которых у вас есть опыт» и подобные) могут действительно решить причины, по которым ваш или клиентский веб-сайт был негативно затронут ими, также потому, что иногда эти решения не могут быть реально реализованы (нет рекламы, так какая бизнес-модель может быть использована вместо этого? Прямой опыт? Не всегда вы можете иметь «прямой опыт» обо всем, что тематически связано с вашими основными темами).

Посвятите свое время глубокому анализу каждого раздела вашего веб-сайта, используя Search Console и Analytics, помогая себе Looker Dashboards, такими как Aleyda Solis, и расширениями, такими как GSC Guardian. Только так вы можете обнаружить истинные проблемные области.

Никогда не забывайте, что иногда может существовать возможность, что с веб-сайтом нет ничего плохого, но Google изменил SERP новыми функциями поиска и изменил поисковое намерение для тех запросов, по которым веб-сайт выдающе ранжировался, и это означает, что Поиск развивается, как должна развиваться и каждая SEO-стратегия.

Это завершает перевод статьи. Есть ли у вас какие-либо вопросы или нужны ли дополнительные пояснения?

Поделиться
Репостнуть
Твитнуть