Полный обзор, анализ и восстановление
Автор: Эрик Ланчерес (SEO-исследователь и основатель On-Page.ai)
Перевод статьи: https://on-page.ai/pages/google-march-2024-core-update/
Последнее обновление: 6 мая 2024 г.
1. График Обновления Google за Март
Вынуждены принять решительные меры
Поскольку на Google нарастает давление, требующее решения проблемы роста низкого качества AI-контента в результатах поисковых систем, были приняты радикальные решения.
В прошлом Google пытался максимально избежать сопутствующего ущерба, осторожно выпуская обновления, которые были ошибочными; однако с мартовским базовым обновлением это один из немногих случаев в истории поиска, когда Google принял решительные меры по ограничению спама, даже ценой воздействия на законных и ценных веб-издателей.
Этот отчет посвящен тем законным веб-издателям и SEO-агентствам, на которых несправедливо повлияло последнее драконовское обновление Google March Core в марте.
Мартовское обновление March Core, официально выпущенное 5 марта 2024 года, было выпущено вместе с мартовским обновлением «Спам в ссылках». Влияние мартовского основного обновления (MCU) началось 5 марта, а 8 марта многие веб-мастера испытали серьезные падения. Внедрение завершилось 19 апреля 2024 г. (Источник)
Обновление от 6 мая: Несмотря на объявление Google 5 мая о значительном внедрении мер по борьбе с паразитным SEO, серьезных колебаний рейтинга не наблюдалось.
График органического трафика веб-сайта Ahref, затронутого Обновлением March Core. Резкое падение трафика произойдет 5 марта 2024 года и продолжит снижение.
March Core строится на основе недавнего обновления «Полезный контент», и если предыдущее обновление затронуло вас, то, скорее всего, обновления March Core также затронуло вас. Кроме того, Google также выпустил обновление «Ссылочный спам» (Источник), о котором я расскажу в этом отчете.
Если вы столкнулись с падением трафика в течение последних нескольких месяцев и заметили, что ваш трафик упал до рекордно низкого уровня, будьте уверены — вы попали в нужное место, чтобы получить ответы и решения.
2. Официальные Заявления по Поводу Обновления March Core, Выпущенного в Марте 2024 г.
Получите бесплатно стратегию, в которой мы:
- Проведем комплексный SEO-аудит вашего сайта
- Выявим все возможности для роста трафика
- Рассчитаем прогноз увеличения заявок и продаж

Из официального блога
Хотя я согласен со многими экспертами по поисковым системам в том, что Google иногда предоставляет SEO-сообществу немного вводящую в заблуждение информацию, я все же считаю, что просмотр официальной документации в поисках подсказок имеет определенную ценность.
Вот некоторые официальные заявления о мартовском обновлении March Core:
«Новые способы борьбы со спамом и некачественным контентом в Поиске. […] Мы совершенствуем Поиск, чтобы вы видели больше полезной информации и меньше результатов, которые кажутся предназначенными для поисковых систем». (Источник)
Хотя я стараюсь не слишком часто вдаваться в подробности, заголовок и подзаголовок сразу сообщают, что:
А) Они представили «новый» способ борьбы с некачественным контентом. (Новый алгоритм)
Б) Они гонятся за результатами, созданными специально для поисковых систем.
Интересно, что Google больше не просто упоминает чистый спам, а наоборот теперь относится к «низкому качеству» с той же серьезностью, что и к чистому спаму.
«В 2022 году мы начали настраивать наши системы ранжирования, чтобы уменьшить количество бесполезного и неоригинального контента в Поиске и поддерживать его на очень низком уровне. Мы привносим то, что узнали из этой работы, в основное обновление March Core в марте 2024 года.
Это обновление включает в себя доработку некоторых наших основных систем ранжирования, чтобы помочь нам лучше понять, являются ли веб-страницы бесполезными, неудовлетворительными для пользователей или ощущением, будто они созданы для поисковых систем, а не для людей. Сюда могут относиться сайты, созданные в первую очередь для соответствия очень специфическим поисковым запросам». (Источник)
Как заметили многие веб-мастера, Google заявляет, что это продолжение обновления полезного контента. Следовательно, если на вас повлияло обновление Полезного Контента, то, скорее всего, на вас также повлияло мартовское обновление March Core. Однако положительный момент заключается в том, что если вы сможете восстановиться после мартовского обновления, вы, скорее всего, также восстановитесь и после обновления полезного контента.
Они еще раз заявляют, что сосредотачиваются на «достижениях пользователей», которые исторически измерялись с помощью различных методов, начиная от отслеживания кликов по результатам поиска и заканчивая использованием веб-данных из различных сторонних источников (Chrome, Android и т. д.). Кроме того, они впервые упоминают, что преследуют сайты, предназначенные для соответствия «очень конкретным поисковым запросам».
Далее в отчете я попытаюсь объяснить, почему это так и что можно с этим сделать.
«У нас уже давно существует политика против использования автоматизации для создания некачественного или неоригинального контента в больших масштабах с целью манипулирования поисковыми рейтингами. Эта политика изначально была разработана для решения случаев, когда контент создается в больших масштабах, когда было ясно, что автоматизация вовлеченный.
Сегодня методы создания масштабируемого контента стали более сложными, и не всегда ясно, создается ли контент исключительно посредством автоматизации». (Источник)
В этом последнем обновлении Google утверждает, что ввел меры для масштабного решения проблем с контентом. Хотя это не новость, интересно то, что Google признает, что в наши дни не всегда ясно, когда контент создается с помощью автоматизации. Несмотря на то, что существует множество методов обнаружения ИИ (мы разработали и имеем инструмент для On-Page), уровень обнаружения сильно различается, и может произойти множество ложных срабатываний. Мы рекомендуем пользователям быть осторожными и не слишком полагаться на результаты систем обнаружения искусственного интеллекта. Судя по всему, Google занимает аналогичную позицию.
Google признает, что использование прямого обнаружения ИИ не является надежным способом обнаружения контента низкого качества, и поэтому предполагается, что они разработали альтернативный метод обнаружения контента низкого качества.
Расскажем, как быстро увеличить продажи


Заполните форму, чтобы получить пошаговый план:
- Разработаем персональную стратегию для вашего сайта
- Проведем в zoom разбор стратегии совместно с нашей командой
«Это позволит нам принимать меры в отношении большего количества типов контента, практически не создавая никакой ценности в масштабе, например, страницы, которые притворяются, что имеют ответы на популярные поисковые запросы, но не могут предоставить полезный контент». (Источник)
Google еще раз заявляет, что они нацелены на страницы, которые «не работают». Исторически Google добился этого, оценивая достижения пользователей. Если Google отправляет пользователя на веб-страницу, и этот пользователь возвращается в Google для повторного поиска того же термина, Google может сделать вывод, что пользователь не нашел соответствующую информацию и, следовательно, страница не смогла предоставить обещанную информацию.
«Злоупотребление Репутацией Сайта. Теперь мы будем считать спамом очень малоценный сторонний контент, созданный в первую очередь для целей ранжирования и без пристального контроля со стороны владельца веб-сайта. Мы публикуем эту политику за два месяца до вступления в силу 5 мая, чтобы дать владельцам сайтов время внести необходимые изменения». (Источник)
На момент составления отчета это еще не было реализовано. Скорее всего, это будут ручные действия, предназначенные для небольшой группы веб-сайтов, на которых размещен паразитный контент.
«Домены с истекшим сроком действия, которые приобретены и перепрофилированы с целью повышения поискового рейтинга некачественного контента, теперь считаются спамом». (Источник)
Google говорит об этом уже более десяти лет. Хотя странно, что они повторяют, что перепрофилированные домены с истекшим сроком действия считаются спамом, скорее всего, это всего лишь намек на то, что они обновили/улучшили часть своего алгоритма обнаружения во время мартовского обновления March Core.
Вероятно, это незначительное обновление, которое касается следующего сценария.
ЕСЛИ (условия соблюдены):
- Согласно данным WHOIS, право собственности на веб-сайт было передано менее 3 месяцев назад.
- Веб-сайт начинает масштабное развертывание контента. (т. е. тысячи сообщений в день после передачи WHOIS)
- Контент не соответствует тематике контента до передачи права собственности на сайт.
ТОГДА (действия, которые необходимо предпринять):
- Оштрафовать сайт.
Это позволит устранить самые наглые злоупотребления доменами с истекшим сроком действия, заполненными контентом ИИ. Однако для тех, кто хочет продолжить эту практику, вероятным решением будет покупка домена с истекшим сроком действия, который тематически соответствует контенту, который вы планируете публиковать. Затем, вместо того, чтобы немедленно открывать шлюзы, вы можете масштабировать контент, медленно подавая его капельно, планируя его выпуск с линейной скоростью.
«Поскольку это сложное обновление, развертывание может занять до месяца. Вероятно, колебания в рейтингах будут больше, чем при обычном основном обновлении, поскольку разные системы полностью обновляются и усиливают друг друга». (Источник)
Это говорит мне о том, что обновление повлекло за собой изменения в алгоритме связи. ПРИЧИНА, по которой изменение ссылок занимает до месяца, заключается в том, что мощность ссылки на одной странице повлияет на последующие страницы.
Когда Google объявляет о колебаниях в течение месяца, это обычно означает, что мощность ссылочных узлов меняется (и когда это происходит, ситуация сильно меняется, поскольку оценки ссылок пересчитываются).
ОЧЕНЬ возможно, что Google представил новый компонент метрики ссылок в своей системе ссылок, что означает, что рейтинг ссылок для каждой страницы необходимо пересчитывать.
3. Заявления представителей Google по Поиску и Инженеров Google
Кроме того, у нас была серия недавних необычных (и, честно говоря, немного наглых) сообщений в Твиттере из официального профиля Google Search Liaison в Твиттере. Хотя поначалу я был ошеломлен необычно неотшлифованными и импровизированными сообщениями, исходящими с официального сайта Google, чем более импровизированным является сообщение, тем больше вероятность того, что оно будет содержать тонкую информацию, которая не предназначена для разглашения.
Помимо сообщений с канала Twitter Search Liaison, мы рассмотрели подсказки Джона Мюллера, инженера Google.
В этом официальном заявлении Search Liaison выделено несколько элементов:
1. Google пытается вознаграждать за удобство использования страниц. (Мы можем предположить, что многие хорошие впечатления от страницы приравниваются к хорошему восприятию сайта)
2. Чрезмерное количество рекламы может косвенно снижать рейтинг, однако оно не является прямым фактором ранжирования.
3. Основные веб-показатели являются прямым фактором ранжирования.
В течение всего марта служба Google Search Liaison была в значительной степени сосредоточена на продвижении хорошего пользовательского опыта как основного фактора, который Google пытается вознаградить.
Этот отрывок также предполагает, что они уделяют очень пристальное внимание тому, как пользователи взаимодействуют с вашим контентом.
Удивительно, но я впервые вижу, чтобы Google упомянул слово «удовлетворение», которое связано с удовлетворением намерений пользователя. Это словоблудие, используемое в патентах, но редко упоминаемое представителями Google.
Нехарактерно неотшлифованные и импровизированные сообщения, исходящие от официального Google Search Liaison, намекают на разочарование Google в оптимизаторах поисковой оптимизации. Хотя здесь нет никакой новой информации, это напоминание о том, что Google не ищет конкретный элемент на странице для определения качества, а вместо этого концентрируется на том, как пользователи взаимодействуют со страницей.
Официальный совет Google:
- Доступ к консоли поиска
- Определите самые популярные страницы вашего сайта.
- Сравните трафик за последние 3-6 месяцев.
- Если страница упала, внимательно изучите саму страницу, чтобы определить, считается ли ее содержимое полезным.
Проверка ваших главных страниц — хороший совет, поскольку обычно она выявляет повторяющиеся проблемы, которые могут повторяться по всему вашему веб-сайту. (И мы можем предположить, что самые популярные страницы, которые привлекают больше всего трафика, также будут отвечать за большую часть пользовательского опыта вашего сайта.)
Это забавно противоречит совету Джона Мюллера, инженера Google, приведенному ниже.
В конечном счете, они оба правы и предлагают разные подходы к решению основной проблемы. Джон Мюллер, похоже, признает, что текущее мартовское обновление March Core является обновлением всего сайта, и поэтому вам необходимо улучшить весь сайт, чтобы восстановиться.
С другой стороны, Search Liaison, скорее всего, предполагает, что для улучшения всего сайта вы должны сначала начать с одной страницы, а затем работать над остальными, как только вы обнаружите повторяющиеся проблемы.
Это дополнительно подтверждает Джон Мюллер, утверждая, что мартовское обновление March Core это:
- Переоценка всего сайта. (Сигнал всего сайта / Оценка)
- На основе ожиданий пользователей (Опыт / Удовлетворение намерений пользователя/ и т. д.)
Вот почему мы наблюдаем падение целых веб-сайтов, даже если на них есть хорошие страницы.
Наконец, Google заявляет, что они способны идентифицировать «надежную информацию», которая может просто сопоставлять информацию с существующей базой знаний… однако, по моему опыту, они в основном просто наблюдают за тем, как люди взаимодействуют с контентом, чтобы определить, является ли контент «надежным».
Мы видели много случаев, когда Google представлял ложные/неточные данные в фрагменте поиска, поэтому я очень сомневаюсь, что существуют процессы для понижения рейтинга неточной информации.
На мой взгляд, важным выводом из сообщения Google является то, что мартовское обновление March Core представило новый сигнал для всего сайта, который пытается измерить и количественно оценить взаимодействие с пользователем веб-сайта. Хотя это не ново (Google уже почти десять лет уделяет большое внимание пользовательскому опыту на всех сайтах), они, похоже, приняли новый подход, который имел серьезные последствия для некоторых действительно полезных сайтов.
4. Статистика, Графики, Цифры
Данные До и После
Прежде чем мы углубимся в теории, ручной анализ и потенциальные пути восстановления, я подумал, что было бы полезно просмотреть конкретные данные March Core. У меня есть доступ к довольно большому количеству данных, и поскольку мы уже много лет отслеживаем колебания поисковых систем для предыдущих обновлений Google Core.
Вот результат сравнения более 121 000 точек данных ДО и ПОСЛЕ во время мартовского обновления March Core. Обратите внимание, что корреляция не означает причинно-следственную связь. Эти диаграммы дают представление о постоянно меняющейся поисковой среде.
До: середина-конец февраля 2024 г.
После: начало апреля 2024 г.
Среднее количество слов на странице #1
Исторически среднее количество слов было довольно стабильным. Вот почему я считаю, что сокращение среднего количества слов на 9,9% после обновления March Core в марте 2024 года — это немного необычно.
Это указывает на то, что в среднем в результатах поисковых систем более ранжируется короткий формат контента.
Несмотря на этот результат, я должен подчеркнуть, что диапазон длины контента для конкурентоспособных ключевых слов может сильно различаться. (От 350 слов до 4000 и более слов для более сложных терминов).
Хотя средний мировой показатель, похоже, снизился, на мой взгляд, было бы ошибкой пытаться сделать весь ваш контент короче (или длиннее) на основе этих данных.
Во-первых, Google открыто заявил, что количество слов само по себе не является фактором ранжирования. (Источник)
Во-вторых, согласно моему внутреннему тестированию, более короткий контент часто (но не всегда) приводит к снижению вовлеченности, поскольку посетители быстрее уходят. При прочих равных условиях более длинный и подробный контент обычно приводит к более длительным сеансам посетителей и кажется более ценным. Если вы можете поддерживать высокую плотность объектов (подробнее об этом позже), то обычно выигрывает более длинный контент.
Если вам нужна более точная оценка длины вашей статьи по сравнению с конкурентами, существуют отличные инструменты оптимизации, которые могут дать вам точное целевое количество слов для вашего конкретного ключевого слова.
Я лично считаю, что сообщения и темы Reddit могли существенно повлиять на показатель количества слов, поскольку большинство страниц Reddit часто содержат всего 350-800 слов… а Reddit в наши дни ранжируется практически по всем показателям.
Среднее количество подзаголовков H2
Основные подзаголовки h2 Google March
Среднее количество подзаголовков H2 на первой странице результатов Google осталось практически прежним. Я считаю, что это признак того, что внутристраничная часть алгоритма Google не изменилась во время этого обновления.
Среднее количество подзаголовков H3
Основные подзаголовки третьего полугодия марта
Среднее количество подзаголовков H3 на первой странице результатов Google остается прежним. Я считаю, что это признак того, что Google не внес каких-либо значимых изменений в методы оценки традиционных факторов ранжирования на странице.
Среднее количество подзаголовков H4
Подзаголовки основного H4 марта
Среднее количество подзаголовков H4 уменьшилось на 7,4%. Лично я считаю, что это также находится в пределах погрешности, поскольку подзаголовки H4 используются редко по сравнению с подзаголовками H2, H3, и мы ожидаем, что этот показатель будет колебаться больше, чем другие, в зависимости от сайтов, которые занимают рейтинг.
Среднее количество изображений в основном контенте
Подсчет основных изображений в марте
Среднее количество изображений в основном контенте снизилось на 7,7%.
Как и в случае со словами, я бы сказал, что изображения могут быть полезными и улучшать общее впечатление от страницы. По моему личному тестированию, статьи, содержащие 3 и более изображений, превосходили статьи с одним изображением.
Кроме того, еще в 2021 году я провел обширное тематическое исследование, сравнивая статьи без изображений и изображения. Ни для кого неудивительно, что результаты тематического исследования показали, что статьи с изображениями имеют более высокий рейтинг.
В последнее время Google отдает предпочтение таким сайтам, как Reddit, LinkedIn и старым форумам TripAdvisor, которые обычно содержат мало изображений или вообще не содержат их. Я бы сказал, что наблюдаемое снижение среднего количества изображений связано не с тем, что изображениям не хватает ценности, а скорее с типом сайтов, которые Google вознаграждает.
Оценка релевантности
Базовый показатель релевантности за март
Оценка релевантности — это уникальная метрика On-Page.ai, которая имитирует современные поисковые системы и измеряет релевантность документа для определенного термина на основе поискового запроса, связанных объектов, количества слов и плотности объектов.
Его цель — помочь вам оптимизировать вашу страницу путем добавления связанных объектов в ваш контент, сводя к минимуму бесполезный и нерелевантный текст.
Небольшое снижение показателя релевантности на 2,8% указывает на то, что после обновления Google отдает предпочтение немного менее оптимизированным для SEO документам. Однако в целом я бы сказал, что это указывает на то, что Google на самом деле не затронул страничную часть алгоритма.
Плотность объектов
Плотность связанных объектов Google March Core
Плотность связанных объектов измеряет, как часто связанные объекты встречаются в тексте по отношению к наполнителю/другим словам. Хотя общее количество необработанных объектов уменьшилось из-за уменьшения количества слов, плотность объектов фактически увеличилась на 8,2%.
Это указывает на то, что алгоритм Google по-прежнему читает, понимает и ищет контент со связанными объектами, независимо от его длины. Как мы обнаружили ранее, связанные объекты чрезвычайно важны и являются одним из движущих факторов, когда Google доверяет вашему веб-сайту.
5. Ссылки и гостевые посты
Платные и естественные ссылки
Наряду с мартовским основным обновлением Google выпустил отдельное обновление «Ссылочный спам», специально нацеленное на неестественные ссылки, влияющие на рейтинг.
Всякий раз, когда происходят значительные обновления ссылок, их ценность имеет тенденцию сильно колебаться, поскольку корректировка значения одной ссылки может изменить ценность другой. Во время этих обновлений рейтинг веб-сайта нередко повышается, а затем снижается.
Списки ссылок и брокеры
Для Google не было бы ничего необычного в том, чтобы накапливать и принимать меры в отношении огромной коллекции сайтов, продающих гостевые посты. (Джон Мюллер уже давно подогревал интерес, говоря аудитории, что собирает ссылки, которые на него попадают.)
У некоторых ссылочных брокеров есть списки из более чем 55 000 сайтов, доступных для гостевого размещения, и если у меня лично есть доступ к нескольким спискам такого размера, то нетрудно предположить, что у Google тоже может быть доступ.
(Брокеры ссылок даже используют Google Таблицы, чтобы делиться ими!)
Хотя на данный момент это не подтверждено, вполне возможно, что Google передал эти списки сайтов в списки рецензентов, которые затем подтвердят, продает ли сайт ссылки. (Было бы нецелесообразно просто обработать список сайтов, не проверив их предварительно, поскольку вы можете легко добавить сайты конкурентов в список из 40 000 сайтов.)
Я подумал, что стоит проверить, чтобы доказать или опровергнуть, что Google предпринял конкретные действия в отношении сайтов, продающих гостевые посты.
Методика тестирования ссылок:
Чтобы проверить мою теорию, мы с командой сверили ссылочный профиль 11 оштрафованных веб-сайтов (и 2 сайта, получивших вознаграждение) по спискам популярных гостевых постов.
Шаг 1) Извлеките профиль ссылок для каждого веб-сайта и составьте список «подписок» и «содержания» с сайтов WordPress.
Шаг 2) Выберите 15 лучших ссылок и сверьте их с нашим списком известных продавцов гостевых постов.
Шаг 3) Рассчитайте процент ссылок, исходящих с веб-сайтов, которые продают ссылки.
После проверки ссылочных профилей 11 оштрафованных веб-сайтов только на одном веб-сайте было обнаружено аномальное количество ссылок, исходящих от продавцов гостевых постов.
Это не означает, что на оштрафованных сайтах не было платных ссылок… просто их не было в списке поставщиков. Хотя это не исключает возможности того, что Google действительно принял меры в отношении определенных сайтов, маловероятно, что обновление ссылочного спама конкретно нацелено на списки поставщиков.
В ходе обратного поиска, начиная с сайтов-продавцов ссылок и анализируя эффективность сайтов с платными ссылками, мы не обнаружили четких закономерностей. Некоторые ссылки на платные гостевые посты кажутся эффективными, а другие — нет.
В конечном счете Google оперирует соотношением ссылок. Даже если у вас действительно есть несколько спам-ссылок, они, скорее всего, будут упущены из виду, поскольку естественные ссылки обычно их уравновешивают. Тем не менее, я по-прежнему предостерегаю людей от создания полностью искусственного профиля ссылок, поскольку эти обновления с большей вероятностью пострадают от них.
6. Обнаружение контента с помощью ИИ
- Низкое качество и высокое качество AI-контента
Первое, что пришло на ум, когда Google выпустил обновление: «Они гонялись за AI-контентом?»
Неудивительно, что низкокачественный контент ИИ в последнее время стал проблемой, поскольку его невероятно легко и дешево производить. Я лично считаю, что Google очень умно поступил в отношении контента ИИ и что потребовалось немало предусмотрительности, чтобы заявить, что контент ИИ может быть «хорошим»: до тех пор, пока он представляет ценность.
- Поисковые системы имеют ограниченные возможности обнаружения ИИ (но не предпринимают никаких действий)
Было бы глупо полагать, что, поскольку Google разрешает контент ИИ, он не может обнаружить контент ИИ.
Еще в 2021 году Google опубликовала исследовательскую работу, в которой утверждалось, что они используют обнаружение искусственного интеллекта на основе bERT для оценки поисковой среды. (Источник)
(Примечание: это не означает, что это было запущено в производство. На данный момент у них может быть совершенно другой внутренний процесс/инструмент. То, что происходит на этапе исследования, не всегда переходит на этап производства)
Хотя у меня нет доступа к внутренним инструментам Google, я лично считаю, что большинство современных поисковых систем МОГУТ обнаруживать общий, готовый к использованию AI-контент из популярных моделей AI.
Однако! Учитывая частый выпуск новых языковых моделей каждый месяц, было бы глупо полагать, что Google (и другие поисковые системы) смогут продолжать точно обнаруживать весь контент ИИ вечно. Я подозреваю, что большинство современных поисковых систем начинали с внутренней системы обнаружения ИИ, однако вскоре они поняли, что попытки идти в ногу со всеми новыми изменениями ИИ будут тщетными усилиями.
Новейшие модели становится все труднее обнаружить, и, как ни странно, часть наиболее эффективного контента на моих тестовых сайтах полностью написана искусственным интеллектом и даже превосходит по производительности контент, написанный человеком, размещенный на том же сайте.
Кроме того, в некоторых моих тестах рейтинги AI-контента с упором на высокий уровень вовлеченности, размещенного на высококачественных сайтах, резко выросли. Действительно кажется, что дело не в самом контенте… а в сайте, на котором он размещен.
Однако! Я считаю, что общий контент ИИ приведет к плохим показателям, что, в свою очередь, приведет к плохой работе веб-сайта…
Чтобы использовать низкокачественный контент ИИ, вам необходимо использовать репутацию хорошего веб-сайта.
Возможно, это непопулярное мнение, однако я считаю, что хороший контент по ИИ может быть весьма ценным и уже широко распространен в Интернете. Мы просто не понимаем, что это контент, основанный на искусственном интеллекте.
Методология массового тестирования ИИ
Чтобы определить, нацелен ли Google на контент ИИ, мы проанализировали одну и ту же серию из 11 сайтов, на которые были наложены штрафы (и 2 сайта, получивших вознаграждение), чтобы определить процент контента ИИ на каждом из них.
Шаг 1) Извлеките 300 лучших страниц с каждого веб-сайта, опуская такие страницы, как политика конфиденциальности, контакты и т. д.
Шаг 2) Обработайте каждую из 300 лучших страниц, проверяя уровень обнаружения ИИ 50 % или выше, используя систему обнаружения ИИ на основе bERT. (Тот же тип системы, который был описан в исследовательской работе Google)
Шаг 3) Зафиксировал процент обнаруженных страниц для каждого сайта.
Массовое обнаружение ИИ на странице
Результаты публичных сайтов AI:
Результат теста обнаружения ИИ, сканирующего 300 страниц каждого оштрафованного веб-сайта.
Обнаруженный ИИ-контент
Прежде чем анализировать результаты, важно понимать, что наше обнаружение ИИ назначает уровни уверенности в том, насколько вероятно, что документ создан ИИ. Кроме того, мы не знаем тип или источник ИИ, используемый на этих сайтах. Мы были относительно консервативны в нашей системе обнаружения, чтобы избежать ложных срабатываний (в отличие от некоторых других инструментов обнаружения искусственного интеллекта, которые являются чрезмерно агрессивными и ложно обнаруживают контент).
Хотя размер выборки данных относительно невелик, мы видим некоторые интересные тенденции:
Во-первых, создается впечатление, что большинство сайтов в Интернете в той или иной степени используют ИИ в своем контенте. (Даже за пределами этого относительно небольшого списка мы просканировали тысячи сайтов, используя нашу систему массового обнаружения ИИ, и обычно нам удается идентифицировать некоторый контент ИИ даже на известных веб-сайтах.)
Есть сообщения, что даже исправление грамматики с помощью такого инструмента, как Grammarly, или запрос предложения от ChatGPT иногда может привести к обнаружению ИИ.
Мы видим, что некоторые сайты были оштрафованы за использование контента ИИ, который практически не использовался (сайт #1 и сайт #7), а на противоположной стороне спектра мы видели, что это также коснулось веб-сайтов, активно использующих контент ИИ. (сайты #3, #5, #6 и #10).
Интересно, что сайты, на которых наблюдался значительный рост, похоже, содержали больше человеческого контента/контента, который ускользнул от нашего обнаружения. Тем не менее, даже сайт #13, трафик на котором значительно увеличился после мартовского обновления March Core, содержал контент, созданный искусственным интеллектом.
Тем не менее, даже сайты, на которых вообще нет контента с искусственным интеллектом, по-прежнему подвергаются некоторым штрафам, как показано ниже.
100% человечески написанный контент
В целом, из-за преобладания контента ИИ трудно выявить прямую корреляцию. Однако, как ни странно, похоже, что сайты, использующие общие статьи об искусственном интеллекте «введение, вопросы, заключение», действительно ощутили большее влияние.
Дополнительные данные внутреннего тестирования ИИ:
Помимо мониторинга общедоступных веб-сайтов, я также управляю портфолио веб-сайтов, специально разработанных для сохранения определенного сочетания типов статей. Это позволяет мне быстро отслеживать реакцию Google на контент ИИ.
- Сайты со статьями только для людей
- Сайты, в которых публикуются статьи о людях и искусственном интеллекте.
- Сайты с ИИ только статьями.
В категории сайтов «Только ИИ» у меня есть подкатегории, в которых сравниваются различные версии статей об ИИ на предмет производительности, я часто разделяю разные статьи на тестирование для измерения эффективности рейтинга, пользовательского опыта и вовлеченности. Во всех случаях статьи нацелены на реальные ключевые слова и отслеживаются на предмет изменений поисковых систем.
Тест статьи о скрытном ИИ
К моему удивлению, один из тестовых сайтов, размещенный на домене со значительным авторитетом и размещающий полные статьи об искусственном интеллекте, увидел рост рейтинга после недавнего мартовского обновления March Core.
Хотя я понимаю, что это не отражает весь ИИ-контент (в конце концов, он содержит только один тип ИИ-контента и это только один веб-сайт), это указывает на то, что Google НЕ нацелился явно на весь ИИ-контент.
Сайт 2. Гибридный искусственный интеллект и человеческий контент
Рейтинг второго веб-сайта остался прежним, без значительного повышения или понижения рейтинга. Интересно то, что высококачественный контент, созданный искусственным интеллектом, по-прежнему значительно превосходит по эффективности написанный человеком контент на том же веб-сайте.
Контент искусственного интеллекта на этом конкретном веб-сайте превосходит написанный человеком контент, а также обеспечивает более длительное время сеанса (более привлекательные статьи). Вот почему я считаю, что хороший контент ИИ может быть полезным даже после мартовского основного обновления.
7. Тестовые платформы
(Производительность WordPress)
Один из слухов, который, кажется, повторяется в Интернете, заключается в том, что Google намеренно наказывает определенные темы, макеты или определенные сайты.
Хотя это правда, что более популярные партнерские темы могли бы оказать большее влияние (поскольку партнерские программы позволяют создавать определенный тип контента), я подумал, что было бы полезно изучить эффективность популярной партнерской темы.
Методика тестирования платформы
Шаг 1) Определите популярную тему WordPress и найдите веб-сайты, использующие эту тему. Мы выбрали тему Astra WordPress и использовали надпись «Powered by Astra».
Шаг 2) Найдите несколько сайтов, использующих одну и ту же тему, и сравните производительность.
Сайт #1 — Тема Astra увеличивает посещаемость
На первом веб-сайте, который мы обнаружили, наблюдался значительный рост после мартовского основного обновления March Core.
Однако… не все сайты с темой Astra постигла та же участь.
Второй сайт, использующий точно такую же тему WordPress, с похожим макетом, CSS и внешним видом, испытал значительное падение трафика после мартовского обновления March Core.
Мы можем сделать вывод, что темы/Wordpress CMS и CSS НЕ несут ответственности за штраф.
Для Google было бы необычно наказывать определенную CMS, тему или таблицу стилей (все, что было предложено в Интернете), поэтому я почувствовал необходимость представить доказательства обратного. Хотя плохо выглядящий веб-сайт, вероятно, может способствовать общим плохим показателям, которые, в свою очередь, могут способствовать снижению рейтинга, он, похоже, не является прямым фактором ранжирования.
8. Углубленный анализ сайта
Тенденции и наблюдения
Процесс проверки десятков сайтов вручную не является очень научным, но я считаю, что он остается одним из лучших способов выявления тенденций, разработки новых идей и понимания обновления нового алгоритма. Часто именно выявляя исключения, мы узнаем больше всего и можем подтвердить наши общие теории относительно текущего алгоритма.
Хотя я вручную просмотрел более 87 сайтов (еще больше присылали мне ежедневно) в течение трех недель в марте и апреле 2024 года, я не подумал, что было бы полезно включать разбивку по каждому сайту. Это лишь малая часть образцовых сайтов, которые выделились.
Вот что я обнаружил:
Сайт #1: Программный веб-сайт пошел неверным путем
Один веб-сайт, который раньше работал очень хорошо и, по данным Ahrefs, посещал около 10 миллионов посетителей из органического поиска, после мартовского обновления Core пережил значительный спад. Я считаю, что этот сайт интересен, потому что я считаю, что он находится на грани… содержит как хороший, так и плохой контент.
Я не удивлюсь, если, приложив немного усилий, этот сайт сможет восстановиться в будущем обновлении.
Веб-сайт начал свою жизнь как отличный ресурс и является примером хорошо выполненного программного веб-сайта. Первоначально они использовали ИИ для создания большого количества страниц, представляющих ценность для пользователей.
На снимке экрана ниже показаны списки животных, отсортированные по первой букве, ресурс, который может быть полезен всем, кому нужна подсказка при работе над сложной головоломкой со словами. (Это «хорошая» часть сайта)
К сожалению… немного хорошего контента не может перевесить огромное количество контента более низкого качества, который сайт впоследствии начал публиковать.
Как показано ниже на этой автоматически созданной странице «обзора» партнерской программы Amazon.
Эта низкокачественная страница списка Amazon, созданная искусственным интеллектом, является лишь одним примером типа контента, который можно найти на сайте. Нетрудно получить названия и изображения продуктов Amazon, а затем добавить к ним список пунктов, созданный искусственным интеллектом.
(Как человек, который занимается партнерским маркетингом в течение 10 лет, я понимаю… привлекательность возможности создать страницу со списком партнеров за считанные секунды заманчива. Однако, с точки зрения пользователя, нет ничего больше, что я ненавижу в Интернете, когда я ищу законные мнения о продукте.)
Я подозреваю, что изначально у сайта были хорошие показатели из-за страниц с ресурсами о животных…
К сожалению, похоже, что веб-сайт продолжал добавлять слишком много «страниц низкого качества», что в конечном итоге перевернуло чашу весов. Это могло бы объяснить, почему он был в рейтинге во время обновления полезного контента и был окончательно оштрафован после мартовского обновления March Core.
Сайт #2: Сайт Dogster переживает невероятный рост
Выполняя обширную ручную проверку бесчисленного количества веб-сайтов, оштрафованных обновлением Google, я продолжал наблюдать аналогичную тенденцию: сайты со средним содержанием постоянно теряли трафик.
Вот почему, когда я обнаружил веб-сайт, который преодолел все трудности и продемонстрировал невероятный рост, я был заинтригован.
Ух ты!
В то время как веб-мастера жалуются на то, что Google отдает предпочтение более крупным сайтам, таким как Reddit, этот сайт бросает вызов всем шансам, добившись успеха, несмотря на недавние изменения алгоритма.
Какой волшебный контент они производят?
Не поймите меня неправильно, это хорошая страница… но не такая уж и хорошая.
Он содержит множество элементов «доверия», позволяющих читателю чувствовать себя в безопасности, например, значок, утверждающий, что он проверен ветеринаром, он имеет хорошую навигацию и даже добавляет специальное украшение в виде лапы для разделения больших частей текста.
Лично я бы оценил этот текст как «адекватный» в том смысле, что он отвечает на ряд основных вопросов, которые могут возникнуть у владельца по поводу кормления пиннерной ягодой своей собаки, однако он не превосходит ни одну категорию.
На самом деле, совсем наоборот!
Вся статья могла быть легко написана дипломированным специалистом или фрилансером без реального опыта.
Он даже заканчивается общим абзацем «Заключение»! (Обычный ИИ любит создавать схемы, заканчивающиеся заключением. Я избегаю этого любой ценой.)
Итак, если статьи в лучшем случае адекватны, то что может быть причиной невероятного роста сайта? Наверняка это не исчерпывающий источник информации о собаках в Интернете, не так ли?
Оказывается, сайт Dogster имеет в себе что-то такое, чего нет на других подобных сайтах с советами для собак:
Активная аудитория!
Вот лишь одна из их социальных сетей с 183 тысячами подписчиков. Они используют Facebook, Instagram и Twitter для привлечения трафика из социальных профилей на свой сайт.
Любители собак — страстные люди, и я предполагаю, что они заходят из социальных сетей, некоторое время просматривают веб-сайт Dogster, прежде чем окончательно уйти.
Кроме того, на их сайте есть раздел электронной торговли, который, вероятно, побуждает людей просматривать несколько продуктов.
Хотя у меня нет доступа к их аналитическим аккаунтам, я считаю разумным предположить, что посетители в среднем посещают несколько страниц и проводят на сайте значительное время. (Значительно больше, чем если бы посетители зашли на страницу по простому запросу и сразу же ушли)
Это дополнительное взаимодействие по всему сайту, вероятно, и является движущей силой массового роста.
Чтобы исключить другие потенциальные факторы, я провел глубокое исследование сайта Dogster, изучив под микроскопом внешние ссылки, внутренние ссылки, навигацию, элементы на странице и многое другое, чтобы определить, есть ли другое объяснение массовому росту.
Даже их SEO-оптимизация в лучшем случае адекватна (как и их статьи).
Например, на момент написания они в настоящее время занимают четвертую позицию по ключевому слову «сколько собак в мире» ниже:
У них дела идут неплохо с высоким показателем релевантности, однако, как мы видели в разделе показателей этого отчета, более высокая плотность объектов может быть полезной. На сайте Dogster плотность объектов составляет 0,12, что соответствует среднему значению.
Однако результат #1 по ключевому слову размещен на менее мощном домене конкурента и, скорее всего, ранжируется благодаря более высокой плотности объектов (см. ниже).
Похоже, что как только Google определит, что ваш сайт заслуживает доверия и имеет высокий уровень вовлеченности, он попытается найти контент среди наиболее релевантных объектов.
Это означает, что сайт Dogster, вероятно, может занять еще более высокий рейтинг!
Модель сайта Dogster:
Шаг 1) Найдите в социальных сетях группу страстных любителей собак. Кормите их мемами, вдохновляющими плакатами и советами для их собак.
Шаг 2) Направьте трафик из социальных сетей на свой сайт и сайт электронной коммерции, увеличивая общую вовлеченность сайта, когда посетители просматривают его.
Шаг 3) Производите большое количество среднего (но все же адекватного) контента, ориентированного на собак.
Последнее, что, по моему мнению, помогает им, — это общий внешний вид сайта. Я должен отдать им должное за качество их логотипа (который выглядит как логотип журнала, такого как Marie Claire), который придает сайту более авторитетный вид.
Аналогичным образом, использование полей «Проверено ветеринаром» во многом помогает убедить посетителей (не Google) в подлинности сайта.
Теперь вопрос: подойдет ли этот процесс для небольшого сайта с меньшим количеством ссылок?
Сайт №3: Невероятный рост CakesByMK при низком уровне обратных ссылок
Среди победителей мартовского основного обновления этот веб-сайт стал одним из лучших примеров того, что нужно делать, чтобы добиться успеха. Он продемонстрировал огромный рост при небольшом количестве обратных ссылок и является одним из моих любимых сайтов для моделирования.
Давайте посмотрим, как они добились невероятного роста благодаря последнему обновлению Google.
CakesByMK — сайт, посвященный рецептам тортов. Каждая статья очень хорошо оформлена, с красивыми изображениями, подробными описаниями и ссылкой на видеопример рецепта. В целом, это очень качественная продукция, однако с алгоритмической точки зрения нет ничего такого, что нельзя было бы воспроизвести где-либо еще.
Здесь нет значков доверия (мой термин, обозначающий добавление элементов на страницу ради повышения доверия посетителей), боковая панель не очень интересна, если не считать потрясающих изображений, в тексте нет ничего особенного, что могло бы сделать статья выделяется. Мне особенно нравится этот сайт, потому что он доказывает, что вам НЕ НУЖНО делать что-то экстраординарное, чтобы получить рейтинг.
У них даже не так много ссылок!
Так что же они СДЕЛАЛИ, чтобы оправдать такой рост?
По моему мнению, причина, по которой сайт работает так хорошо, заключается в том, что он с нуля создавался как ресурс для посетителей. Вместо того, чтобы представлять собой просто сборник рецептов (который традиционно быстро посещает Google, а затем отскакивает), автор сделал все возможное, создав целый каталог своих рецептов на выбор.
Разница в том, что пользователи больше не заходят за быстрым рецептом от Google, а затем уходят… а вместо этого просматривают сайт, изучают рецепты, курсы, магазин… все!
Смотрите страницу категории ниже:
Это одна из лучших страниц категорий, которые я когда-либо видел.
Ссылка в верхней части заголовка навигации как «Рецепты *» со звездочкой, чтобы люди нажимали (кстати, отличная идея, мне нужно проверить, поставив звездочку рядом с одним из моих пунктов меню, чтобы увидеть, увеличивает ли это рейтинг кликов)
На странице категории представлены аппетитные изображения тортов, которые, скорее всего, привлекут внимание посетителей.
Тем не менее, даже самые красивые страницы иногда могут с трудом привлечь занятого посетителя поисковой системы… поэтому вместо этого CakesbyMK использует возможности социальных сетей, чтобы привлечь на сайт огромное количество трафика.
Это, в свою очередь, увеличивает общую вовлеченность сайта… что затем повышает его органический рейтинг в Google.
У CakesbyMK впечатляющие 153 тысячи подписчиков в Instagram и 454 тысячи подписчиков на Youtube, которые служат источником всего трафика. Каждый опубликованный контент содержит ссылки на рецепты сайта, домашнюю страницу, курсы и т. д.
По моим оценкам, посетитель, пришедший из социальных сетей, просмотрит не менее 5 страниц и проведет на сайте не менее 2 минут.
Я обнаружил еще один трюк, который они используют. (Эта часть просто гениальна)
На странице профиля Instagram есть ссылка Linktr.ee, которая обычно используется для размещения ссылок на различные объекты. Обычно пользователи добавляют ссылки на страницу Facebook, страницу Youtube и заканчивают работу… но не CakesByMK.
Вместо этого они используют эту возможность внутри Linktr.ee для создания ресурса.
Вышеупомянутые ссылки Linktr.ee действуют как портал к контенту сайта, и я могу представить, что пользователи социальных сетей используют их для просмотра нескольких рецептов… тем самым увеличивая вовлеченность и возвращая посетителей на сайт.
По моим оценкам, используя этот механизм, показатели вовлеченности их сайта, вероятно, превосходят почти все другие сайты с простыми рецептами в Интернете и, таким образом, обеспечивают невероятный органический рост практически без ссылок.
Вот визуальное представление модели ранжирования, используемой CakesbyMK:
Здесь мы можем ясно видеть, как социальные сети направляют трафик в «ресурсный раздел» сайта (изображен синим цветом), что затем увеличивает общие показатели пользователей сайта. Как только сайт достигает определенного уровня вовлеченности, Google начинает привлекать трафик ко всем статьям на сайте.
Ниже приведено упрощенное объяснение механизма ранжирования:
Шаг 1) Социальные сети привлекают трафик в раздел ресурса на сайте.
Шаг 2) Google замечает это по данным Chrome и Android.
Шаг 3) Google вознаграждает сайт органическим рейтингом и трафиком.
Шаг 4) На веб-сайте можно бесплатно монетизировать статьи с помощью ссылок, приносящих доход.
Я уверен, что это весьма прибыльная бизнес-модель… и, что самое приятное, я верю, что любой может повторить ее.
9. Анализ и тенденции
(Вот что продолжает возвращаться)
После проверки накопленных данных метрик (среднее количество слов, разбивка по подзаголовкам, сущности и т. д.) и нескольких десятков веб-сайтов посредством ручной проверки начинают проявляться некоторые тенденции.
Вот некоторые из наблюдаемых тенденций в отношении недавнего поискового ландшафта:
- ИИ-контент повсюду. Как хорошие, так и плохие сайты содержат контент с искусственным интеллектом.
- Контент ИИ, похоже, не пострадал и по-прежнему ранжируется так же хорошо, как и раньше (при условии, что сайт считается благоприятным). Тем не менее, сайты, использующие низкокачественный общий контент AI, были более склонны к падениям. Сайты, на которых использовался интересный контент (созданный искусственным интеллектом или людьми), работали лучше.
- Упоминания конкретных специалистов на странице не кажутся необходимыми. Включите их, ЕСЛИ вы считаете, что это поможет вашим читателям почувствовать, что они могут доверять вашему контенту.
- Кажется, что хороших статей может быть недостаточно, если вы полностью полагаетесь на посетителей Google. Некоторые партнерские сайты имели приличный контент и по-прежнему подвергались штрафам.
- Похоже, что больше всего пострадали партнерские веб-сайты.
- Обновление оказало минимальное/незначительное влияние на местные веб-сайты.
- Обновление не оказало существенного влияния на веб-сайты электронной коммерции.
- Ресурсные сайты, похоже, не пострадали от обновления.
- Сайты с большим количеством подписчиков в социальных сетях процветали во время обновления.
- Ссылки (как внешние, так и внутренние), похоже, не повлияли на то, был затронут веб-сайт или нет. Некоторые оштрафованные сайты имели сотни тысяч ссылок, в то время как другие с очень небольшим количеством ссылок процветали. Ссылки имеют значение… однако, похоже, они не защищают вас от гнева мартовского обновления March Core.
- Похоже, что как только веб-сайт считается заслуживающим доверия, Google возвращается к использованию плотности объектов в качестве основного фактора ранжирования.
Хотя это основные тенденции, наблюдаемые на сотнях страниц, я должен еще раз заявить, что корреляция не означает причинно-следственную связь. Это всего лишь наблюдения на многих страницах.
10. Что, по моему мнению, произошло
Основная теория №1: Общая вовлеченность сайта
Самая разочаровывающая часть мартовского обновления заключается в том, что я знаю многих веб-мастеров (и SEO-агентства), которые усердно работают над улучшением своих страниц, но все еще испытывают падение трафика. Если это относится к вам, я вас слышу и пишу это специально, чтобы помочь вам.
У меня такое чувство, будто Google ввел веб-мастеров и специалистов по SEO в заблуждение. На протяжении десятилетий Google говорил: «Создавайте полезный контент», и вы будете хорошо ранжироваться. Чего они не упомянули, так это какой полезный контент.
В конечном счете, я считаю, что вы можете иметь серию хороших страниц и ВСЕ ЕЩЕ быть оштрафованы мартовским обновлением March Core.
Позвольте мне объяснить:
1. Я считаю, что новое мартовское обновление March Core вводит или изменяет систему оценки всего сайта. Это влияет на все страницы сайта. Например, если бы вы набрали гипотетический балл 20/100, вы могли бы увидеть, что все ваши страницы значительно упадут.
2. Оценка пытается измерить какой-то пользовательский опыт / удовлетворенность / эффективность сайта в целом. Например, сайты, на которых много прямых поисковых запросов, длительные сеансы с просмотром нескольких страниц (такие как Reddit.com и LinkedIn.com), после обновления показали себя очень хорошо. Кроме того, многие сайты электронной коммерции, сайты инструментов/услуг и сайты сообществ (форумы, дискуссионные сайты, социальные сайты) после обновления заработали хорошо.
Похоже, что обновление однозначно повлияет на чисто партнерские сайты, даже если они имеют приличный контент.
Короче говоря, тип работающего сайта, похоже, коррелирует с вероятностью того, что обновление негативно повлияет на вас… однако я НЕ думаю, что Google специально смотрит на тип веб-сайта, чтобы оштрафовать его. (Например, добавление кнопки «Добавить в корзину» на вашем веб-сайте не заставит вас волшебным образом восстановиться.)
Вместо этого просто некоторые ТИПЫ веб-сайтов и некоторые ИСТОЧНИКИ ТРАФИКА естественным образом приводят к ухудшению вовлеченности… даже если вы создаете высококачественный контент.
Почему вас штрафуют даже за «хороший» контент
Мы видели многочисленные сообщения о том, что веб-мастера с хорошим, аутентичным контентом были оштрафованы March Core, несмотря на то, что они делали все «правильные вещи».
Раньше, если вы писали о том, «сколько времени готовится курица» и давали точный, хорошо объясненный ответ, у вас были шансы без проблем попасть в рейтинг в Google.
Однако даже в НАИЛУЧШЕМ сценарии, с идеальной страницей, ваши читатели, скорее всего, все равно зайдут на страницу, найдут информацию, а затем немедленно уйдут, как только вы удовлетворите намерение пользователя.
Отлично, правда? Все дело в удовлетворении намерений пользователя…
Верно?
Раньше я бы согласился.
Однако сейчас кажется, что даже если вы ДЕЙСТВИТЕЛЬНО удовлетворите намерение пользователя, представив точный ответ на странице, который будет полезен читателям, этого может быть недостаточно.
Я объясняю это явление тем, что определенные ключевые слова и источники трафика естественным образом приводят к очень коротким и коротким сеансам.
Это означает, что если вы просмотрите список ключевых слов с длинным хвостом и короткими ответами (для этого отчета я буду называть их «короткими» ключевыми словами) и создадите контент, ориентированный на эти ключевые слова, то даже в лучшем случае ваш общий показатель Показатель показателей сайта будет недостаточно хорош, чтобы конкурировать с различными типами веб-сайтов.
Возможно, именно поэтому Google говорит, что вам НЕ следует ориентироваться на ключевые слова.
Поскольку таргетинг на «короткие ключевые слова» и использование исключительно органического трафика Google всегда приводят к «коротким сеансам».
Я считаю, что причина, по которой вас могут оштрафовать, может заключаться не в КАЧЕСТВЕ контента, который вы производите, а в ТИПЕ контента, который вы в первую очередь производите.
А чтобы иметь возможность ранжироваться по «коротким ключевым словам», вы должны сначала повысить оценку показателей своего сайта, ранжируя ключевые слова, которые приводят к длительным сеансам, постоянным посетителям и заинтересованным пользователям.
Источники трафика «Короткие ключевые слова» и «Низкая вовлеченность»:
Если вы ориентируетесь только на короткие ключевые слова и получаете посетителей из Google, которые находят ответ и сразу же уходят, показатели вашего сайта будут плохими.
Давайте нарисуем вымышленный сценарий чисто партнерского сайта, ориентированного на «короткие» ключевые слова с длинным хвостом и быстрыми ответами.
Ключевые слова:
- «как приготовить индейку в скороварке»
- «как смешать фасоль и рис»
- «какова идеальная температура для приготовления курицы»
- «лучшие аэрофритюрницы для приготовления картофеля фри»
А теперь давайте предположим, что вы правильно отвечаете на каждый вопрос, давая хороший ответ, основанный на многолетнем личном опыте. Как долго бы кто-то оставался на сайте, если бы пришел из поиска Google? Вернутся ли они на сайт?
Оценим общее время сеанса успешного поиска.
Рейтинг №1 в Google по ключевым словам:
«как приготовить индейку в скороварке»:
Читатель, вероятно, интересуется, как долго готовить индейку под давлением в скороварке, и ему может быть интересно узнать, какие ингредиенты можно бросить в скороварку. Скорее всего, они просматривают статью, чтобы найти нужную информацию, и задерживаются на ней максимум на 45 секунд. (А потом они уходили готовить еду!)
«как смешать фасоль и рис»:
Читатель, вероятно, ищет изображения или быстрый совет о том, когда смешивать фасоль и рис в процессе приготовления. Вероятно, они останутся там максимум на 15 секунд после обнаружения информации.
«какова идеальная температура для приготовления курицы»:
Читатель явно хочет получить единственную информацию… он, скорее всего, уже видел ответ во фрагменте поиска и может щелкнуть статью только для подтверждения. Максимум 10-секундный сеанс, пока они находят информацию.
«лучшие аэрофритюрницы для приготовления картофеля фри»
Читатель ищет информацию о том, какую аэрофритюрницу купить. Хорошо продуманная страница может удерживать НЕКОТОРЫХ читателей более 2 минут, однако большинство (средний читатель с низким уровнем внимания), скорее всего, просканирует страницу, нажмет на аэрофритюрницу, которая перейдет по ссылке Amazon, и покинет сайт в течение 20-30 секунд.
Имея это в виду, в НАИЛУЧШЕМ случае, даже при наличии высококачественной информации, отвечающей и удовлетворяющей каждый запрос пользователя, общие показатели вашего сайта будут казаться плохими по сравнению с другими типами сайтов.
И это не твоя вина.
Это просто потому, что Google ввел вас в заблуждение, утверждая, что вам просто нужно создавать высококачественный контент… без указания вам, ТИП контента имеет значение.
Например, если вы ориентируетесь ТОЛЬКО на «короткие ключевые слова», которые дают быстрый конкретный ответ с помощью трафика Google:
В итоге вы получите сайт с высококачественным контентом… но с «плохими» показателями.
Я считаю, что одним из первых шагов к выздоровлению является изменение ориентации сайта в сторону более длинных и сложных тем.
Написание тем, которые требуют от читателя оставаться на странице дольше, естественным образом приведет к улучшению взаимодействия с сайтом, даже если качество вашего контента останется таким же.
Например, если вы создадите статью, посвященную: «25 лучших гостиных знаменитостей — не пропустите квартиру Бейонсе».
Даже если читатель просматривал фотографии разных гостиных, потратив всего 5 секунд на одно изображение, он проведет на странице более 2 минут.
Вставьте в статью продуманные внутренние ссылки, чтобы читатели прочитали еще одну следующую статью… и вы уже на пути к тому, чтобы время сеанса превышало 3-4 минуты, просто изменив таргетинг по ключевым словам.
Я считаю, что одним из первых шагов к выздоровлению является изменение ориентации сайта в сторону более длинных и сложных тем.
Как Google, вероятно, сравнивает сайты
Как мы только что рассмотрели, даже если все делать «правильно», максимальное среднее время сеанса сайта, ориентированного на короткие ключевые слова с трафиком Google, может составлять всего 45 секунд. Если у всех ваших конкурентов время сеанса также составляет 45 секунд, это может быть нормально… однако Google не только сравнивает вас с другими партнерскими сайтами.
Представьте себе типичный партнерский сайт со следующими показателями:
- Среднее время сеанса 45 секунд
- 1,3 средних просмотра страниц на пользователя
- 86% показатель отказов
И все это при наличии опыта, хорошего контента и удовлетворения намерений пользователя.
Для сравнения, сайты, охватывающие одни и те же ключевые слова, могут иметь:
- Reddit = сеансы продолжительностью в среднем 12 минут.
- LinkedIn = сеансы продолжительностью в среднем 5 минут.
- Forbes = В среднем сеансы продолжительностью 4 минуты
- Ваш партнерский сайт = сеансы длительностью 0,75 минуты.
Я считаю, что алгоритм Google March Core представляет новую метрику сравнения, которая не только сравнивает страницы на странице, но и сравнивает страницы сайта и страницы сайта.
Если у Google есть ряд очень похожих результатов с одинаковой релевантностью на странице:
[Документ A] = [Время страницы 20 секунд] = [Среднее время сайта = 12 минут]
[Документ Б] = [Время страницы 20 секунд] = [Среднее время сайта = 0,75 минуты]
[Документ C] = [Время страницы 20 секунд] = [Среднее время сайта = 10 минут]
[Документ D] = [Время страницы 20 секунд] = [Среднее время сайта = 15 минут]
Google, скорее всего, скажет, что документу Б нельзя доверять, ДАЖЕ если время отдельной страницы аналогично времени других страниц. Поскольку среднее время размещения документа B на сайте значительно короче (0,75 минуты), чем на всех других сайтах, документ B может показаться подозрительным.
С точки зрения Google, безопаснее размещать только документы, опубликованные на сайтах, которым уже доверяют пользователи.
Новый показатель Google
Несмотря на то, что я использовал среднее время сеанса в демонстрационных целях из-за его простоты. (Это делает приведенный выше пример относительно простым для понимания).
Я НЕ верю, что Google использует время сеанса исключительно для ранжирования веб-сайтов.
Вместо этого Google, вероятно, использует комбинацию показателей, которая приводит к «оценке показателей» веб-сайта. Это ключевое различие, поскольку в некоторых отраслях, языках и типах устройств продолжительность сеанса может быть разной, и использование единой единицы измерения не обеспечит точного изображения того, что происходит в Интернете.
Вместо этого, ЕСЛИ Google работает аналогично Core Web Vitals, тогда оценка метрики может представлять собой комбинацию измерений, которые приводят к процентилю рейтинга по сравнению с другими сайтами, конкурирующими за то же ключевое слово.
Google, вероятно, сравнивает процентиль эффективности в одной и той же отрасли (ключевых словах).
Например, если у вас есть список сайтов, конкурирующих по одному и тому же ключевому слову:
«как выбрать удочку новичку»
Google сообщает, что за один и тот же результат конкурируют 67 900 000 потенциальных страниц.
И за этот срок Google будет измерять показатели, сравнивая страницу И сайты, на которых размещен контент по этому ключевому слову.
- Ранг 1 = [Документ A] = [Время страницы 120 секунд] = [Среднее время сайта = 12 минут]
- Ранг 2 = [Документ Б] = [Время страницы 120 секунд] = [Среднее время сайта = 11 минут]
- Ранг 3 = [Документ C] = [Время страницы 119 секунд] = [Среднее время сайта = 10 минут]
… - Ранг 67 900 000 = [Документ D] = [Время страницы 1 секунда] = [Среднее время сайта = 0,3 минуты]
Написание этого ключевого слова в конечном итоге помещает вас в определенный процентиль рейтинга, например, в 10% лучших показателей, если вы представляете документ A или B…
Или в пределах нижнего 1% процентиля, если вы документ D.
Процентили вовлеченности
Каждая страница, вероятно, получает оценку по метрике, и комбинация всех оценок по метрикам со страниц веб-сайта, скорее всего, приводит к окончательной оценке метрики для веб-сайта. (И этот окончательный показатель веб-сайта определяет, насколько хорошо ваш сайт будет работать в Интернете).
Если вы постоянно оказываетесь в нижнем процентиле по сравнению с другими сайтами в сегменте ключевых слов, то ваш веб-сайт, скорее всего, получит более низкую оценку метрики сайта, что помешает вам занять место в рейтинге.
Вот почему многие местные сайты, которые конкурируют только с другими местными сайтами, не заметили особых изменений после недавнего мартовского обновления March Core… а сайты, которые конкурируют в более крупных масштабах, сталкиваются с такими сайтами, как Reddit, которые имеют невероятную вовлеченность.
Прежде чем мы углубимся в потенциальные шаги по восстановлению, давайте рассмотрим последнее изменение, которое Google мог внести во время мартовского обновления March Core в отношении ссылок.
11. Обновление ссылки (Ссылки + Метрики)
В предыдущем разделе мы проверили ссылки, исходящие с сайтов платных ссылок, и не нашли убедительных доказательств того, что Google предпринял какие-либо действия. Так что же изменил Google в отношении ссылок?
Возможно сам алгоритм.
Поскольку в последнее время Google уделяет большое внимание общей вовлеченности сайта, нетрудно представить, что Google может добавить к ссылкам метрический компонент.
Проще говоря, если ссылка приходит с сайта с плохими показателями, она не должна стоить так много.
Например, если Google в настоящее время рассчитывает ценность ссылки на основе мощности, тематической релевантности, доверия и релевантности якорного текста, то он мог бы легко добавить оценку показателей веб-сайта в качестве еще одной переменной.
Гипотетический пример с вымышленными переменными:
(Обратите внимание, что это упрощено только для иллюстративных целей. Google не будет использовать ту же терминологию, и уравнение ссылки, вероятно, будет намного сложнее.)
Раньше алгоритм ссылки мог выглядеть так:
- метрика ссылки
[PageRank] x [Тематическая релевантность] x [Показатель доверия] x [Релевантность анкорного текста] = Итоговый балл ссылки
После этого последнего обновления Google вполне может интегрировать показатели веб-сайта в уравнение, увеличивая влияние поведения пользователей на ссылки и общий рейтинг.
[PageRank] x [Тематическая релевантность] x [Оценка доверия] x [Релевантность текста привязки] x [Показательная оценка] = Окончательная оценка ссылки
Следствием этого изменения является то, что сайты с минимальным взаимодействием с пользователем будут передавать меньше ссылочной массы и, следовательно, меньше влиять на рейтинг. Это могло бы помочь снизить влияние PBN и/или сайтов, созданных исключительно с целью создания ссылок.
Если это изменение, реализованное Google, то крайне важно получать ссылки с активных, привлекательных веб-сайтов. Это, в свою очередь, увеличит вес ссылок, исходящих из социальных сайтов, таких как Reddit, LinkedIn, форумов, магазинов электронной коммерции и даже, возможно, сайтов пресс-релизов.
Это может частично объяснить, почему на сайтах, получающих так много социальных ссылок, наблюдается рост трафика.
К сожалению, на момент написания у нас не было возможности вернуться к нашим тестам влияния социальных ссылок на веб-сайт. (Так что отнеситесь к этой информации с недоверием)
В ближайшем будущем мы планируем провести A/B-тестирование влияния социальных ссылок.

В этих материалах вы найдете пошаговые инструкции для быстрого роста, узнаете, как эффективно отслеживать репутацию вашего бренда в сети, разберетесь с особенностями окупаемости SEO даже в сложных нишах. А наша уникальная таблица поможет точно рассчитать, сколько времени потребуется вашему сайту для выхода в ТОП.
12. Как восстановиться после основного обновления Google от марта 2024 г. (Предварительные пошаговые инструкции)
Пока я неоднократно не восстановлю веб-сайты, на которые повлияло мартовское обновление контента, я могу только сказать вам, что лично я бы сделал, если бы восстановил свой собственный веб-сайт. Это будет направлено на то, чтобы охватить все мои теории.
Действуйте на свой страх и риск. Я не контролирую ваш сайт или Google, вы несете 100% ответственность за любые изменения, которые вы вносите на свой сайт.
Вот что лично я бы сделал:
1. Я бы начал с создания ресурса на своем веб-сайте с единственной целью привлечения и удержания посетителей.
Слово «ресурс» — это обширный термин, охватывающий все, что представляет ценность для вашей аудитории. Например, это может быть большая коллекция вещей, которые ваша аудитория хочет скачать. Это может быть коллекция изображений, файлов, PDF-файлов, аудиоклипов, видео и т. д.
Этот ресурс займет заметный раздел на моем сайте, что сделает мой сайт популярным ресурсом в отрасли. Ссылка на него будет размещена на боковой панели, и он будет представлен как ресурс на моей боковой панели, чтобы каждый посетитель имел возможность получить к нему доступ. Я бы даже пункт навигационного меню в шапке поставил со звездочкой рядом, чтобы привлечь к нему внимание.
Например, прекрасный пример страницы ресурса, раздел тортов:
- пример ресурса
- пример раздела ресурса — CakesbyMK
Никакой подписки по электронной почте, никаких барьеров для входа… просто широко доступный ресурс, который люди добавляют в закладки и используют.
Это, в свою очередь, скорее всего, увеличит общие пользовательские показатели моего сайта, независимо от остального контента на нем.
Другие примеры ресурсов:
например: на сайте ремонта дома представлены подробные чертежи / схемы в загружаемом формате PDF для 50 популярных проектов DIY. Вы получаете доступ к гигантской странице ресурсов, покрытой плиткой, где вы можете нажать на проект DIY по вашему выбору и загрузить связанный с ним PDF-файл.
Вот сайт, который делает именно это…
- PDF-ресурсы своими руками
- Пример раздела ресурса — Проекты с Питом
И к счастью, после мартовского обновления March Core их трафик увеличился вдвое.
- Пит своими руками
- График трафика Ahrefs — проекты с Питом
Альтернативно, ресурс ТАКЖЕ может представлять собой калькулятор или бесплатный инструмент, ценный для сообщества. Например, бесплатная программа проверки обратных ссылок в индустрии SEO может стать ценным инструментом, побуждающим читателей возвращаться.
В индустрии казино — бесплатный «калькулятор шансов» или другой инструмент, который помогает пользователям работать с максимальной отдачей.
Это может быть даже один очень длинный и подробный отчет, такой как этот.
Тип ресурса не имеет особого значения… до тех пор, пока он ценен и заставляет посетителей возвращаться снова и снова. Лучше всего, если вы сможете добавить его на боковую панель, чтобы «зацепить» новых посетителей, это будет еще лучше.
2. Следующее, что я хотел бы сделать, это разработать новый источник «вовлеченного трафика».
Хотя известно, что трафик Google конвертируется в продажи, он не отличается длительным временем сеанса. Когда пользователи приходят из Google, они обычно хотят получить быстрый ответ, а затем уйти как можно скорее.
Чтобы улучшить общие показатели сайта, я бы искал вторичный, более привлекательный источник трафика, который перенаправлял бы пользователей на страницы моих ресурсов. Это могут быть Reddit, Facebook, Instagram, Pinterest, Youtube, TikTok, Twitter, LinkedIn и даже потоковая передача с Twitch. Источник трафика не имеет особого значения, пока они продолжают интересоваться моим контентом.
Лично я бы выбрал группу в Facebook и рассмотрел бы возможность размещения очень дешевой рекламы в Facebook и Instagram, чтобы обеспечить устойчивый поток трафика по принципу «установил и забыл» на страницы моих ресурсов. Таким образом, вы практически гарантированно получите посетителей на сайт.
Далее я бы отошел от этой старой модели (внизу):
- Старая партнерская модель. В старой партнерской модели вы направляете трафик прямо из Google на статьи, а затем монетизируете их как можно быстрее.
Это приводит к плохой вовлеченности сайта, даже если контент хороший.
Вместо этого я бы взял на вооружение новую партнерскую модель:
- Новая партнерская модель. В этой новой модели я перенаправляю посетителей из социальных сетей в новый раздел ресурсов моего сайта. Этот раздел ресурсов предназначен исключительно для того, чтобы «заманить моих посетителей в бесконечный цикл добра», что, в свою очередь, значительно увеличит вовлеченность моего сайта.
Как только показатель вовлеченности моего сайта станет достаточно высоким, все статьи на моем сайте должны ранжироваться. После этого я бы оптимизировал свой контент, чтобы в нем были тесно связанные объекты (концентрируясь на плотности объектов), чтобы ранжироваться по высокодоходным ключевым словам.
После внедрения нового ресурса и направления трафика я ждал 1 месяц, пока Google пересчитает новую метрику сайта. Возможно, это все, что нужно сделать.
3. Если новой воронки ресурсов недостаточно, чтобы перевесить плохие показатели сайта, следующее, что я сделаю, это изменю таргетинг на ключевые слова.
Я действую исходя из предположения, что Google измеряет метрику аналогично Core Web Vitals, где он сравнивает ваши результаты с сайтами, конкурирующими по тем же ключевым словам, и классифицирует их с помощью процентиля.
Имея это в виду, если я изменю таргетинг по ключевым словам на совершенно НОВЫЕ ключевые слова, у меня не будет конкурентов, с которыми можно было бы конкурировать… и, следовательно, я должен быть №1 по умолчанию.
(Если никто больше не конкурирует за ключевое слово, а я единственный, кто об этом пишет… тогда моя страница должна быть лучшей по этой теме!)
Поэтому вместо того, чтобы конкурировать за «короткие ключевые слова» с трафиком Google, где мне суждено иметь худшее удержание по сравнению с такими сайтами, как Reddit, я бы начал ориентироваться на совершенно новые ключевые слова, которых еще не существует.
Поскольку Google постоянно начинает обнаруживать, что мой сайт имеет самые высокие показатели удержания по новым ключевым словам (потому что никто больше не конкурирует, а у меня отличный раздел ресурсов, поэтому я всегда вхожу в верхний 1% процентиль), то теоретически , вся репутация моего сайта должна измениться.
И да, новые ключевые слова создавать сложнее, и они ДЕЙСТВИТЕЛЬНО требуют определенных усилий. Вы не можете просто поместить начальное ключевое слово в инструмент подсказки ключевых слов и получить список новых, никогда ранее не рассматривавшихся инструментов подсказки ключевых слов, почти по определению охватывающих существующие ключевые слова.
Мой процесс разработки новых ключевых слов:
- А) Я начинаю с просмотра существующих ключевых слов/тем.
- Б) Затем я изучаю предстоящие тенденции, разработки и новости в отрасли. Я глубже погружаюсь в тему, освещая вещи, которые еще не были затронуты другими.
- В) Наконец, я прогнозирую, что читатели будут искать в ближайшем будущем. (Это мои новые ключевые слова)
Конечная цель — создать контент, который по-прежнему будет привлекать читателей, но при этом будет совершенно уникальным. Уникален не только контент… уникальна идея/тема/ключевое слово!
И да, я уверен, что другие последуют моему примеру и скопируют мои «новые ключевые слова», однако к тому времени я уже зарекомендую себя, и мой показатель будет выше.
Поиск неисправностей
#1 Что делать, если у меня уже есть большое количество общего короткого контента?
Это сложный вопрос… и в конечном итоге я считаю, что есть два варианта:
Я мог бы применить грубый подход, пытаясь создать ресурс, который будет настолько ценным, что перевесит короткий, общий контент… или я могу решить эту проблему.
Одним из подходов может быть перепрофилирование контента, преобразование его в новую тему, чтобы устранить (или уменьшить) любую конкуренцию.
Например, если у меня уже есть статья «Как испечь шоколадный торт». Возможно, это отличная страница… но на ту же тему существует около 2 миллионов других страниц.
Вместо этого я мог бы переработать страницу, чтобы изменить таргетинг.
С помощью некоторых быстрых изменений я мог изменить таргетинг страницы с «Как испечь шоколадный торт» на «Делаю племяннице шоколадный муссовый торт на день рождения».
С точки зрения SEO, мы только что заменили обычное ключевое слово, такое как «как испечь шоколадный торт», на новое ключевое слово: «шоколадный муссовый торт на день рождения племянницы».
Статья почти такая же, за исключением заголовка, тега H1, URL-адреса и, возможно, нескольких слов во вступлении.
Однако таргетинг… полностью меняется.
Мы больше не конкурируем с миллионами других страниц и остаемся единственными, кто освещает тему шоколадных муссовых тортов для племянниц.
Это значительно увеличивает вероятность того, что наши страницы попадут в верхний процентиль наиболее привлекательных страниц. Это может привлечь значительно меньше читателей… однако эти посетители, скорее всего, будут более заинтересованы, как только зайдут на мой сайт, тем самым вознаграждая весь сайт.
В конце концов, если вы уже потеряли 100% трафика из-за плохих показателей сайта, то это будет шагом вперед.
Кроме того, лично я бы сделал еще один решительный шаг после мартовского обновления March Core…
(Внимание: это может быть не для всех)
Я бы удалил/обрезал короткий контент, который не сможет удержать людей на сайте до тех пор, пока я не выздоровею.
При восстановлении я бы избегал создания контента с очень простым ответом и фактически удалял бы контент, который мог бы снизить общие показатели моего сайта (даже если это хороший ответ).
Например, если у меня есть страница, посвященная ответу на вопрос «как долго мне готовить курицу», я бы удалил ее, потому что, вероятно, есть сотни других страниц, конкурирующих за тот же термин, И нет никаких шансов, что я У меня будут лучшие показатели/вовлеченность, чем на других страницах.
Хочу ли я ранжироваться по критериям, которые побуждают пользователей быстро приходить и уходить с моего сайта? Или я хочу ранжироваться по «длинным ключевым словам», которые увеличивают вероятность того, что пользователи останутся на сайте.
Например, вместо «сколько времени готовить курицу» (короткое ключевое слово).
Вместо этого я мог бы настроить таргетинг на такое ключевое слово, как «Риски и побочные эффекты употребления сырой курицы». ЭТО страница, на которую ваш читатель, скорее всего, потратит время, читая каждую крупицу информации. (Возможно, даже дополните это еще одной статьей, в которой говорится: «Что делать, если вы подозреваете, что съели сырую курицу»).
И вы обнаружите, что у вас очень мотивированная публика, которая очень увлечена вашим контентом.
Для сравнения,
Рейтинг по запросу «как долго готовить курицу» может привести к 5–10-секундным сеансам сайта…
Рейтинг по «Рискам и побочным эффектам употребления сырой курицы» с последующей статьей «Что делать, если вы подозреваете, что съели сырую курицу» может привести к 3-5-минутному сеансу… даже если качество и усилия по созданию контента одинаковы!
№2 Помогите! Я волнуюсь, что потрачу кучу времени на создание ресурса, и он не сработает!
Прелесть Интернета в том, что вы можете быстро протестировать и получить неограниченное количество попыток. Когда я застреваю, пытаясь выяснить, «что будет работать», я выпускаю один высококачественный продукт, измеряю результаты… а затем либо масштабирую его, либо иду в совершенно другом направлении.
Хотя я понимаю, что создание ресурса может показаться сложной задачей, я считаю, что можно протестировать ПЕРВУЮ часть, прежде чем тратить сотни часов на масштабирование ресурсов.
Например, если я подумываю о создании коллекции чертежей домашних проектов своими руками, я могу создать ОДИН из них и поделиться им в социальных сетях. Если реакция положительная, то я знаю, что я на пути к победителю. Если никого это не волнует, и я почти не получаю никакого участия, то, вероятно, это не очень хороший ресурс.
При мозговом штурме ресурсов я представляю путь своего клиента и выявляю все проблемы (болевые точки), через которые ему предстоит пройти, чтобы достичь своей цели.
- путешествие клиента
Для каждой проблемы, скорее всего, вы можете создать ресурс, который поможет им перейти к следующему шагу. При измерении ценности потенциального ресурса, который я собираюсь создать, я хотел бы задать себе один вопрос:
«Захочет ли кто-нибудь за это заплатить?»
Если я верю, что потенциально могу продать ресурс, который создаю, за 5–20 долларов, тогда я уверен, что люди почувствуют ценность, когда я раздаю его бесплатно.
Вот практический пример:
- потеря веса на пути к клиенту
На каждом этапе пути моего клиента есть возможность создать ресурс, который может ему помочь. В приведенном выше примере у нас есть разные ТИПЫ ресурсов: от видео, PDF-файлов, форума до калькулятора.
Все они потенциально могут работать.
- отслеживание прогресса
После создания раздела ресурсов, направления трафика из социальных сетей на мою страницу ресурса и работы с контентом, который может привести к коротким сеансам, я отслеживал следующие показатели с помощью аналитического инструмента, такого как Google Analytics или Plausible.
В частности, я бы отслеживал:
- Общее время сеанса
- Просмотров страниц на посетителя
Хотя показатель отказов интересен, пока общее время сеанса велико и мои посетители взаимодействуют с несколькими аспектами моего сайта, меня это не волнует.
Тем, у кого есть несколько поддоменов, я бы лично попытался объединить данные, поскольку считаю, что Google измеряет показатели всего сайта. Если ваши показатели www.site.com хороши, то ваш forum.site.com, вероятно, также будет работать хорошо, поэтому многие сайты с активными форумами в последнее время демонстрируют стабильные показатели посещаемости.
Например, с помощью Google Analytics:
- взаимодействие с течением времени
- измерение вовлеченности с помощью Google Analytics
Используя Google Analytics, мы отслеживали улучшение вовлеченности с течением времени, которое увеличилось почти вдвое менее чем за несколько недель.
13. Продолжающиеся в марте основные тесты и эксперименты (Подтверждение теорий)
Хотя теории хороши, именно тестирование в реальных условиях определит, что на самом деле произошло во время мартовского обновления March Core. Чтобы укрепить наше понимание мартовского основного обновления, мы провели несколько реальных SEO-тестов, чтобы увидеть, как Google реагирует в определенных ситуациях.
Мы будем обновлять эту страницу последними результатами тестов и рекомендуем вам добавить эту страницу в закладки, если вы хотите видеть обновленные результаты тестов в будущем.
Исторически сложилось так, что Google требовалось от нескольких недель до месяцев, чтобы отреагировать на изменения, поэтому нам нужно посмотреть, насколько быстро мы достигнем результатов.
Тест №1 (продолжается)
- Мы создаем уникальный раздел ресурса, который будет отображаться на боковой панели и в шапке сайта. Этот ресурс будет получать трафик из социальных сетей для улучшения общих показателей сайта. В конечном итоге мы хотим вовлечь наших пользователей в цикл взаимодействия, как описано в нашей модели ниже:
Новая партнерская модель
Тест № 2 (продолжается)
- Мы меняем таргетинг страниц на ключевые слова, чтобы они были нацелены на уникальные, редко встречающиеся ключевые слова. Цель состоит в том, чтобы выделить нас и стать лучшим источником информации в Интернете по этим конкретным, уникальным ключевым словам. Для этого мы перерабатываем заголовки, URL-адреса, первые абзацы.
Тест №3 (продолжается)
- Мы создаем вирусную статью в стиле «кликбейт», ссылка на которую будет размещена на боковой панели сайта. Абсурдность изображения и заголовка, связанного со статьей, побудит пользователей щелкнуть по ней. Мы планируем провести раздельное тестирование заголовков и изображений, чтобы добиться максимального рейтинга кликов. Цель — предложить альтернативу разделу ресурсов в качестве еще одного места для перехода на сайт.
Рассчитаем, сколько дополнительной прибыли принесет SEO вашему бизнесу
- Проведем глубокий анализ поискового потенциала вашей ниши
- Составим прогноз роста органического трафика и увеличения продаж
- Составим план достижения финансовых целей через SEO

14. Потенциальные лазейки (Предупреждение/Эксплойты)
Красота постоянно меняющегося поискового ландшафта заключается в том, что всегда есть новые возможности, новые лазейки и новые направления, которые можно использовать (или извлечь выгоду). Конечно, есть хорошие возможности (например, программный контент), а есть возможности, которыми злоумышленники, скорее всего, будут злоупотреблять.
Я не рекомендую и не одобряю ничего из этого списка.
Вот некоторые из этих потенциальных новых возможностей, которые открывает это изменение.
Программный контент №1
Благодаря достижениям в области искусственного интеллекта создание полностью автоматизированных сайтов с программным контентом стало еще проще. Однако хитрость заключается в том, чтобы обеспечить ценность (ресурсы) при нацеливании на ключевые слова, на которые раньше никто не ориентировался.
Программный контент обычно объединяет различные источники данных для создания нового контента, который одновременно полезен и никогда раньше не использовался.
Например, если вам нужно объединить данные из:
- Исторические рекорды температуры
- Текущие температурные рекорды
- Продажа зонтиков.
- Продажа портативных обогревателей.
- Продажа кондиционеров.
Вы можете создать программный веб-сайт, на котором будут публиковаться новые ключевые слова, такие как:
- Тенденции продаж, обусловленные погодой [Дата]
- Тенденции продаж, обусловленные погодой, апрель 2024 г.
- Тенденции продаж, обусловленные погодой, май 2024 г.
- Тенденции продаж, обусловленные погодой, июнь 2024 г.
Каждый месяц публикуются новые страницы с соответствующими данными.
- Влияние погоды на продажи в [Город/Регион]
- Влияние погоды на продажи в Нью-Йорке
- Влияние погоды на продажи в Париже
- Влияние погоды на продажи в Монреале
Это можно масштабировать, добавляя данные практически по каждому городу/региону, для которого у вас есть данные. Вы можете легко создать сотни тысяч страниц с оригинальными программными данными, которые будут полезны читателям.
Создавая новые ключевые слова в большом масштабе, ваш программный веб-сайт может быть автономным, привлекая трафик от экспертов отрасли, которые ищут уникальные комбинации данных.
#2 Сбор и вращение ресурсов
Я НЕ предлагаю никому делать это, однако я знаю, что это произойдет, поэтому решил предупредить людей об этом заранее.
Благодаря достижениям в области искусственного интеллекта стало чрезвычайно легко «раскручивать/переосмысливать» ресурсы, которые уже были созданы другими создателями контента.
- Кто-то другой создал PDF-файл?
Кто-то может раскрутиться, переписав его с помощью ИИ за считанные минуты. Сделайте это 20 раз, и теперь у вас есть коллекция из 20 «оригинальных» PDF-файлов, которые вы можете предложить для загрузки на веб-сайте.
Это еще ПРОЩЕ при работе на языке, отличном от английского. Представьте себе, что вы берете коллекцию PDF-документов, переводите их с английского на французский… и заканчиваете.
Обратите внимание: я НЕ рекомендую выдавать чужой контент за свой. Если бы вы переводили что-то, я бы сначала получил разрешение автора и указал авторство.
- Изображение создал кто-то другой?
Люди, скорее всего, будут «переосмысливать» изображения с помощью таких инструментов, как Midjourney, беря изображения у других создателей контента, чтобы превратить их в свои собственные.
Я не совсем уверен, как можно защититься от этого… однако хочу предупредить, что если разделы ресурсов станут очередной «горячей вещью», это почти неизбежно. Тем более, что манипуляции с искусственным интеллектом могут сделать DMCA менее эффективными, поскольку контент может быть «достаточно другим», но при этом оставаться сильно вдохновленным.
Это мрачная ситуация.
Обратите внимание, что я НЕ рекомендую создавать вращающиеся изображения. Благодаря ИИ легко создавать новые с нуля.
#3 Фейковые истории/Глубокие фейки
Мы все знаем, что негативные и диковинные новости продаются. Я предвижу, что в попытке привлечь внимание мы, скорее всего, увидим увеличение количества фальшивого диковинного контента, создаваемого с единственной целью — заставить людей кликать.
Представьте себе, что вы находитесь на гоночном сайте Формулы-1 и видите на боковой панели дипфейк Льюиса Хэмилтона с подзаголовком: «Ужасающая авария водителя Формулы-1».
Я уверен, что ваше воображение может разыграться от чистой нелепости, которая может возникнуть в отчаянии, чтобы удержать людей на сайте. Вероятно, эта цифра увеличится.
Обратите внимание: я НЕ рекомендую создавать диковинные/фейковые истории. Это разрушит вашу репутацию.
#4 Социальный «захват» / Паразитное SEO
Это уже начало происходить, поскольку злоумышленники захватили высокопоставленные веб-сайты для размещения своего собственного контента.
Хотя вы можете создать свой собственный субреддит Reddit и начать публиковать там контент… ТАКЖЕ иногда возможно захватить весь существующий субреддит.
Например, в прошлом году субреддит r/SEO с миллионом подписчиков был захвачен группой, когда они обнаружили, что модераторы неактивны в субреддите.
Вероятно, на Reddit уже существуют тысячи авторитетных субреддитов. Захватите саб-реддит, начните публиковать весь свой контент… и получите прибыль?
Аналогичным образом, такие сайты, как LinkedIn.com, по-прежнему позволяют публиковать истории, имеющие высокий рейтинг.
Medium.com, хотя и немного выше по качеству, занимает превосходные позиции.
Хуже всего то, что эти субъекты будут использовать авторитет, которым по своей сути обладают эти сайты, для продвижения своей повестки дня. Это часто помогает обмануть как Google, так и ничего не подозревающих читателей.
15. Заключительные слова (Ссылки, дополнительная литература, поддержка
Этот проект представляет собой значительные инвестиции — более 220 человеко-часов моей команды и меня, тысячи долларов на тестирование и многочисленные ночные сеансы. Это все, что я делал большую часть марта и апреля.
Причина, по которой я решил сделать это общедоступным бесплатно, заключается в том, чтобы помочь как можно большему количеству людей, которые несправедливо пострадали от мартовского обновления March Core. Хотя я понимаю, что некоторые веб-сайты заслужили последствия, я также считаю, что многие веб-сайты и веб-мастера пострадали несправедливо.
Этим людям я надеюсь, что, поделившись некоторыми из моих работ, вы им поможете.
Если вы управляете SEO-агентством, я надеюсь, что некоторые из моих теорий, данных и тестов помогут вам лучше обслуживать своих клиентов. Вы можете стать героем, который спасает переживающий трудности веб-сайт.
Если вы профессионал в области SEO, то данные могут помочь вам принять более обоснованные решения, сэкономив вам время, деньги и усилия.
Если вы считаете эти ресурсы ценными, не стесняйтесь поделиться этой страницей в своей профессиональной сети, в группах Facebook, чатах Slack/Skype/Discord и на форумах.
А если вы захотите каким-либо образом поддержать меня, я приглашаю вас зайти на On-Page.ai. Платформа, созданная на основе лучших практик Google, призвана оптимизировать ваш рейтинг, опережая частые обновления Google. Одна из моих главных мотиваций идти в ногу с последними тенденциями SEO — постоянно совершенствовать On-Page.ai, гарантируя, что он воплощает в себе наиболее эффективные стратегии ранжирования.
Я уверен, что это может быть ценным активом в рейтинге вашего сайта в Интернете.
Вот несколько полезных ссылок:
- Официальная основная страница Google Поиска за март
- Служба поиска Google Twitter
- Джон Мюллер из Google в Твиттере
- Инструмент Ahrefs
- На странице.ai
Если вы хотите внести какие-либо открытия, тематические исследования или какие-либо исправления, напишите мне по адресу team@on-page.ai.
Искренне,
— Эрик Ланчерес