Меняющийся подход Google к ИИ-контенту: углубленный взгляд

Из-за распространенности массового контента, созданного искусственным интеллектом, Google становится сложнее обнаруживать спам.

Контент, созданный с помощью искусственного интеллекта, также затрудняет оценку качества контента для Google.

Однако есть признаки того, что Google совершенствует свою способность алгоритмически выявлять низкокачественный контент с помощью ИИ.

Спам-контент ИИ по всей сети

Вам не обязательно быть специалистом в области SEO, чтобы знать, что контент, основанный на генеративном искусственном интеллекте, за последние 12 месяцев проник в результаты поиска Google.

За это время отношение Google к контенту, созданному с помощью ИИ, изменилось. Официальная позиция изменилась с «это спам и нарушает наши правила» на «мы уделяем внимание качеству контента, а не тому, как он создается».

Я уверен, что заявление Google о повышении качества вошло во многие внутренние SEO-презентации, продвигающие контент-стратегию, генерируемую искусственным интеллектом. Несомненно, позиция Google предоставила достаточную передышку, чтобы добиться одобрения руководства многих организаций.

Результат: Сеть заполонила масса низкокачественного контента, созданного искусственным интеллектом. И некоторые из них изначально попали в результаты поиска компании.

Невидимый мусор

Видимая сеть – это часть сети, которую поисковые системы индексируют и показывают в результатах поиска.

По словам Панду Наяка из Google, основанного на показаниях антимонопольного суда Google, мы знаем, что Google «только» поддерживает индекс примерно из 400 миллиардов документов. Google находит триллионы документов во время сканирования.

Это означает, что Google индексирует только 4% документов, с которыми он сталкивается при сканировании Интернета (400 миллиардов/10 триллионов).

Google утверждает, что защищает пользователей от спама в 99% кликов по запросам. Если это хотя бы отдаленно верно, то это уже исключает большую часть контента, который не стоит смотреть.

Контент – король, а алгоритм – Новая одежда императора

Google утверждает, что хорошо определяет качество контента. Но многие оптимизаторы и опытные менеджеры веб-сайтов с этим не согласны. У большинства из них есть примеры, демонстрирующие, что низкокачественный контент превосходит более качественный контент.

Любая уважаемая компания, инвестирующая в контент, скорее всего, попадет в верхние несколько процентов «хорошего» контента в Интернете. Его конкуренты, вероятно, тоже будут там. Google уже исключил массу менее серьезных кандидатов на включение.

С точки зрения Google, компания проделала фантастическую работу. 96% документов не попали в индекс. Некоторые проблемы очевидны для человека, но их сложно обнаружить машине.

Я видел примеры, из которых можно сделать вывод, что Google хорошо понимает, какие страницы являются «хорошими», а какие «плохими» с технической точки зрения, но относительно неэффективно отличает хороший контент от отличного контента.

Google признал это в антимонопольных материалах Министерства юстиции. В презентации 2016 года говорится: «Мы не понимаем документы. Мы это притворяемся».

Слайд из презентации для всех пользователей Поиска подготовлено Эриком Леманом

Google полагается на взаимодействие пользователей с результатами поиска, чтобы судить о качестве контента

Google полагался на взаимодействие пользователей с поисковой выдачей, чтобы понять, насколько «хорошо» содержание документа. Позже Google поясняет суть презентации:  "Каждый пользователь извлекает выгоду из ответов прошлых пользователей... и вносит ответы, которые приносят пользу будущим пользователям".

Слайд из презентации Search All Hands, подготовленной Lehman

Данные о взаимодействии, которые Google использует для оценки качества, всегда были предметом горячих дискуссий. Я считаю, что Google почти полностью использует взаимодействие со своей поисковой выдачей, а не с веб-сайтами, чтобы принимать решения о качестве контента. Это исключает такие показатели, измеряемые сайтом, как показатель отказов.

Если вы внимательно слушали знающих людей, Google достаточно открыто заявил, что использует данные о кликах для ранжирования контента.

Инженер Google Пол Хаар представил доклад «Как работает Google: история инженера по рейтингу Google» на SMX West в 2016 году. Хаар рассказал о результатах поиска Google и о том, как поисковая система «ищет изменения в шаблонах кликов». Он добавил, что эти пользовательские данные «сложнее понять, чем можно было бы ожидать».

Комментарий Хаара дополнительно подкреплен слайдом презентации «Рейтинг исследований», который является частью экспонатов Министерства юстиции:

Слайд с выставки Министерства юстиции США «Рейтинг для исследований»

Способность Google интерпретировать пользовательские данные и превращать их во что-то полезное зависит от понимания причинно-следственных связей между изменяющимися переменными и связанными с ними результатами.

Выдача — единственное место, которое Google может использовать, чтобы понять, какие переменные присутствуют. Взаимодействия на веб-сайтах содержат огромное количество переменных, находящихся за пределами поля зрения Google.

Даже если бы Google мог выявить и количественно оценить взаимодействие с веб-сайтами (что, возможно, было бы сложнее, чем оценка качества контента), это привело бы к экспоненциальному росту различных наборов переменных, каждая из которых требует минимального трафика. пороговые значения, которые необходимо достичь, прежде чем можно будет сделать значимые выводы.

Google признает в своих документах, что «растущая сложность UX делает обратную связь все труднее превратить в точные оценочные суждения», когда речь идет о поисковой выдаче.

Анонсы наших новых статей в Телеграме

Read More

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Капча загружается...