Глава Google Search: ошибки ИИ не помешают прогрессу
По словам Лиз Рид, руководителя отдела поиска компании, Google продолжит разработку функций искусственного интеллекта, несмотря на текущие и потенциальные проблемы.
Что это значит. Когда дело доходит до искусственного интеллекта в поиске, Google продолжит идти на продуманный риск, проводить масштабные испытания и быстро реагировать на любые проблемы, заявил Рид во время общего собрания на прошлой неделе, сообщает CNBC.
Почему мы заботимся Google превращается из классической поисковой системы в систему ответов. Этот переход не будет быстрым и легким. Мы еще многого не знаем о том, как обзоры ИИ повлияют на нашу стратегию поиска и эффективность.
Что говорит Google. Вот что сказал Рид на встрече:
«Важно, чтобы мы не сдерживали функции только потому, что могут возникнуть случайные проблемы, а, более того, по мере того, как мы обнаруживаем проблемы, мы их решаем.
«Я не думаю, что нам следует отнимать из этого тот факт, что нам не следует рисковать. Нам следует отнестись к ним вдумчиво. Нам следует действовать срочно. Когда мы обнаруживаем новые проблемы, нам следует провести обширное тестирование, но мы не всегда находим все, и это просто означает, что мы реагируем.
«Люди на самом деле создали шаблоны того, как привлечь внимание общественности, создавая фальшивые обзоры ИИ, и это еще одна вещь, о которой мы думаем.
«Независимо от того, сколько красных команд мы будем делать, нам нужно будет делать больше.
«Нам нужно не просто понимать качество сайта или страницы, мы должны понимать каждый отрывок страницы.
«Каждый раз, когда вы видите проблемы, они могут быть маленькими или большими. Пожалуйста, сохраните их».
Проблемы с искусственным интеллектом. Ответы, сгенерированные искусственным интеллектом, которые появились в недавно выпущенных обзорах искусственного интеллекта Google, подверглись критике за опасные и неправильные ответы, в том числе бег с ножницами, приготовление пищи с клеем, поедание камней и питье мочи.
В Google заявили, что некоторые скриншоты обзора AI были подделаны, а другие возникли из-за отсутствия данных (так называемых информационных пробелов). Компания заявила, что «обнаружила нарушение политики в отношении контента менее чем в одном из каждых 7 миллионов уникальных запросов, по которым появлялись обзоры AI».
Анонсы наших новых статей в Телеграме