Apple Visual Intelligence — поиск с помощью камеры iPhone
Apple продемонстрировала новый поиск с помощью Apple Intelligence под названием Apple Visual Intelligence. Он выглядит и работает как Google Lens, но использует встроенную камеру iPhone и встроен непосредственно в Apple Intelligence.
Кроме того, для получения результатов поиска он, похоже, использует сторонние поисковые системы, такие как Google, ChatGPT OpenAI и Yelp — в зависимости от типа запроса.
Как это выглядит. Вот несколько скриншотов, которые я сделал со вчерашнего мероприятия Apple. Если вы хотите его посмотреть, оно начинается примерно с 57-минутной отметки в этом видео:
Хотите купить велосипед, который вы увидели на прогулке; после того, как вы сфотографируете его, появится надпись «Поиск в Google…»:
Хотя приведенный пример результатов поиска выглядит несколько «подделанным»:
Вот пример результатов местного поиска, когда кто-то хочет получить более подробную информацию о ресторане, который он нашел во время прогулки. Кажется, это приводит к появлению результатов локального поиска в Apple Maps, которые, как я полагаю, созданы на основе Yelp и OpenTable.
Вот крупный план, показывающий параметры OpenTable в Apple Maps:
А вот пример фотографии домашнего задания, где для помощи используется ChatGPT OpenAI:
Почему нас это волнует. Похоже, что Apple использует ИИ как инструмент, а не основу для своих устройств, интегрируясь с Google, OpenAI и другими поисковыми провайдерами. Очевидно, что на устройстве Apple используется искусственный интеллект и машинное обучение, но результаты, похоже, исходят от третьих сторон.
Ранний бета-обзор газеты Washington Post показывает, что впереди еще долгий путь. В частности, у него есть проблемы с галлюцинациями, пометкой спама как приоритетного и другими проблемами.
Анонсы наших новых статей в Телеграме