Apple Visual Intelligence — поиск с помощью камеры iPhone

Apple продемонстрировала новый поиск с помощью Apple Intelligence под названием Apple Visual Intelligence. Он выглядит и работает как Google Lens, но использует встроенную камеру iPhone и встроен непосредственно в Apple Intelligence.

Кроме того, для получения результатов поиска он, похоже, использует сторонние поисковые системы, такие как Google, ChatGPT OpenAI и Yelp — в зависимости от типа запроса.

Как это выглядит. Вот несколько скриншотов, которые я сделал со вчерашнего мероприятия Apple. Если вы хотите его посмотреть, оно начинается примерно с 57-минутной отметки в этом видео:

Хотите купить велосипед, который вы увидели на прогулке; после того, как вы сфотографируете его, появится надпись «Поиск в Google…»:

Хотя приведенный пример результатов поиска выглядит несколько «подделанным»:

Вот пример результатов местного поиска, когда кто-то хочет получить более подробную информацию о ресторане, который он нашел во время прогулки. Кажется, это приводит к появлению результатов локального поиска в Apple Maps, которые, как я полагаю, созданы на основе Yelp и OpenTable.

Вот крупный план, показывающий параметры OpenTable в Apple Maps:

А вот пример фотографии домашнего задания, где для помощи используется ChatGPT OpenAI:

Почему нас это волнует. Похоже, что Apple использует ИИ как инструмент, а не основу для своих устройств, интегрируясь с Google, OpenAI и другими поисковыми провайдерами. Очевидно, что на устройстве Apple используется искусственный интеллект и машинное обучение, но результаты, похоже, исходят от третьих сторон.

Ранний бета-обзор газеты Washington Post показывает, что впереди еще долгий путь. В частности, у него есть проблемы с галлюцинациями, пометкой спама как приоритетного и другими проблемами.

Анонсы наших новых статей в Телеграме

Read More

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Капча загружается...