За день до I/O 2024: Google научила ИИ понимать происходящее через камеру
- Компания Google опубликовала видео с демонстрацией новой ИИ-технологии, использующей камеру.
- Система работает в режиме реального времени и может реагировать на голосовые команды.
- Вероятно, Google расскажет об этой ИИ-функции на конференции I/O 2024 14 мая.
Корпорация Google анонсировала новую функцию искусственного интеллекта, использующую камеру для распознавания происходящего в кадре в режиме реального времени. Компания показала технологию в X (ранее Twitter) за день до конференции разработчиков I/O 2024.
В коротком видео с пометкой «прототип» показано устройство Pixel с открытым приложением камеры. Человек, наблюдавший за подготовкой к конференции через смартфон, спросил:
«Эй, как ты думаешь, что здесь происходит?».
ИИ-голос ответил, что «вероятно, люди готовятся к большому мероприятию, возможно, конференции или презентации».
Система идентифицировала буквы IO как связанные с конференцией для разработчиков Google и упомянула «новые достижения в области искусственного интеллекта».
По мере смены двух голосов человека и ИИ, система сгенерировала текстовую расшифровку диалога.
Данных об этой функции нет, но она имеет сходство с приложением поиска с помощью камеры Google Lens.
Однако продемонстрированная в тизере технология работает в режиме реального времени и может реагировать на голосовые команды.
Вероятно, корпорация предоставит подробности об этой ИИ-функции на мероприятии I/O 2024, которое состоится 14 мая.
Напомним, недавно Google обновила политику в отношении недопустимого контента, запретив рекламу сайтов и приложений с дипфейк-порно.