Na dzień przed I/O 2024: Google nauczyło sztuczną inteligencję rozumieć, co dzieje się w kadrze w czasie rzeczywistym
- Google opublikowało wideo demonstrujące nową technologię sztucznej inteligencji, która wykorzystuje kamerę.
- System działa w czasie rzeczywistym i może reagować na polecenia głosowe.
- Google prawdopodobnie opowie o tej funkcji sztucznej inteligencji na konferencji I/O 2024 w dniu 14 maja.
Google ogłosiło nową funkcję sztucznej inteligencji, która wykorzystuje kamerę do rozpoznawania tego, co dzieje się w kadrze w czasie rzeczywistym. Firma zaprezentowała tę technologię w serwisie X (dawniej Twitter) na dzień przed konferencją deweloperów I/O 2024.
Krótki film oznaczony jako “prototyp” pokazuje urządzenie Pixel z otwartą aplikacją aparatu. Osoba obserwująca przygotowania do konferencji za pośrednictwem smartfona zapytała:
“Hej, jak myślisz, co tu się dzieje?”.
Głos AI odpowiedział, że “prawdopodobnie ludzie przygotowują się do dużego wydarzenia, prawdopodobnie konferencji lub prezentacji”.
System zidentyfikował litery IO jako związane z konferencją dla programistów Google i wspomniał o “nowych postępach w sztucznej inteligencji”.
W miarę jak zmieniały się głosy człowieka i sztucznej inteligencji, system generował tekstową transkrypcję dialogu.
Nie ma danych na temat tej funkcji, ale ma ona podobieństwa z aplikacją do wyszukiwania kamer Google Lens.
Jednak technologia zademonstrowana w teaserze działa w czasie rzeczywistym i może reagować na polecenia głosowe.
Korporacja prawdopodobnie poda szczegóły dotyczące tej funkcji sztucznej inteligencji podczas wydarzenia I/O 2024, które odbędzie się 14 maja.
Przypomnijmy, że Google niedawno zaktualizowało swoją politykę dotyczącą nieodpowiednich treści, zakazując reklamowania witryn i aplikacji z pornografią.