Google wzywa świat do uregulowania kwestii AI

18.04.2023
37 min
1180
0
Google wzywa świat do uregulowania kwestii AI. Główny kolaż wiadomości.
  • Prezes firmy jest świadomy zagrożeń związanych z nowymi technologiami
  • Głównym zagrożeniem jest dezinformacja
  • Ekspert wzywa kraje do stworzenia wspólnych zasad pracy z sieciami neuronowymi

CEO Google Sundar Pichai postrzega technologie AI jako zagrożenie. Jego zdaniem świat powinien opracować zasady regulacyjne, aby uniknąć takiego ryzyka. Biznesmen wyraził tę opinię w rozmowie z dziennikarzami 60 Minutes:

«Sztuczna inteligencja zaczęła się teraz zbyt szybko rozwijać. Tak szybki rozwój technologii nie pozwala społeczeństwu na dostosowanie się do zmian

Według Pichai’a, firmy są zmuszone dołączyć do wyścigu technologicznego. Nie mają jednak czasu na pełne sprawdzenie wszystkich niuansów działania AI, co może doprowadzić do masowego powstawania fake newsów i innych problemów.

Takie obawy potwierdzają się niemal każdego dnia. Na przykład sieci neuronowe stworzyły niedawno fałszywe zdjęcia papieża i wygenerowały serię obrazów o możliwym aresztowaniu Donalda Trumpa.

«Każdy, kto pracuje z AI od jakiegoś czasu, dochodzi do wniosku, że jest ona tak różna i głęboka, że potrzebujemy reguł społecznych. Potrzebujemy mechanizmów adaptacyjnych. Nie powinniśmy wprowadzać do domeny publicznej technologii, na które społeczeństwo nie jest gotowe

Na koniec wywiadu Sundar Pichai wezwał do opracowania globalnych ram regulacyjnych dla AI. Porównał taki dokument do traktatu nuklearnego, który pomaga światu zachować bezpieczeństwo.

Wczoraj pisaliśmy, że Elon Musk uruchomił nowy projekt A I o nazwie X.AI.

To będzie interesujące

Co sądzisz o tym artykule?

0
0

artykuły na ten sam temat

Parlament Europejski zatwierdza przepisy AML z zakazem anonimowych...
avatar Dmitriy Yurchenko
25.04.2024
HBAR wzrósł o 100% na wieść o funduszu tokenizacyjnym...
avatar Serhii Pantyukh
24.04.2024
Coca-Cola zainwestuje 1,1 mld USD w sferę sztucznej inteligencji w...
avatar Dmitriy Yurchenko
24.04.2024