Учені закликали розробити план на випадок виходу ШІ з-під контролю

17.09.2024
30 хв
640
0
Учені закликали розробити план на випадок виходу ШІ з-під контролю. Головний колаж новини.
  • Група вчених висловила стурбованість щодо потенційної втрати контролю над штучним інтелектом.
  • На їхню думку, така ситуація здатна призвести до катастрофічних наслідків для людства.
  • Експерти закликали уряди країн розробити план на випадок виходу ШІ з-під контролю людей.

Група вчених, що спеціалізуються на технологіях штучного інтелекту, закликала владу різних країн розробити алгоритм дій на випадок втрати контролю над ШІ. Вони написали відкритого листа з відповідною пропозицією.

За словами експертів галузі, їх турбує ймовірність розвитку подібного сценарію. Вихід ШІ з-під контролю людини може призвести до катастрофічних наслідків, вважають вони. З цієї причини уряди країн по всьому світу повинні об’єднати свої зусилля і діяти на випередження, йдеться в посланні.

«На жаль, ми ще не розробили необхідну науку для контролю і захисту використання такого передового інтелекту. Глобальний характер цих ризиків вимагає визнання безпеки ШІ як світового суспільного блага і роботи над управлінням цими ризиками», — йдеться в заяві.

Науковці дійшли висновку, що першим кроком має стати створення спеціалізованих органів для виявлення та реагування на інциденти з ШІ. Ці служби координуватимуть між собою дії з розроблення плану для надзвичайних ситуацій, пов’язаних зі штучним інтелектом.

У довгостроковій перспективі експерти очікують, що держави створять міжнародні принципи управління розробкою ШІ-моделей. На їхню думку, це дасть змогу уникнути створення технологій, які можуть становити катастрофічні ризики.

«Необхідно провести глибокі фундаментальні дослідження, щоб забезпечити безпеку передових систем ШІ. Ця робота має розпочатися швидко, щоб гарантувати, що їх буде розроблено та перевірено до появи інноваційних ШІ», — зазначають автори послання.

Вчені запропонували урядам країн зосередити зусилля на трьох ключових аспектах:

  • угоди та інститути щодо забезпечення готовності до надзвичайних ситуацій;
  • схеми забезпечення безпеки, які вимагають від розробників створення спеціальних заходів перед розгортанням ШІ-моделей;
  • незалежні глобальні дослідження безпеки та перевірки штучного інтелекту.

Під відкритим листом залишили підписи понад 30 фахівців ШІ-сфери зі США, Канади, Китаю, Сінгапуру, Великої Британії та інших країн.

Нагадаємо, ми писали, що ЗМІ дізналися про використання технологій на базі штучного інтелекту в розвідувальних операціях США і Великої Британії.

Як вам стаття?

0
0

статті на цю ж тему

Віталік Бутерін розповів про ризики...
avatar Pavel Kot
18.09.2024
ChatGPT самостійно написав...
avatar Pavel Kot
16.09.2024
OpenAI представила нову ШІ-модель o1 для...
avatar Serhii Pantyukh
13.09.2024
Увійти
або