Ученые призвали разработать план на случай выхода ИИ из-под контроля

17.09.2024
30 мин
640
1
Ученые призвали разработать план на случай выхода ИИ из-под контроля. Заглавный коллаж новости.
  • Группа ученых выразила обеспокоенность касательно потенциальной потери контроля над искусственным интеллектом.
  • По их мнению, подобная ситуация способна привести к катастрофическим последствиям для человечества.
  • Эксперты призвали правительства стран разработать план на случай выхода ИИ из-под контроля людей. 

Группа ученых, специализирующихся на технологиях искусственного интеллекта призвала, власти различных стран разработать алгоритм действий на случай потери контроля над ИИ. Они написали открытое письмо с соответствующим предложением.

По словам экспертов отрасли, их беспокоит вероятность развития подобного сценария. Выход ИИ из-под контроля человека может привести к катастрофическим последствиям, считают они. По этой причине правительства стран по всему миру должны объединить свои усилия и действовать на опережение, говорится в послании.

«К сожалению, мы еще не разработали необходимую науку для контроля и защиты использования такого передового интеллекта. Глобальный характер этих рисков требует признания безопасности ИИ как мирового общественного блага и работы над управлением этими рисками», — говорится в заявлении. 

Ученые пришли к выводу, что первым шагом должно стать создание специализированных органов для обнаружения и реагирования на инциденты с ИИ. Эти службы будут координировать между собой действия для разработки плана для чрезвычайных ситуаций, связанных с искусственным интеллектом.

В долгосрочной перспективе эксперты ожидают, что государства создадут международные принципы управления разработкой ИИ-моделей. По их мнению, это позволит избежать создания технологий, которые могут представлять катастрофические риски.

«Необходимо провести глубокие фундаментальные исследования, чтобы обеспечить безопасность передовых систем ИИ. Эта работа должна начаться быстро, чтобы гарантировать, что они будут разработаны и проверены до появления инновационных ИИ», — отмечают авторы послания.

Ученые предложили правительствам стран сосредоточить усилия на трех ключевых аспектах:

  • соглашения и институты по обеспечению готовности к чрезвычайным ситуациям;
  • схемы обеспечения безопасности, которые требуют от разработчиков создания специальных мер перед развертыванием ИИ-моделей;
  • независимые глобальные исследования безопасности и проверки искусственного интеллекта.

Под открытым письмом оставили подписи более 30 специалистов ИИ-сферы из США, Канады, Китая, Сингапура, Великобритании и других стран.

Напомним, мы писали, что СМИ узнали об использовании технологий на базе искусственного интеллекта в разведывательных операциях США и Великобритании.

Как вам статья?

1
0

статьи на эту же тему

Виталик Бутерин рассказал о рисках...
avatar Pavel Kot
18.09.2024
ChatGPT самостоятельно написал...
avatar Pavel Kot
16.09.2024
OpenAI представила новую ИИ-модель o1 для...
avatar Serhii Pantyukh
13.09.2024
Войти
или