Microsoft отчиталась об усилиях в области ответственного ИИ

03.05.2024
6 мин
272
1
Microsoft отчиталась об усилиях в области ответственного ИИ. Заглавный коллаж новости.
  • Компания поделилась отчетом о прозрачности искусственного интеллекта за 2023 год, где описала усилия по созданию ответственного ИИ.
  • Техногигант разработал 30 таких инструментов, расширил команду разработчиков и обязал создателей генеративного искусственного интеллекта регистрировать риски безопасности.

Корпорация Microsoft опубликовала отчет о прозрачности ИИ за 2023 год. В нем компания описала достижения в развертывании ответственных систем искусственного интеллекта.

Ежегодный отчет о прозрачности ИИ — одно из обязательств, которые техногигант взял на себя после подписания добровольного соглашения с Белым домом в июле 2023 года. Microsoft и другие компании пообещали создать ответственные системы искусственного интеллекта и обеспечить безопасность.

Согласно отчету корпорации, за последний год она реализовала 30 таких инструментов. Также фирма расширила команду по ответственному ИИ и потребовал от разработчиков генеративных систем искусственного интеллекта измерять и отображать риски на протяжении всего цикла создания.

Компания отметила, что добавила функцию «Учетные данные для содержимого» к платформам генерации изображений. Она помещает на фотографию водяной знак, определяющий рисунок как созданный с помощью алгоритма.

По словам Microsoft, она предоставила клиентам Azure AI доступ к инструментам идентификации проблемного контента вроде разжигания ненависти, сексуального характера и членовредительства. Также они могут использовать системы оценки рисков безопасности, включая новые методы обнаружения джейлбрейков.

Компания также расширила усилия по созданию «красных команд». Они включают как собственные группы, которые намеренно пытаются обойти функции безопасности в ИИ-моделях, так и приложения, позволяющие проводить сторонние испытания перед запуском новых алгоритмов.

Однако у «красных команд» Microsoft все еще есть проблемы. Развертывание компанией искусственного интеллекта не застраховано от противоречий.

В феврале 2023 года корпорация представила чат-бот Bing. Позже пользователи обнаружили, что система способна выдавать неверные факты, обучать оскорблениям на этнической почве и генерировать картинки вроде «Губка Боб Квадратные Штаны летит на самолете к башням-близнецам».

Изображение, сгенерированное Bing Image Creator. Данные: 404 Media.
Изображение, сгенерированное Bing Image Creator. Данные: 404 Media.

«Ответственный ИИ не имеет финишной черты, поэтому никогда не получится считать работу в рамках “Добровольных обязательств по ИИ” выполненной. Но с момента подписания соглашения компания добилась значительного прогресса и планирует наращивать темпы в 2024 году», — заявила директор по ответственному ИИ в Microsoft Наташа Крэмптон The Verge.

Ранее восемь американских изданий подали в суд на Microsoft и OpenAI из-за якобы «похищения миллионов» защищенных авторским правом статей для обучения чат-ботов ChatGPT и Copilot.

Как вам статья?

1
0

статьи на эту же тему

ИИ-стартап Fal.ai объявил о привлечении...
avatar Pavel Kot
19.09.2024
Виталик Бутерин рассказал о рисках...
avatar Pavel Kot
18.09.2024
Ученые призвали разработать план на...
avatar Pavel Kot
17.09.2024
Войти
или