Эксперты указали на растущий уровень доверия к ИИ в финансовых вопросах

18.07.2024
5 мин
356
0
Эксперты указали на растущий уровень доверия к ИИ в финансовых вопросах. Заглавный коллаж новости.
  • Ученые  изучили отношение общественности к принятию решений в финансовых вопросах человеком и искусственным интеллектом. 
  • Более 60% респондентов отдали предпочтение алгоритмам ИИ.
  • Некоторые компании используют потенциал искусственного интеллекта для найма сотрудников.

Люди все чаще склоняются к тому, чтобы решение финансовых вопросов принималось на основе данных, обработанных искусственным интеллектом. К такому выводу пришли авторы исследования «Под управлением роботов».

Ученые Марина Чугунова и Вольфганг Й. Лухан изучали отношение общественности к принятию решений человеком и искусственным интеллектом. Необходимость такого исследования была продиктована активным развитием и интеграцией технологий в государственный и частный сектор. Эксперты попытались оценить общественное восприятие ИИ.

В исследовании приняли участие более 200 жителей Германии и Великобритании. Эксперимент показал, что более 60% участников отдали предпочтение лицам, принимающим решения на основе ИИ, для перераспределения доходов.

«Мы предложили сделать выбор между алгоритмом, основанным на принципах справедливости, и человеком, которого попросили принять справедливое решение», — говорится в отчете.

Хотя людям и понравилась идея перераспределения финансов искусственным интеллектом, впоследствии они более благосклонно оценивали решения, принимаемые людьми, говорится в релизе. 

Вольфганг Й. Лухан добавил, что многие компании уже используют ИИ для принятия решений о найме и планирования компенсаций. В свою очередь, государственные органы применяют алгоритмы искусственного интеллекта в расследовании преступлений и стратегиях условно-досрочного освобождения.

Вопрос предвзятости в работе ИИ

Между тем, вопрос справедливости алгоритмов исскусственного интеллекта по-прежнему неоднозначен. Многочисленные исследования выявили ряд проблем, связанных с вероятной предвзятостью в работе ИИ.

В частности, в 2022 году Управление комиссара по информации Великобритании начало расследование случаев дискриминации, связанных с искусственным интеллектом.  Эксперты пришли к выводу, что некоторые языковые модели имеют явную политическую предвзятость. 

Еще один эксперимент ученых Оксфордского, Стэнфордского и Чикагского университетов показал, что модели искусственного интеллекта с большей вероятностью рекомендовали смертную казнь обвиняемым, которые были афроамериканцами.

Напомним, ранее создатель игры DOOM Джон Ромеро раскритиковал технологии на базе искусственного интеллекта за неспособность создать «нечто оригинальное».

Как вам статья?

0
0

статьи на эту же тему

ChatGPT самостоятельно написал...
avatar Pavel Kot
16.09.2024
OpenAI представила новую ИИ-модель o1 для...
avatar Serhii Pantyukh
13.09.2024
Эксперт: китайские ИИ-модели отстают...
avatar Serhii Pantyukh
12.09.2024
Войти
или