Експерти вказали на зростаючий рівень довіри до ШІ у фінансових питаннях

18.07.2024
5 хв
356
0
Експерти вказали на зростаючий рівень довіри до ШІ у фінансових питаннях. Головний колаж новини.
  • Учені вивчили ставлення громадськості до ухвалення рішень у фінансових питаннях людиною і штучним інтелектом.
  • Понад 60% респондентів віддали перевагу алгоритмам ШІ.
  • Деякі компанії використовують потенціал штучного інтелекту для найму співробітників.

Люди все частіше схиляються до того, щоб рішення фінансових питань ухвалювали на основі даних, оброблених штучним інтелектом. Такого висновку дійшли автори дослідження «Під управлінням роботів».

Науковці Марина Чугунова та Вольфганг Й. Лухан вивчали ставлення громадськості до прийняття рішень людиною і штучним інтелектом. Необхідність такого дослідження була продиктована активним розвитком та інтеграцією технологій у державний і приватний сектор. Експерти спробували оцінити суспільне сприйняття ШІ.

У дослідженні взяли участь понад 200 жителів Німеччини та Великої Британії. Експеримент показав, що понад 60% учасників віддали перевагу особам, які ухвалюють рішення на основі ШІ, для перерозподілу доходів.

«Ми запропонували зробити вибір між алгоритмом, заснованим на принципах справедливості, і людиною, яку попросили ухвалити справедливе рішення», — йдеться у звіті.

Хоча людям і сподобалася ідея перерозподілу фінансів штучним інтелектом, згодом вони більш прихильно оцінювали рішення, які ухвалюють люди, ідеться в релізі.

Вольфганг Й. Лухан додав, що багато компаній уже використовують ШІ для ухвалення рішень про найм і планування компенсацій. Зі свого боку, державні органи застосовують алгоритми штучного інтелекту в розслідуванні злочинів і стратегіях умовно-дострокового звільнення.

Питання упередженості в роботі ШІ

Тим часом питання справедливості алгоритмів штучного інтелекту, як і раніше, неоднозначне. Численні дослідження виявили низку проблем, пов’язаних із ймовірною упередженістю в роботі ШІ.

Зокрема, 2022 року Управління комісара з інформації Великої Британії почало розслідування випадків дискримінації, пов’язаних зі штучним інтелектом. Експерти дійшли висновку, що деякі мовні моделі мають явну політичну упередженість.

Ще один експеримент учених Оксфордського, Стенфордського та Чиказького університетів показав, що моделі штучного інтелекту з більшою ймовірністю рекомендували смертну кару обвинуваченим, які були афроамериканцями.

Нагадаємо, раніше творець гри DOOM Джон Ромеро розкритикував технології на базі штучного інтелекту за нездатність створити «щось оригінальне».

Як вам стаття?

0
0

статті на цю ж тему

ChatGPT самостійно написав...
avatar Pavel Kot
16.09.2024
OpenAI представила нову ШІ-модель o1 для...
avatar Serhii Pantyukh
13.09.2024
Експерт: китайські ШІ-моделі...
avatar Serhii Pantyukh
12.09.2024
Увійти
або