Юваль Ной Харарі: «ШІ хакнув мозок людини»

16.05.2023
9 хв
672
0
Юваль Ной Харарі: «ШІ хакнув мозок людини». Головний колаж новини.
  • Штучний інтелект змінив хід історії
  • І це дуже лякає знаменитого філософа

Знаменитий філософ та історик Юваль Ной Харарі випустив статтю в британському журналі The Economist. Він присвятив її загрозам штучного інтелекту.

Харарі почав з того, що страхи перед ШІ переслідували людство з самого початку комп’ютерної ери. Але зараз вони стали реальними. Це не фантастичний бойовик про повстання машин, а реальність, яка вже з нами.

AI набув здатності маніпулювати та самостійно генерувати контент. Тобто, він сам розповідає історії.

«Коли люди думають про ChatGPT, вони часто наводять як приклад школярів, які пишуть твори через ШІ. Забудьте про це. Подумайте про наступні президентські перегони у США 2024 року і спробуйте уявити вплив інструментів ШІ, які можуть генерувати політичний контент, фейкові новини та побудувати новий культ»

Фейкові новини — не єдина проблема. Харарі боїться, що незабаром більша частина людства черпатиме знання не з Google (який завжди пропонує щонайменше кілька джерел інформації), а зі ШІ. Такі програми як ChatGPT стануть чимось на кшталт оракулів.

«Навіщо шукати, коли я можу просто запитати в оракула? Інформаційна та рекламна галузі мають бути в жаху. Навіщо читати газету, якщо я можу просто попросити оракула повідомити мені останні новини? І який сенс у рекламі, коли я можу просто попросити оракула сказати мені, що купити?»

Підбиваючи підсумок, філософ пропонує зупинити безвідповідальну розробку ШІ і створити регулювання.

Його стаття вписується в популярний останнім часом наратив про те, що ШІ може виявитися для нас великою загрозою. На небезпеку цього вказували Ілон Маск та інші експерти галузі технологій.

Як вам стаття?

0
0

статті на цю ж тему

ЗМІ: влада вимагає від Google надати...
avatar Nazar Pyrih
28.03.2024
Atlas Navi представила ШІ-додаток для...
avatar Dmitriy Yurchenko
28.03.2024
Засновника FTX Сема Бенкмана-Фріда...
avatar Dmitriy Yurchenko
28.03.2024