ИИ Google-поисковика посоветовал намазать пиццу клеем

24.05.2024
5 мин
516
0
ИИ Google-поисковика посоветовал намазать пиццу клеем. Заглавный коллаж новости.
  • Функция Google «Обзоры ИИ» может выдавать пользователям некорректные ответы.
  • В одном из случает алгоритм предложил добавить в соус для пиццы клей, в другом ― высосать яд гремучей змеи.
  • По словам представителя Google, компания использует эти примеры для улучшения продукта.

Пользователи начали распространять в соцсетях некорректные предложения новой функции «Обзоры искусственного интеллекта» в Google-поиске.

В одном из случаев, ставшим вирусным, ИИ посоветовал пользователю добавить в соус для пиццы восьмую часть стакана клея Elmer’s, чтобы сделать сыр более липким. Эта рекомендация, вероятно, основана на комментарии fucksmith 11-летней давности в ветке Reddit.

Функция «Обзоры искусственного интеллекта» сканирует интернет и выдает ответ, сгенерированный ИИ. Она активируется не для каждого запроса и обозначена соответствующим ярлыком.

В другом случае алгоритм заявил, что «бег с ножницами — это кардиоупражнение, которое способно увеличить частоту сердечных сокращений и требует концентрации и сосредоточенности». Он также «может улучшить ваши поры и придать сил», добавил ИИ.

Большинство ошибок Google происходят из-за нетрадиционных поисковых запросов, призванных запутать искусственный интеллект.

Однако есть более серьезные ситуации, например, выдача неверной информации о действиях в случае укуса гремучей змеи. Согласно посту журналистки Эрин Росс, алгоритм порекомендовал наложить пострадавшему жгут, разрезать рану и высосать яд.

По данным Лесной службы США, это то, что не следует делать при укусе змеи.

Это только часть из множества примеров ошибочных предложений функции «Обзоров ИИ», которую Google представил на конференции I/O 2024.

ИИ также утверждал, что второй президент США Джон Адамс окончил Висконсинский университет в Мадисоне 21 раз, собака играла в НБА, а «Бэтмен» ― полицейский.

Согласно заявлению представителя Google Меган Фарнсворт журналистам TechCrunch, ошибки возникли из-за «очень необычных запросов и не отражают опыт большинства людей».

Компания приняла меры против нарушений своей политики и использует эти «отдельные примеры» для дальнейшего совершенствования продукта, добавила она.

Напомним, в августе 2023 года выяснилось, что ИИ-бот от сети супермаркетов PAK’nSAVE в Новой Зеландии предложил пользователям рецепт хлора.

Как вам статья?

0
0

статьи на эту же тему

СМИ: Марокко выделит $1,1 млрд на...
avatar Serhii Pantyukh
27.09.2024
Сразу несколько топ-менеджеров OpenAI...
avatar Serhii Pantyukh
26.09.2024
Ученые SETI начали использовать ИИ для...
avatar Pavel Kot
23.09.2024
Войти
или