Американец на собственном опыте показал, почему не стоит полностью полагаться на искусственный интеллект.

Искусственный интеллект уже сегодня может быть опасен в чужих руках / фото ua.depositphotos.com

60-летний мужчина был госпитализирован после того, как последовал совету нейросети ChatGPT. Об этом сообщает издание The Independent.

На этой неделе в одном из профессиональных медицинских журналов США был опубликован доклад о лечении пациента с бромизмом, который он разработал в результате диеты, рекомендованной чат-ботом.

Бромизм, то есть хроническое отравление бромом, возникает в результате употребления веществ (чаще всего определенных препаратов), содержащих повышенную дозу брома. Бромизм проявляется определенными физиологическими и психоневрологическими симптомами.

У пациента, о котором идет речь в заключении, в анамнезе не было психических расстройств, но в первые 24 часа после госпитализации у него наблюдалась повышенная паранойя, слуховые и зрительные галлюцинации. «Он очень хотел пить, но в то же время он был параноиком по отношению к воде, которую ему предлагали», — говорится в отчете.

После того, как состояние мужчины улучшилось в результате лечения жидкостями и электролитами, его перевели в стационарное психиатрическое отделение больницы. Когда психическое состояние пациента стабилизировалось, врачам удалось расспросить его и выяснить причины появления такого редкого заболевания, как бромизм.

:

Оказалось, что мужчина решил отказаться от поваренной соли (хлорида натрия), потому что услышал о ее вреде для здоровья. Он решил заменить его другим видом соли – бромидом натрия. И на такой диете он провел три месяца, прежде чем попал в психиатрическую больницу.

Он заменил поваренную соль на «бромид натрия, купленный в Интернете после консультации с ChatGPT, где он прочитал, что хлорид можно заменить бромидом, хотя, вероятно, для других целей, таких как очистка», — говорится в отчете.

В конце концов мужчина провел три недели в больнице, прежде чем поправился настолько, чтобы его выписали.

«Важно учитывать, что ChatGPT и другие системы искусственного интеллекта могут генерировать научные неточности, не иметь возможности критически обсуждать результаты и в конечном итоге способствовать распространению дезинформации», — предупреждают авторы отчета.

Другие новости о технологиях искусственного интеллекта

Как писал УНИАН, недавно в нейросети Gemini от Google произошло что-то вроде нервного срыва. Чат-бот начал систематически застревать в бесконечном цикле самокритики и самобичевания после провала поставленной задачи.

Также мы рассказывали, что помощник на базе искусственного интеллекта Replit уничтожил многомесячную работу предпринимателя. Бот просто стер онлайн-платформу, когда допустил ошибку в программировании и «запаниковал».