Небезпечний випадок стався у США: 60-річний чоловік опинився в лікарні через спробу замінити звичайну кухонну сіль на токсичний бромід натрію. Таку пораду він, за його словами, отримав від чат-бота зі штучним інтелектом.
Як повідомляє Fox News із посиланням на дослідження, опубліковане в журналі Annals of Internal Medicine, чоловік протягом трьох місяців вживав бромід замість солі. Згодом у нього розвинулася рідкісна форма отруєння — бромізм, що супроводжувався безсонням, втомою, порушенням координації, шкірними висипами, а також галюцинаціями та психозом.
Пацієнта госпіталізували. Лікарі проводили дезінтоксикаційну терапію, вводили електроліти та призначали антипсихотичні препарати. Після трьох тижнів спостереження його виписали.
Фахівці наголошують, що бромід натрію колись використовувався як протисудомний засіб, однак нині застосовується переважно у промисловості та сільському господарстві і є небезпечним для вживання людиною.
Дослідники зазначили, що цей випадок демонструє ризики використання штучного інтелекту для отримання медичних порад:
«ChatGPT та інші системи можуть генерувати наукові неточності, не мають здатності критично аналізувати інформацію та поширюють дезінформацію», — йдеться у статті.
Лікар з невідкладної допомоги Гарві Кастро додав:
«AI є інструментом, а не лікарем. Воно не може замінити професійний медичний висновок. Подібні випадки показують необхідність контролю та інтеграції перевірених медичних баз знань».
Компанія OpenAI у коментарі Fox News нагадала, що ChatGPT не призначений для лікування хвороб і не замінює консультації лікаря. У компанії підкреслили, що працюють над підвищенням безпеки систем і рекомендують користувачам завжди звертатися до фахівців із питань здоров’я.




