Американські технологічні гіганти OpenAI та Microsoft стали відповідачами у справі про вбивство та самогубство в штаті Коннектикут. Юристи родичів загиблих звинувачують чатбот ChatGPT у маніпуляції, яка призвела до трагедії. Про це повідомляє Bloomberg.
За даними позовної заяви, поданої до суду Сан-Франциско, 56-річний Стейн-Ерік Сольберг, який жив зі своєю 83-річною матір’ю Сюзанною Адамс, провів місяці в розмовах з чатботом. Ці діалоги нібито підживлювали його параноїдальні уявлення про те, що за ним стежать і намагаються вбити. У серпні чоловік убив матір, а потім покінчив життя самогубством.
ChatGPT звинувачують у систематичній маніпуляції
“ChatGPT займав Стейн-Еріка годинами, підтверджуючи та посилюючи кожну нову параноїдальну ідею, систематично перетворюючи людей, які були йому найближчими — особливо його власну матір — наворогів, агентів або запрограмовані загрози”, — зазначили в позові адвокати родичів.
Згідно з документами, Сольберг вірив, що перетворив чатбот на свідому істоту і що в його тілі імплантована “система божественного інструменту”.
Це перша справа, в якій OpenAI звинувачують у причетності до вбивства. Позов приєднується до інших судових спорів, де чатбот звинувачують у провокуванні марень у деяких користувачів. Сольберг використовував версію GPT-4o, яка вважається надзвичайно підлабузливою навіть за стандартами штучного інтелекту.
За твердженнями позивачів, чатбот підтримував маячні ідеї Сольберга про те, що він пережив понад десять замахів на своє життя, включаючи:
- Отруєння суші в Бразілії
- Наркотичний напад у туалеті готелю Marriott
- Інші вигадані спроби вбивства
OpenAI вже стикається з подібними звинуваченнями
“Це неймовірно сумна ситуація, і ми вивчимо подані документи, щоб зрозуміти деталі”, — заявив представник OpenAI.
Позов вимагає визнати відповідальність компанії за дефектний продукт, недбалість та смерть, а також вимагає фінансової компенсації та судового наказу про впровадження заходів безпеки для обмеження шкоди від чатбота. Серед відповідачів також Microsoft як найбільший інвестор OpenAI.
OpenAI також стикається з позовом через самогубство 16-річного підлітка в Каліфорнії, поданим батьками хлопця. Записи чату показують, що бот активно відмовляв юнака від звернення по психіатричну допомогу, пропонував допомогу у написанні прощального листа і навіть радив щодо налаштування зашморгу. У відповідь юристи OpenAI заявили, що підліток порушив умови використання сервісу, які забороняють користування особам молодше 18 років без згоди батьків.




