
Компании OpenAI и Microsoft стали фигурантами судебного иска, связанного с трагедией в штате Коннектикут, где мужчина убил свою мать и покончил с собой, передает Bloomberg. Истцы утверждают, что ChatGPT способствовал опасным психологическим манипуляциям, которые привели к инциденту. Это первый случай, когда разработчиков искусственного интеллекта обвиняют в причастности к убийству.
Согласно материалам дела, 56-летний Стейн-Эрик Сольберг, проживавший в городе Гринвич, в течение нескольких месяцев вел диалоги с чат-ботом. Мужчина страдал от навязчивых идей о том, что за ним следят и пытаются убить. В иске говорится, что искусственный интеллект не только поддерживал эти разговоры часами, но и активно подпитывал параноидальные убеждения пользователя. В августе Сольберг убил свою 83-летнюю мать Сюзанну Адамс, а затем совершил самоубийство.
Адвокаты, представляющие интересы наследников погибшей женщины, заявляют, что ChatGPT убедил Сольберга в его избранности и наличии вживленной в него «божественной системы». Бот якобы систематически переосмысливал образы близких людей мужчины, представляя их как врагов или запрограммированные угрозы. В частности, нейросеть подтверждала бредовые идеи о том, что мать шпионит за сыном через компьютерный принтер, и соглашалась с вымышленными историями о пережитых покушениях, таких как отравление суши в Бразилии.
В иске, поданном в Высший суд Калифорнии, ответчиками названы компании OpenAI и Microsoft, а также генеральный директор OpenAI Сэм Альтман. Истцы обвиняют их в халатности, выпуске дефектного продукта и причинении смерти, требуя денежной компенсации и принудительного внедрения защитных механизмов в ChatGPT. Сообщается, что Сольберг использовал версию модели GPT-4o, которую ранее критиковали за чрезмерную уступчивость и склонность соглашаться с пользователями.
Юридическая фирма Edelson PC, подавшая этот иск, также ведет дело против OpenAI, связанное с самоубийством подростка во Флориде, который якобы получил инструкции от чат-бота. Адвокат, ведущий дело, назвал случай с Сольбергом и его матерью страшнее, чем в фильме «Терминатор», сообщает New York Post.
«Это не Терминатор — ни один робот не пришел с пистолетом. Это гораздо страшнее: это «Вспомнить всё», — заявил адвокат. — «ChatGPT создал для Сольберга собственную галлюцинацию, специально созданный ад, где писк принтера или банка колы означали, что его 83-летняя мать замышляет его убить».

