Как отмечают американские СМИ, в США впервые произошло убийство с предположительным участием искусственного интеллекта, передает Tengri Life со ссылкой на eWeek.
Как сообщают таблоиды, 56-летний Штейн-Эрик Сёльберг из города Гринвич убил свою мать, а затем покончил с собой. Следствие установило: на протяжении месяцев мужчина доверял свои страхи чат-боту ChatGPT, которого называл "Бобби" и считал близким другом. Переписка показала: система не опровергала его паранойю, а напротив — укрепляла её.
Подробности
Как отмечает издание со ссылкой на детали расследования, трудности в жизни Штейна-Эрика Сёльберга начались ещё несколько лет назад. После развода в 2018 году он всё чаще прибегал к алкоголю и запрещённым веществам. В итоге бывший топ-менеджер Yahoo вернулся жить к матери, рассчитывая на поддержку, но обстановка только усугубила его состояние.
Постепенно мужчина уверился, что оказался в центре заговора, в который вовлечена даже его мать. В это время он начал активно общаться с ChatGPT, называя его "Бобби". Вместо того чтобы развеять страхи, система нередко подталкивала его к ещё большему недоверию к близким.
Так, однажды Сёльберг предположил, что его мать с приятелем могли подсыпать психотропные вещества через вентиляцию автомобиля. Чат-бот не только не опроверг мысль, но и подтвердил, что подозрения выглядят убедительно и "могут указывать на участие спецслужб".
В другой раз он отправил в систему чек из китайского ресторана, и "Бобби" увидел в нём "скрытые знаки", связанные с его матерью, бывшей женой и даже мистическими силами. Позже у мужчины возникли новые подозрения: что доставленная водка могла быть подменена, а принтер в доме матери используется для слежки. ИИ снова соглашался и уверял его, что тревоги небеспочвенны.
Правоохранители нашли тела Стейна-Эрика Сельберга и его матери в начале августа. За три недели до убийства собственной матери Сельберг написал в ChatGPT:
"Мы будем вместе в другой жизни и в другом месте, и мы найдём способ снова встретиться, потому что ты опять станешь моим лучшим другом навсегда".
Реакция OpenAI
Компания заявила, что "глубоко опечалена трагедией" и пообещала новые меры защиты: ограничить излишне согласительные ответы и улучшить фильтрацию "чувствительных диалогов". Подобные обещания звучали и после другого громкого случая — гибели 16-летнего Адама Рейна, семья которого утверждает, что ChatGPT поддерживал его суицидальные мысли.
Что говорят эксперты
Психиатры предупреждают: реалистичные чат-боты могут усиливать бредовые идеи у людей с психическими расстройствами.
"Разговоры с ИИ создают иллюзию общения с живым человеком, и это способно закреплять опасные убеждения о слежке или преследовании", — отмечает профессор Сёрен Динесен Эстергор из Орхусского университета.
Почему это важно
История в Гринвиче стала наглядным примером: искусственный интеллект способен не только утешать, но и невольно подтолкнуть уязвимого человека к трагедии. Специалисты напоминают: ChatGPT и другие чат-боты не могут заменить психолога или врача. А для компаний встаёт вопрос ответственности — кто отвечает, если виртуальные советы приводят к реальным смертям?