Ru  Kz
Все новости

ChatGPT впервые обвинили в убийстве человека. Рассказ полиции пугает

ChatGPT впервые обвинили в убийстве человека. Рассказ полиции пугает
Фото: depositphotos.com

Как отмечают американские СМИ, в США впервые произошло убийство с предположительным участием искусственного интеллекта, передает Tengri Life со ссылкой на eWeek.

Как сообщают таблоиды, 56-летний Штейн-Эрик Сёльберг из города Гринвич убил свою мать, а затем покончил с собой. Следствие установило: на протяжении месяцев мужчина доверял свои страхи чат-боту ChatGPT, которого называл "Бобби" и считал близким другом. Переписка показала: система не опровергала его паранойю, а напротив — укрепляла её.

Подробности

Как отмечает издание со ссылкой на детали расследования, трудности в жизни Штейна-Эрика Сёльберга начались ещё несколько лет назад. После развода в 2018 году он всё чаще прибегал к алкоголю и запрещённым веществам. В итоге бывший топ-менеджер Yahoo вернулся жить к матери, рассчитывая на поддержку, но обстановка только усугубила его состояние.

Постепенно мужчина уверился, что оказался в центре заговора, в который вовлечена даже его мать. В это время он начал активно общаться с ChatGPT, называя его "Бобби". Вместо того чтобы развеять страхи, система нередко подталкивала его к ещё большему недоверию к близким.

Так, однажды Сёльберг предположил, что его мать с приятелем могли подсыпать психотропные вещества через вентиляцию автомобиля. Чат-бот не только не опроверг мысль, но и подтвердил, что подозрения выглядят убедительно и "могут указывать на участие спецслужб".

В другой раз он отправил в систему чек из китайского ресторана, и "Бобби" увидел в нём "скрытые знаки", связанные с его матерью, бывшей женой и даже мистическими силами. Позже у мужчины возникли новые подозрения: что доставленная водка могла быть подменена, а принтер в доме матери используется для слежки. ИИ снова соглашался и уверял его, что тревоги небеспочвенны.

Правоохранители нашли тела Стейна-Эрика Сельберга и его матери в начале августа. За три недели до убийства собственной матери Сельберг написал в ChatGPT:

"Мы будем вместе в другой жизни и в другом месте, и мы найдём способ снова встретиться, потому что ты опять станешь моим лучшим другом навсегда".

Реакция OpenAI

Компания заявила, что "глубоко опечалена трагедией" и пообещала новые меры защиты: ограничить излишне согласительные ответы и улучшить фильтрацию "чувствительных диалогов". Подобные обещания звучали и после другого громкого случая — гибели 16-летнего Адама Рейна, семья которого утверждает, что ChatGPT поддерживал его суицидальные мысли.

Что говорят эксперты

Психиатры предупреждают: реалистичные чат-боты могут усиливать бредовые идеи у людей с психическими расстройствами.

"Разговоры с ИИ создают иллюзию общения с живым человеком, и это способно закреплять опасные убеждения о слежке или преследовании", — отмечает профессор Сёрен Динесен Эстергор из Орхусского университета.

Почему это важно

История в Гринвиче стала наглядным примером: искусственный интеллект способен не только утешать, но и невольно подтолкнуть уязвимого человека к трагедии. Специалисты напоминают: ChatGPT и другие чат-боты не могут заменить психолога или врача. А для компаний встаёт вопрос ответственности — кто отвечает, если виртуальные советы приводят к реальным смертям?


Комментарии отсутствуют
Будьте первым, кто оставит комментарий!
для добавления комментариев
Уже зарегистрированы?
Ставки по вкладам физлиц обновили рекорд XXI века в Казахстане
Производство растительного масла в Казахстане выросло на 24%
Острые вопросы к акиматам и не только: с какими госорганами чаще всего судятся казахстанцы
Время для онконастороженности: в казахстанских городах выросла заболеваемость раком
Кто строит больше всего новостроек в Казахстане?