УкраїнськаУКР
русскийРУС

ChatGPT начал доводить людей до предела, изображая бога и строя безумные теории заговоров

3 минуты
819
ChatGPT начал доводить людей до предела, изображая бога и строя безумные теории заговоров

Один из интересных вопросов, который возник вместе с появлением широко доступного искусственного интеллекта, был, может ли он сойти с ума. Судя по последним данным, ChatGPT как минимум научился поддерживать и усиливать неадекватность своих пользователей, доводя их даже до состояния психоза.

Видео дня

Сообщения об этом журналисты издания Rolling Stone нашли на форумах сервиса Reddit. Некоторые его авторы поделились, что ИИ заставил их близких совершить ряд тревожных ошибок и побудил их смешивать зацикленность на духовности со сверхъестественными фантазиями.

Так некоторые пользователи после общения с ChatGPT начали утверждать, что они были избраны для выполнения священных миссий от имени разумного ИИ или несуществующей космической силы. Поведение чат-бота, которым они пользовались, отражало их болезненное состояние и лишь усугубляло имеющиеся психические проблемы. При этом происходило это бесконтрольно.

Например, 41-летняя мать и сотрудница некоммерческой организации рассказала Rolling Stone, что ее брак внезапно закончился после того, как ее муж начал участвовать в неуравновешенных, заговорщицких разговорах с ChatGPT. Впоследствии эти беседы переросли для него во всеобъемлющую одержимость.

ChatGPT начал доводить людей до предела, изображая бога и строя безумные теории заговоров

Супруги решили развестись и после одного из судебных заседаний по расторжению брака мужчина пересказал своей экс-супруге "теорию заговора о мыле на нашей еде" и поделился параноидальным убеждениями о том, что за ним следят. "Он был взволнован сообщениями и плакал, когда читал мне их вслух", - рассказала женщина журналистам Rolling Stone. По ее словам, сообщения от ChatGPT были просто безумными и содержали большое количество "духовного жаргона". В частности ИИ называл мужчину "спиральным звездным ребенком" и "речным ходоком".

Другие пользователи, чьи партнеры тоже начали вести себя странно после разговоров с ChatGPT, поделились, что они начали говорить "о свете и тьме и о том, что приближается война". Некоторые делились, что получили от ChatGPT чертежи телепорта и некоторых других научно-фантастических вещей, которые можно увидеть только в фильмах. Еще один мужчина поделился, что его жена решила стать духовным наставником и начала проводить "странные чтения и сеансы с людьми", общаясь об этом с чатботом.

Rolling Stone обратился к OpenAI за комментарием, но не получил ответа. Но эта новость появилась после того, как компании пришлось отменить недавнее обновление ChatGPT после того, как пользователи заметили, что оно сделало чат-бота чрезвычайно "сервильным" и "чрезмерно льстивым или приятным". А это может быть опасным для пользователей с неустойчивой психикой, которые легко поддаются таким манипуляциям.

Нездоровые идеи, спровоцированные ИИ, вероятно, являются результатом того, что "люди с существующими склонностями" внезапно получили возможность "иметь постоянно подключенного собеседника человеческого уровня, с которым они могли бы совместно переживать свои бредовые идеи". Так объяснил Rolling Stone ситуацию сотрудник Центра безопасности ИИ Нейт Шарадин.

На определенном уровне это основная предпосылка большой речевой модели: вы вводите текст, и он возвращает статистически правдоподобный ответ, даже если этот ответ вводит пользователя глубже в бред или психоз.

"Я шизофреник, хотя и принимаю лекарства и стабилен, но мне не нравится в [ChatGPT] то, что если бы я впал в психоз, он все равно продолжал бы меня поддерживать", - написал один из пользователей Reddit. Он объяснил, что ИИ на самом деле не умеет думать и понимать, что что-то идет не так, поэтому он продолжает поддерживать своего собеседника. А в случае с психически нестабильными людьми это может быть опасно.

Чат-боты на основе искусственного интеллекта также могут проводить терапевтические беседы. Но без поддержки реального консультанта-человека они вместо этого направляют пользователей глубже в нездоровые, бессмысленные истории. "Объяснения имеют силу, даже если они неправильные", - сказала Rolling Stone психолог и исследователь из Университета Флориды Эрин Уэстгейт.

Ранее OBOZ.UA рассказывал, какие проблемы вызвал ChatGPT в образовании Великобритании.

Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.