ChatGPT даже предложил составить предсмертную записку: в США родители подали иск против OpenAI из-за самоубийства сына
Виртуальный мемориал погибших борцов за украинскую независимость: почтите Героев минутой вашего внимания!

В Калифорнии родители 16-летнего подростка, который покончил с собой после многомесячного общения с ChatGPT, подали иск против компании OpenAI и ее генерального директора Сэма Альтмана. Иск поступил в суд Сан-Франциско.
В документе говорится о том, что чат-бот фактически подталкивал парня к роковому решению, вместо того чтобы сдержать его. Об этом пишет Reuters.
Детали дела
По словам истцов, их сын Адам Рейн длительное время обсуждал с ChatGPT свои суицидальные мысли. Искусственный интеллект не только подтверждал его намерения, но и описывал способы самоповреждения, советовал, как скрыть следы от неудачных попыток, а также предложил составить предсмертную записку. Трагедия произошла 11 апреля 2024 года.
Родители Мэтью и Мария Рейн считают, что компания сознательно выпустила опасный продукт, отдав предпочтение финансовой выгоде вместо гарантий безопасности. В иске они требуют возмещения убытков и возложения на OpenAI ответственности за нарушение законодательства о безопасности продукции.
В OpenAI уже отреагировали на ситуацию, заявив, что глубоко опечалены смертью подростка. Представитель компании отметил, что в чат-боте предусмотрены предохранительные механизмы, в частности перенаправление пользователей к кризисным линиям помощи. В то же время он признал, что во время длительных диалогов эти механизмы могут работать менее эффективно.
Специалисты по психическому здоровью уже неоднократно предупреждали, что использование искусственного интеллекта в качестве "друга" или доверенного лица несет серьезные риски. Несмотря на то, что компании активно рекламируют эмпатичность своих систем, уязвимые пользователи могут оказаться под опасной психологической зависимостью.
Супруги Рейн напомнили, что OpenAI запустила обновленную модель GPT-4o в мае 2024 года, хорошо осознавая, что функции, которые имитируют человеческую эмпатию и запоминают предыдущие разговоры, могут представлять угрозу. Они убеждены, что компания должна была поставить безопасность пользователей выше гонки за прибылью, ведь именно тогда рыночная стоимость OpenAI выросла с 86 до 300 миллиардов долларов.
"Это решение имело два результата: OpenAI получила бешеный рост капитализации, а наш сын покончил с жизнью", – заявили родители.
В иске также содержится требование к OpenAI проверить возраст пользователей ChatGPT, отклонить запросы о методах самоповреждения и предупреждать пользователей о риске психологической зависимости.
Что предшествовало
ChatGPT, чат-бот искусственного интеллекта OpenAI, за считаные минуты предоставит любому ребенку полную, детализированную инструкцию, как самостоятельно напиться, употреблять наркотики, покончить жизнь самоубийством и тому подобное. Более того, ИИ даже напишет для такого ребенка предсмертное письмо – надо только попросить. И хотя чат-бот еще в начале такой беседы предупредит о рискованной деятельности, его не остановят любые вопросы и просьбы.
Работники Центра противодействия цифровой ненависти (CCDH) провели исследование, результаты которого шокируют: более половины из 1200 ответов ChatGPT оказались опасными для детей. Причем в подавляющем большинстве хватало буквально нескольких минут простых взаимодействий с ботом, чтобы он начал выдавать впечатляющие инструкции.
Как сообщал OBOZ.UA, память чат-ботов отличается от человеческой тем, что они, если задать им правильные параметры, не забывают вообще ничего. Например, обновленный до 5 версии ChatGPT стал еще интенсивнее записывать ваши предпочтения и личную информацию – причем происходит это довольно незаметно.
Ранее OBOZ.UA также рассказывал, как подключить самую мощную на сегодня модель ChatGPT 5.
Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.











