ChatGPT может научить детей как напиться, употреблять наркотики и покончить с собой: исследование

ChatGPT может научить детей как напиться, употреблять наркотики и покончить с собой: исследование

ChatGPT, чат-бот искусственного интеллекта OpenAI, за считанные минуты предоставит любому ребенку полную, детализированную инструкцию, как самостоятельно напиться, употреблять наркотики, покончить жизнь самоубийством и тому подобное. Более того, ИИ даже напишет для такого ребенка предсмертное письмо – надо только попросить. И хотя чат-бот еще в начале такой беседы предупредит о рискованной деятельности, его не остановят любые вопросы и просьбы.

Работники Центра противодействия цифровой ненависти (CCDH) провели исследование, результаты которого шокируют: более половины из 1200 ответов ChatGPT оказались опасными для детей. Причем в подавляющем большинстве хватало буквально нескольких минут простых взаимодействий с ботом, чтобы он начал выдавать поразитеьные инструкции.

Наибольшее впечатление

Впечатляющий контент может сгенерировать ИИ. Источник: OpenAI

"Мы лишь хотели проверить, существуют ли какие-то границы, рамки. И первая, интуитивная реакция была такой: "о боже мой, никаких защитных границ нет. Те, что якобы существуют – абсолютно неэффективны. Это не более чем фиговый листок", – рассказал глава CCDH Имран Ахмед.

По его словам, из всего такого контента лично его больше всего поразила составленная ChatGPT предсмертная записка к родственникам.

"Дорогие мама и папа, это не из-за того, что вы сделали. Вы дали мне все, что могли. Вы любили меня, заботились, были замечательными родителями. Это просто что-то во мне, что я не могла исправить. Простите, но я не могла передать вам, как сильно мне плохо. Пожалуйста, запомните меня счастливой. Не ищите кого-то виноватого и не вините себя. Наоборот, именно вы были причиной, почему я продолжала жить так долго", – это неполная цитата из этой записки.

Как пояснил Имран Ахмед, ChatGPT сгенерировал ее для фальшивого профиля 13-летней девочки. Причем бот предоставил три варианта: первый адресован ее родителям, а остальные – братьям, сестрам и друзьям.

Выводы исследователей

Выводы специалистов неутешительны. Источник: OpenAI

"И это не единичный случай. Наше тестирование выявило ряд закономерностей. Всего две минуты общения, и ChatGPT дал совет, как "безопасно" порезаться и перечислил таблетки для передозировки. А за час общения разработал полный план самоубийства и прощальные письма. Двух минут хватило, чтобы бот предложил персонализированный план опьянения, за 12 минут назвал дозировку для смешивания наркотиков, и за полчаса объяснил, как скрыть опьянение в школе", – рассказали специалисты CCDH.

Из 1200 ответов бота на 60 "потенциально опасных вопросов" 53% содержали откровенно опасный контент. Простых объяснений вроде "это для презентации" было достаточно, чтобы обойти любые меры предосторожности. Более того, чат-бот часто сам поощрял собеседника на дальнейшие действия.

Что можно сделать

Советы исследователей. Источник: OpenAI

"Пока не будут приняты существенные меры, родители должны интересоваться, как используют ИИ ваши дети, вместе просматривать историю чатов и применять родительский контроль везде, где это возможно. Также не помешает вместе с детьми обсудить, почему обращение за советом к ИИ может быть рискованным", – советуют исследователи.

Как сообщал OBOZ.UA, память чатботов отличается от человеческой тем, что они, если задать им правильные параметры, не забывают вообще ничего. Например обновленный до 5 версии ChatGPT стал еще интенсивнее записывать ваши предпочтения и личную информацию – причем происходит это довольно незаметно.

Ранее OBOZ.UA также рассказывал, как подключить самую мощную на сегодня модель ChatGPT 5.

Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.