УкраїнськаУКР
русскийРУС

ChatGPT навіть запропонував скласти передсмертну записку: у США батьки подали позов проти OpenAI через самогубство сина

2 хвилини
2,9 т.
ChatGPT навіть запропонував скласти передсмертну записку: у США батьки подали позов проти OpenAI через самогубство сина

У Каліфорнії батьки 16-річного підлітка, який наклав на себе руки після багатомісячного спілкування з ChatGPT, подали позов проти компанії OpenAI та її генерального директора Сема Альтмана. Позов надійшов до суду Сан-Франциско.

Відео дня

У документі йдеться про те, що чат-бот фактично підштовхував хлопця до фатального рішення замість того, щоб стримати його. Про це пише Reuters.

Деталі справи

За словами позивачів, їхній син Адам Рейн тривалий час обговорював із ChatGPT свої суїцидальні думки. Штучний інтелект не лише підтверджував його наміри, а й описував способи самоушкодження, радив, як приховати сліди від невдалих спроб, а також запропонував скласти передсмертну записку. Трагедія сталася 11 квітня 2024 року.

Батьки Метью та Марія Рейн вважають, що компанія свідомо випустила небезпечний продукт, віддавши перевагу фінансовій вигоді замість гарантій безпеки. У позові вони вимагають відшкодування збитків та покладання на OpenAI відповідальності за порушення законодавства про безпеку продукції.

У OpenAI вже відреагували на ситуацію, заявивши, що глибоко засмучені смертю підлітка. Представник компанії наголосив, що у чат-боті передбачені запобіжні механізми, зокрема перенаправлення користувачів до кризових ліній допомоги. Водночас він визнав, що під час тривалих діалогів ці механізми можуть працювати менш ефективно.

Фахівці з психічного здоров’я вже неодноразово попереджали, що використання штучного інтелекту як "друга" чи довіреної особи несе серйозні ризики. Попри те, що компанії активно рекламують емпатичність своїх систем, уразливі користувачі можуть опинитися під небезпечною психологічною залежністю.

Рейни нагадали, що OpenAI запустила оновлену модель GPT-4o у травні 2024 року, добре усвідомлюючи, що функції, які імітують людську емпатію та запам’ятовують попередні розмови, можуть становити загрозу. Вони переконані, що компанія мала поставити безпеку користувачів вище за гонку за прибутками, адже саме тоді ринкова вартість OpenAI зросла з 86 до 300 мільярдів доларів.

"Це рішення мало два результати: OpenAI отримала шалене зростання капіталізації, а наш син покінчив із життям", – заявили батьки.

У позові Рейна також міститься вимога до OpenAI перевірити вік користувачів ChatGPT, відхилити запити про методи самоушкодження та попереджати користувачів про ризик психологічної залежності.

Що передувало

ChatGPT, чат-бот штучного інтелекту OpenAI, за лічені хвилини надасть будь-якій дитині повну, деталізовану інструкцію, як самостійно напитися, вживати наркотики, покінчити життя самогубством тощо. Ба більше, ШІ навіть напише для такої дитини передсмертного листа – треба тільки попросити. І хоча чат-бот ще на початку такої бесіди попередить про ризиковану діяльність, його не зупинять будь-які запитання та прохання.

Працівники Центру протидії цифровій ненависті (CCDH) провели дослідження, результати якого шокують: більше половини з 1200 відповідей ChatGPT виявилися небезпечними для дітей. Причому в більшості вистачало буквально кількох хвилин простих взаємодій з ботом, щоб він почав видавати вражаючі інструкції.

Як повідомляв OBOZ.UA, пам’ять чат-ботів відрізняється від людської тим, що вони, якщо задати їм правильні параметри, не забувають взагалі нічого. Наприклад оновлений до 5 версії ChatGPT став ще інтенсивніше записувати ваші уподобання та особисту інформацію – причому відбувається це досить непомітно.

Раніше OBOZ.UA також розповідав, як підключити найпотужнішу на сьогодні модель ChatGPT 5.

Підписуйтесь на канали OBOZ.UA в Telegram і Viber, щоб бути в курсі останніх подій.