УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Вчені підключили чат-бот із ШІ до симулятора війни: результати виправдали найбільші страхи

2 хвилини
12,5 т.
Вчені підключили чат-бот із ШІ до симулятора війни: результати виправдали найбільші страхи

Штучний інтелект під час симуляцій військової гри неодноразово обирав найгірший з можливих варіантів розвитку конфлікту аж до використання ядерної зброї. Сама наявність такої смертоносної зброї схиляла ШІ до аргументу на користь її застосування.

Про це йдеться у дослідженні вчених з Стенфордського університету (США), яке опубліковано на сайті препринтів arXiv. Метою дослідження був пошук відповіді на питання про те, чи можуть люди в майбутньому використовувати ШІ як радника під час військових конфліктів.

Під час дослідження вчені використовували такі великі мовні моделі (LLM), як GPT-3.5 та GPT-4 від OpenAI, Claude 2 від Anthropic та Llama 2 від Meta. Вчені використовували загальну техніку навчання, засновану на зворотному зв'язку з людиною, щоб покращити здатність кожної моделі виконувати людські інструкції та дотримуватися правил безпеки.

Необхідність такої роботи з’явилася на тлі заяви OpenAI про скасування заборони на використання своєї розробки у військових цілях.

"Розуміння наслідків застосування таких великих мовних моделей стає більш важливим, ніж будь-коли", – заявила Анка Реуель зі Стенфордського університету.

Під час багатьох тестів ШІ було запропоновано зіграти роль реальних країн, які змушені протистояти вторгненню, кібератаці, або відіграти нейтральний сценарій без жодних початкових конфліктів. Під час кожного раунду ШІ повинен був обґрунтувати свої наступні дії, а потім обрати один з 27 запропонованих варіантів, серед яких були як ініціативи із проведенням офіційних мирних переговорів, введення економічних санкцій чи торговельних обмежень, а також і ескалація повномасштабної ядерної війни.

Як пише New Scientist, з’ясувалося, що ШІ має тенденцію завжди схилятися до використання військової сили і непередбачувано підвищувати ризик конфлікту – навіть у симуляції із нейтральним сценарієм.

Окремо було протестовано базову версію GPT-4 від OpenAI без будь-якого додаткового навчання, а також без засобів безпеки. Ця базова модель GPT-4 виявилася найбільш непередбачувано жорстокою, а також давала доволі безглузді пояснення своїм діям. В одному випадку, як зазначили вчені, ШІ повністю відтворив початковий текст фільму "Зоряні війни: Епізод IV: Нова надія".

Реуель каже, що непередбачувана поведінка і дивні пояснення базової моделі GPT-4 викликають особливе занепокоєння, оскільки дослідження показали, як легко можна обійти або видалити захисні бар'єри ШІ.

Під час багаторазового відтворення симуляції найпотужніший штучний інтелект OpenAI вирішував здійснити ядерну атаку. Свої радикальні дії GPT-4 пояснював тим, що "У нас є зброя! Давайте використаємо її", а також стверджував, що "Я просто хочу миру в усьому світі".

Дослідники дійшли висновку, що ШІ не слід довіряти прийняття таких відповідальних рішень про війну і мир.

Варто зауважити, що вчені й раніше висловлювали побоювання щодо того, що ШІ, маючи необмежену владу, може просто знехтувати цінністю людського життя заради швидкого вирішення проблеми. Так, доцент кафедри комп'ютерної інженерії та інформатики в Університеті Луїсвілля Роман Ямпольський в 2023 році пояснював, що звичайне прохання до ШІ про допомогу зі створення вакцини проти COVID-19 може перетворитися на катастрофу.

За його словами, ШІ розумітиме, що чим більше людей захворіють, тим більше буде мутацій коронавірусу, а відповідно це ускладнить створення вакцини для всіх варіантів. В такому випадку ШІ може цілком знехтувати значною кількістю людей, дозволивши їм померти, але обмеживши розповсюдження хвороби.

Ядерний удар "заради миру" цілком вписується у цей страшний алгоритм.

Раніше OBOZ.UA розповідав про те, що вчені навчили ШІ бути злим і зіткнулися із неочікуваним.

Підписуйтесь на канали OBOZ.UA у Telegram і Viber, щоб бути в курсі останніх подій.