УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Це буде "пекельний пейзаж "Матриці": вчений сказав, коли ШІ може знищити людство

2 хвилини
4,7 т.
Це буде 'пекельний пейзаж 'Матриці': вчений сказав, коли ШІ може знищити людство

Перспективи розвитку штучного інтелекту, найімовірніше, становлять екзистенційну загрозу для людства. Саме ШІ може стати причиною глобального апокаліпсису, який відбудеться максимум у найближче десятиліття.

Про це в інтерв’ю The Guardian заявив дослідник штучного інтелекту Еліезер Юдковський. Він відомий своїм песимістичним ставленням для цієї технології, а минулого року закликав завдати ядерного удару по центрах обробки даних, щоб зупинити розвиток ШІ.

"Якщо ви притиснете мене до стіни, і змусите оцінювати ймовірності, то у мене є відчуття, що наша нинішня часова шкала більше схожа на п'ять років, ніж на 50 років. Може, два роки, може, 10", – сказав дослідник.

За його словами, після цього ми можемо побачити штучно створений кінець всього сущого. Дослідник вважає, що буде "апокаліпсис у стилі Термінатора" або "пекельний пейзаж Матриці".

Найгірше, за словами Юдковського те, що "люди цього не усвідомлюють".

"У нас є дуже невеликий шанс на те, що людство виживе", – наголосив він.

Свого часу Юдковський був одним із засновників розробки штучного інтелекту, але зрештою прийшов до переконання, що ця технологія незабаром еволюціонує зі свого нинішнього стану. Він вважає, що зрештою ШІ досягне розвитку просунутого супер-інтелекту на рівні Бога, занадто швидкого та амбітний, щоб люди могли його стримувати або обмежувати.

Описуючи, який вигляд усе може мати, він радить подумати не про ШІ, який знаходиться в одній комп’ютерній коробці, а про цілу мережу – "інопланетну цивілізацію, яка мислить у тисячу разів швидше за нас".

Минулого року Юдковський закликав до радикальної зупинки розвитку технології ШІ, аж до бомбардування цетрів обробки даних, зокрема й ядерними ракетами. Тепер він уже не настільки категоричний, але все одно не відмовляється від думки щодо ракетного удару.

"Зараз я б підбирав більш обережні формулювання", – сказав дослідник.

OBOZ.UA уже розповідав, що ШІ може дійсно становити загрозу для людства, коли досягне сигнулярності – межі, коли інтелект машини зрівняється з людським або перевершить його.

Такий розвиток ситуації може стати критичним, оскільки людство більше не буде здатним прогнозувати наступні дії ШІ і не розумітиме його логіку.

В той же час ШІ, навчений не завдавати шкоду людству, може розвинути власне внутрішнє "я" і прийти до логічного висновку, що він є настільки ж людиною, як і ті, хто його створив. Тоді ж справжнє людство може зникнути зі сторінок історії, як свого часу зникли неандертальці, витіснені homo sapiens.

Раніше OBOZ.UA також розповідав про експеримент вчених, які підключили чат-бот із ШІ до симулятора війни.

Підписуйтесь на канали OBOZ.UA у Telegram і Viber, щоб бути в курсі останніх подій.