Блог | Штучний інтелект – загроза людській цивілізації чи безсмертя людини?
Віртуальний меморіал загиблих борців за українську незалежність: вшануйте Героїв хвилиною вашої уваги!
Може тема, яка винесена мною у заголовок, декому здасться неактуальною на фоні світової війни, яка все більше і більше починає охоплювати Світ. Безумовно війна в Украіні та Ізраїлі - це головна подія, до якої прикута уся увага людства і яка може мати історичні наслідки, але є й інші події, які можуть мати не менш глобальне значення для людства і які теж повинні бути у центрі уваги людства.
Це - штучний інтелект (надалі - ШІ).
ШІ це не просто прогрес технічних можливостей - це колосальна зміна усього людства. Фактично ШІ - прихід сильного штучного інтелекта, який багато у чому може змінити наше уявлення про те, що таке людина, і взагалі ми повинні будемо перейти у новій світ, але для цього нам необхідно буде позбутися цього світу, в якому живемо.
Поки прості інтернет-користувачі експериментували з ChatGPT і сперечалися, наскільки етично стосовно художників використовувати зображення від Midjourney, лідери IT-індустрії виступили з лякаючою заявою. Ілон Маск, Стів Возняк та ще понад 1000 експертів закликали призупинити подальше навчання штучного інтелекту хоча б на шість місяців. За цей час, який скоро закінчиться, повинні бути розроблені алгоритми безпеки, які здатні захистити людей від можливого повстання машин. І трьома законами робототехніки тут явно не обійтися.
У відкритому листі, який опублікував Центр безпеки штучного інтелекту, немає довгих та абстрактних міркувань. Вся заява – це одна пропозиція:
"Зниження ризику зникнення людства через [розвиток] штучного інтелекту має стати глобальним пріоритетом — поряд з іншими ризиками, такими як пандемії та ядерна війна".
Ден Хендрікс, виконавчий директор центру, пояснив New York Times, що організація спеціально не стала "розмивати головну думку списком із 30 рекомендацій до дій".
Безумовно, ChatGPT, є унікальним інструментом, який може змінити людство кардинально. Було цікаво, як він може вплинути на цивілізацію.
Ось його відповідь. - "Мене можна використовувати для вирішення широкого спектру завдань, включаючи генерацію тексту, відповіді на запитання, переклад мов та багато іншого. Це може вплинути на майбутнє людства, покращуючи ефективність роботи в низці різних галузей, таких як маркетинг, клієнтська підтримка, медицина та багато іншого. Однак також слід враховувати, що використання технології може призвести до втрати роботи для деяких людей, тому важливо продовжувати моніторити та керувати впливом технології на майбутнє людства".
Варто зазначити, що ChatGPT чудово "розуміє" українську мову і так само вміло нею володіє.
У своїй статті в журналі Time фахівець зі створення дружнього ШІ Елієзер Юдковський, відомий також як автор роману "Гаррі Поттер та методи раціонального мислення", підкреслив, що вчені та дослідники можуть навіть самі не помітити, коли точку неповернення буде пройдено, а нейромережі вийдуть з - під контролю, і закликав відкласти подальші дослідження на невизначений термін.
"Вірогідний результат протистояння людства з надлюдським розумом – повна поразка."
"Щоб візуалізувати ворожий надлюдський ШІ, не уявляйте собі неживого розумного мислителя, який живе в Інтернеті та розсилає зловмисні електронні листи. Уявіть цілу інопланетну цивілізацію, що мислить зі швидкістю, що в мільйони разів перевищує людську, і спочатку обмежену комп'ютерами, — у світі істот, які, на її думку, дуже безглузді і дуже повільні", — написав Юдковський.
"Хрещений батько ШІ" Джеффрі Хінтон звільнився з Google, розкритикував компанію за неетичність - і тепер попереджає світ про небезпеку штучного інтелекту.
У 2012 році професор Університету Торонто Джеффрі Хінтон та двоє його студентів розробили систему, яка могла аналізувати тисячі знімків та навчати саму себе розпізнавати в реальності схожі об'єкти — наприклад, квіти, тварин чи автомобілі — з безпрецедентною точністю. Після видатного досягнення Хінтон та його учні Ілля Суцкевер та Алекс Крижевський продовжили дослідження — а компанію, в якій вони працювали над нейромережами, придбала Google. Саме розробки британського професора та двох студентів прискорили впровадження ШІІ, призвели до появи ChatGPT, Google Bard та інших чат-ботів.
Через п'ять років вчений різко змінив погляди на ШІ, залишив Google — і 01 травня дав інтерв'ю The New York Times, в якому висловився про небезпеку в цій сфері. Головна загроза чат-ботів та інших подібних технологій, на думку Хінтона, полягає в тому, що інтернет так наповниться фейковим контентом — згенерованими фотографіями, відео та текстами, — що звичайні люди "більше не знатимуть, де правда".
"Є ймовірність, що те, що відбувається в цих системах, набагато перевершує за складністю процеси в людському мозку, — зазначив учений. — Подивіться на те, що відбувалося [у сфері досліджень ШІ] п'ять років тому, і те, що відбувається зараз. Уявіть, з якою швидкістю зміни відбуватимуться у майбутньому. Це лякає".
Хінтон побоюється, що технології зрештою зітруть для більшості людей кордон між вигадкою та реальністю, а також кардинальним чином змінять ситуацію на ринку праці. Ще один привід для побоювань вченого у тому, що штучні системи можуть навчатися непередбачуваній поведінці, коли аналізують великі масиви даних. Це означає, що людям все складніше буде прогнозувати механізми функціонування ШІ (із інтерв’ю 1.05.2023 року (The New York Times).
Зараз вже усім фахівцям у цій галузі стало зрозумілим, що ШІ може мати як позитивний вплив на людство, так і негативний. Багато хто обґрунтовано висловлює занепокоєння тим, що ШІ може вийти з-під контролю людини і почне самостійні дії незалежно від волі людини. Зокрема, ШІ може реально впливати на політичні процеси, у вибори, у міжнародні стосунки. Один із засновників ШІ Ілон Маск попереджав лідерів Китаю, що безконтрольний ШІ може призвести до краху комуністичної влади в Китаї.
Це і багато іншого дає підстави стверджувати, що негайно повинні бути розроблені міжнародно-правові норми пов’язані з діяльністю ШІ. Це повинна бути загальносвітова угода між країнами. Тобто, зараз створилася фактично аналогічна ситуація з появою ядерної енергії і як людство реагувало на цей виклик. Ми пам’ятаємо, що майже усі головні творці ядерної зброї закликали людство зберегти життя на планеті і відмовитись від застосування ядерної зброї. Але, ядерна енергія - це не тільки ядерна зброя. І людство знайшло адекватну реакцію на цей виклик прогресу.
Тепер черга за ШІ.
В іншому випадку ШІ може вийти з-під впливу людини і почати самостійну діяльність, яка може призвести до непередбачуваних наслідків. Загроза такої можливості надзвичайно висока. Проблема полягає ще і у тому, а хто зможе розпізнати таку діяльність ШІ, якщо людство може бути позбавлено можливості не тільки контролювати штучний інтелект, але й розпізнавати його. Ще гірше буде, коли ШІ почне захоплювати політичну владу в країнах. Я вже не беру до уваги величезні зміни, які відбудуться практично у всіх сферах діяльності людства.
Саме тому, людство повинно невідкладно поставити під максимально жорсткий контроль усю сферу функціонування і розробки ШІ на усіх його стадіях. Уявіть собі, що може зробити зі світом путін, або інші терористи, у разі якщо отримають контроль над ШІ. Людство буде приречено.
І можна повністю погодитись з головними розробниками ШІ, що штучний інтелект - це одна із найбільших загроз людства, таких як ядерна війна і короновірус. А тому людство повинно невідкладно створити правові механізми щоб взяти під повний контроль штучний інтелект і визначити сфери його можливого застосування.
Поки штучний інтелект не змінив людство потрібно, щоб людство поставило його під контроль.
"У мене є доступ до передових розробок у сфері штучного інтелекту, і я вважаю, що людей повинен турбувати розвиток подібних технологій", — цитує Fortune засновника SpaceX. Журнал зазначає, що Ілон Маск вже давно заявляв про ризики, пов'язані зі штучним інтелектом. Однак у своєму виступі перед американськими губернаторами бізнесмен не лише показав особливу жорсткість своєї позиції, а й "рішуче закликав" владу втрутитися у ситуацію.
"Проблема штучного інтелекту — той рідкісний випадок, коли нам треба виявити активність у регулюванні питання, інакше може бути надто пізно. Штучний інтелект є фундаментальним ризиком існування людської цивілізації. ДТП, авіакатастрофи, неякісні ліки чи погана їжа такими не є",— переконаний Ілон Маск при усіх його суперечливих позиціях по найбільш актуальним світовим проблемам, цю його пропозицію необхідно врахувати.
Як пише BBC "Одним із найбільших ентузіастів штучного інтелекту є футуролог-винахідник і письменник Рей Курцвейл, дослідник штучного інтелекту в Google і співзасновник Університету сингулярності Кремнієвої долини. Курцвейл вірить, що люди зможуть використовувати суперінтелектуальний ШІ для подолання біологічних бар'єрів.У 2015 році він передбачив, що до 2030 року люди зможуть досягти безсмертя завдяки наноботам (надзвичайно маленьким роботам), які могли б "виправляючи" будь-які пошкодження лікувати хвороби всередині нашого тіла."
І цей процес іде повним ходом. ШІ активно включився в процес збереження здоровʼя людини. На сьогодні є багаточисельні приклади, коли ШІ значно ефективніше допомагає врятувати людині диття, ніж лікарі.
Разом з тим, "Найгірший сценарій полягає не в тому, що існують війни між людьми та роботами. Найгіршим є те, що ми не усвідомлюємо, що нами маніпулюють, тому що ми живемо на планеті з істотою, яка набагато розумніша за нас". Отже, штучний інтелект є ще однією фундаментальною загрозою існування людства!
До цього розумного застереження необхідно дослухатися, поки ще не пізно.
Людство знайшло розумний баланс між застосуванням ядерної енергії, сподіваюсь, що людство знайде і необхідний баланс у застосуванні штучного інтелекту.