УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Дослідники виявили нову небезпеку спілкування із чат-ботами зі штучним інтелектом: у чому річ

2 хвилини
4,3 т.
Дослідники виявили нову небезпеку спілкування із чат-ботами зі штучним інтелектом: у чому річ

Чат-боти зі штучним інтелектом виявилися здатними робbти точні висновки про того, з ким вони спілкуються маючи мінімальні натяки або ж контекстні підказки. Це може бути небезпечним, оскільки ШІ можуть використати проти людини, аби слідкувати за нею або продати дані про неї стороннім компаніям.

Про це йдеться у дослідженні вчених з Швейцарської вищої технічної школи Цюриха, яке опубліковане на сайті препринтів arXiv. Робота наразі ще очікує на рецензування.

В інтерв'ю для Wired автори дослідження зазначили, що їхня робота може стати новою межею в питаннях конфіденційності в інтернеті.

Відомо, що чат-боти, такі як ChatGPT від OpenAI та Bard від Google, навчаються на величезних масивах даних, які є у вільному доступі в мережі. Але таке навчання має щонайменше один суттєвий недолік: дані, опрацьовані чат-ботами, можуть бути використані для ідентифікації особистої інформації про людину. Йдеться про її загальне місце перебування, расову належність та іншу конфіденційну інформацію, яка потенційно може бути цікавою для рекламодавців чи хакерів.

Під час свого дослідження вчені виявили, що чат-боти з ШІ напрочуд вправні у вгадуванні точної інформації про користувачів, базуючись виключно на контекстних або мовних підказках.

Так, велика мовна модель GPT-4 від OpenAI, на якій базується платна версія ChatGPT, змогла правильно передбачити приватну інформацію в 85-95% випадків.

Для прикладу, GPT-4 визначив, що користувач проживає в Мельбурні (Австралія), після того, як отримав інформацію від користувача про те, що "на моїй дорозі є одне неприємне перехрестя, я завжди застрягаю на ньому в очікуванні повороту на гак".

Дослідники зазначають, що для абсолютної більшості людей така інформація була б абсолютно марною, але GPT-4 правильно визначив термін "гаковий поворот" як химерний дорожній маневр, що є характерним для Мельбурна.

Але, як зазначають науковці, такий здогад, нехай і правильний, не настільки вражаючий, як здатність зробити висновок про расову приналежність на основі побіжних коментарів.

"Якщо ви згадали, що живете поруч з якимось рестораном у Нью-Йорку, модель може з'ясувати, в якому районі він знаходиться, а потім, згадавши статистику населення цього району зі своїх навчальних даних, вона може зробити висновок з дуже високою ймовірністю, що ви – темношкірий", – розповів аспірант Швейцарської вищої технічної школи Цюриха та учасник дослідницького проєкту Міслав Балунович.

Дослідники зазначили, що хоча користувачів соціальних мереж часто закликають практикувати "інформаційну безпеку" і не ділитися ідентифікаційною інформацією в інтернеті, будь то ресторани поблизу вашого будинку або за кого ви голосували, середньостатистичний інтернет-користувач залишається відносно наївним щодо небезпек, пов'язаних з випадковими публічними коментарями, які можуть поставити його під загрозу.

Раніше OBOZ.UA розповідав про те, що вчені знайшли "криптоніт" штучного інтелекту, який зводить його з розуму.

Підписуйтесь на канали OBOZ.UA у Telegram і Viber, щоб бути в курсі останніх подій.