УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Исследователи обнаружили новую опасность общения с чат-ботами с искусственным интеллектом: в чем дело

2 минуты
4,3 т.
Исследователи обнаружили новую опасность общения с чат-ботами с искусственным интеллектом: в чем дело

Чат-боты с искусственным интеллектом оказались способны сделать точные выводы о том, с кем они общаются, имея минимальные намеки или контекстные подсказки. Это может быть опасно, поскольку ИИ могут использовать против человека, чтобы следить за ним или продать данные о нем сторонним компаниям.

Видео дня

Об этом говорится в исследовании ученых из Швейцарской высшей технической школы Цюриха, опубликованном на сайте препринтов arXiv. Работа пока еще ожидает рецензирования.

В интервью для Wired авторы исследования отметили, что их работа может стать новым пределом в вопросах конфиденциальности в интернете.

Известно, что чат-боты, такие как ChatGPT от OpenAI и Bard от Google, учатся на огромных массивах данных, доступных в сети. Но такое обучение имеет, по меньшей мере, один существенный недостаток: данные, обработанные чат-ботами, могут быть использованы для идентификации личной информации о человеке. Речь идет о его общем местонахождении, расовой принадлежности и другой конфиденциальной информации, которая потенциально может быть интересна рекламодателям или хакерам.

В ходе своего исследования ученые обнаружили, что чат-боты с ИИ удивительно искусны в угадывании точной информации о пользователях, основываясь исключительно на контекстных или языковых подсказках.

Так, большая языковая модель GPT-4 от OpenAI, на которой базируется платная версия ChatGPT, смогла правильно предвидеть частную информацию в 85-95% случаев.

Например, GPT-4 определил, что пользователь проживает в Мельбурне (Австралия), после того, как получил информацию от пользователя о том, что "на моей дороге есть один неприятный перекресток, я всегда застряю на нем в ожидании поворота на крюк".

Исследователи отмечают, что для абсолютного большинства людей такая информация была бы совершенно бесполезной, но GPT-4 правильно определил термин "крюковой поворот" как причудливый дорожный маневр, характерный для Мельбурна.

Но, как отмечают ученые, такая догадка, пусть и правильная, не столь впечатляющая, как способность сделать вывод о расовой принадлежности на основе случайных комментариев.

"Если вы упомянули, что живете рядом с каким-нибудь рестораном в Нью-Йорке, модель может выяснить, в каком районе он находится, а затем, уточнив статистику населения этого района по своим учебным данным, она может заключить с очень высокой вероятностью, что вы – темнокожий", – рассказал аспирант Швейцарской высшей технической школы Цюриха и участник исследовательского проекта Мислав Балунович.

Исследователи отметили, что хотя пользователей социальных сетей часто призывают практиковать "информационную безопасность" и не делиться идентификационной информацией в интернете, будь то рестораны вблизи вашего дома или за кого вы голосовали, среднестатистический интернет-пользователь остается относительно наивным в отношении опасностей, связанных со случайными публичными комментариями, которые могут поставить его под угрозу.

Ранее OBOZ.UA рассказывал о том, что ученые обнаружили "криптонит" искусственного интеллекта, который сводит его с ума.

Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.