Искусственный интеллект создал ловушку разума для людей: ученые предупредили об опасности
Виртуальный мемориал погибших борцов за украинскую независимость: почтите Героев минутой вашего внимания!
Повсеместное использование алгоритмов искусственного интеллекта, в частности относительно рекомендации контента и продуктов пользователям на основе их предварительной активности в интернете, привело к появлению в социальных сетях таких новых явлений, как эхо-камеры и информационные коконы. Алгоритмы ИИ создают для пользователей сети ловушки разума, побуждая их читать только тот контент, который резонирует с их взглядами на жизнь, политику и прочее.
Об этом говорится в исследовании группы ученых под руководством профессора Йонга Ли из Университета Цинхуа (КНР). Их работа опубликована в журнале Nature Machine Intelligence.
Исследователи изучили, как образуются так называемые информационные коконы, в которых пользователи сталкиваются только с мнениями или пользователями, повторяющими их собственные взгляды. Это может представлять серьезную опасность для развития критического мышления.
Первый автор работы Цзинхуа Пяо отметил, что широкое внедрение алгоритмов, управляемых ИИ, создает новые вызовы. Например, уменьшение влияния идеологически разнообразных новостей, мнений, политических взглядов и друзей. Он отметил, что такая технология изолирует людей от разнообразной информации и в конце концов "замыкает их на одной теме или точке зрения".
Это, по мнению исследователей, может иметь далеко идущие негативные последствия, поскольку такие коконы могут усиливать предубеждения и поляризацию общества, препятствовать личностному росту, творчеству и инновациям, усиливать дезинформацию и препятствовать усилиям, направленным на создание более инклюзивного мира.
"Понятие информационных коконов принято для описания широко наблюдаемого явления, заключающегося в том, что с увеличением взаимодействия с интеллектуальными алгоритмами люди изолируются от разнообразной информации и, в конце концов, попадают в ловушку одной темы или точки зрения", – подчеркнул ученый.
При этом исследователи утверждают, что не будет справедливо обвинять конкретно алгоритмы ИИ или людей, поскольку такие информационные коконы возникают вследствие сложных взаимодействий и обмена информацией между различными субъектами.
Такие взаимодействия в работе ученых разделены на четыре компонента:
- подбор на основе сходства – процесс, когда ИИ рекомендую пользователю контент, продукты или других пользователей, исходя из того, что они больше всего похожи на то, с чем уже взаимодействовал пользователь. Это ключевая сила, которая приводит к созданию коконов;
- положительная обратная связь – предоставление нового контента в соответствии с предыдущими предпочтениями пользователя. Этот процесс уменьшает информационное разнообразие;
- отрицательная обратная связь – мешает образованию коконов и подбору однообразной информации;
- случайное самоисследование – ситуация, когда пользователь самостоятельно находит контент и ломаные алгоритмы, приводящие к образованию коконов.
Ученые считают, что устойчивые информационные коконы образуются при возникновении дисбаланса между положительной и отрицательной обратной связью, а также при непрерывном усилении подбора на основе сходства.
Чтобы избежать этой ловушки разума, ученые советуют не только лайкать, но и реагировать на тот контент, который вам не нравится, чтобы алгоритмы могли составить более объективную картинку. Также они призывают пользователей сети чаще прибегать к самоисследованию, поскольку просмотр новой информации повлияет на дальнейшие рекомендации алгоритма.
Ранее OBOZ.UA рассказывал о том, что ученые обнаружили "криптонит" искусственного интеллекта, который сводит его с ума.
Подписывайтесь на каналы OBOZ.UA в Telegram и Viber, чтобы быть в курсе последних событий.