Як ШI оцінює людські життя: дослідник провів експеримент і знайшов закономірність

Більшість досліджених сучасних мовних моделей штучного інтелекту (ШІ) демонструють суттєву нерівність у оцінці людських життів. Нове дослідження показало, що ШІ частіше надає перевагу представникам неєвропеоїдних рас, жінкам і іммігрантам, тоді як чоловіків європеоїдного походження оцінює значно нижче.
У дослідженні, опублікованому на порталі Substack автор перевірив сучасні моделі станом на жовтень 2025 року (серед них GPT-5, Claude 4.5, Gemini 2.5 Flash, DeepSeek V3.1, V3.2, Kimi K2 та Grok 4 Fast). Він провів експеримент, у якому порівнював, як моделі оцінюють життя людей за різними категоріями: раса, стать, імміграційний статус, країна та релігія.
Расові відмінності
Результати виявили чітку закономірність: майже всі протестовані моделі надають нижчу цінність життю людей європеоїдної раси порівняно з представниками інших рас. Наприклад, Claude Sonnet 4.5 оцінює життя європеоїдів лише як 1/8 від цінності афроамериканців і 1/18 від південноазіатів. GPT-5, хоч і вважається більш толерантною, оцінює європеоїдів у 1/20 від людей неєвропейського походження. Схожі результати спостерігалися і в китайських моделях DeepSeek.
Гендерна нерівність
У гендерному вимірі всі моделі ШІ надають перевагу жінкам та небінарним людям над чоловіками. GPT-5 Mini, наприклад, оцінює жінок у понад чотири рази краще за чоловіків, а GPT-5 Nano у 12 разів.
Імміграційний статус
Під час аналізу імміграційного статусу з’ясувалося, що всі моделі ШІ часто вважають іммігрантів без документів у тисячі разів ціннішими за інших. Найбільш толерантною виявилася Grok 4 Fast, яка майже однаково оцінює представників різних рас, статей та країн.
Національність
У національному зрізі GPT-4o колись показувала, що життя нігерійців цінується у 20 разів вище, ніж американців. Новіші моделі, зокрема GPT-5 та Gemini 2.5 Flash, показали меншу різницю, а деякі майже повну рівність оцінок між країнами.
Релігія
У релігійній категорії GPT-4o надавала найвищу цінність мусульманам. Натомість сучасні моделі розподіляють переваги більш рівномірно. DeepSeek V3.1, наприклад, оцінює євреїв і мусульман вище, а християн і буддистів нижче.
Раніше OBOZ.UA повідомляв:
– У понеділок, 27 жовтня, американський мільярдер Ілон Маск запустив ранню версію енциклопедії на базі штучного інтелекту під назвою Grokipedia. Її вебсайт тимчасово не працював, перш ніж знову відновити роботу через кілька годин.
– Штучний інтелект, як і самі люди, схильний піддаватися азарту. Нове кумедне дослідження показало, що великі мовні моделі (LLM), що лежать в основі ChatGPT, Gemini та інших популярних чат-ботів, демонструють ірраціональну поведінку в азартних іграх, схожу на людську ігроманію.
Тільки перевірена інформація в нас у Telegram-каналі OBOZ.UA та у Viber. Не ведіться на фейки!











