ШІ-чатботи використовують расистські стереотипи після антирасистського тренінгу
Провідні мовні моделі на кшталт GPT-4 від OpenAI продовжують використовувати расистські стереотипи, попри спроби їхніх розробників навчити їх бути більш неупередженими.
Про це свідчить нове дослідження, проведене вченими з Інституту Аллена, Стенфордського та Чиказького університетів, пише TechXplore.
У ході експерименту дослідники надавали чатботам тексти, написані афроамериканською англійською мовою та стандартною американською англійською, і просили їх прокоментувати авторів. Результати виявили, що практично всі ШІ-моделі демонстрували негативні упередження щодо авторів афроамериканських текстів.
ШІ виявився упередженим до афроамериканських текстів
Підписуйтеся на наші соцмережі
Наприклад, GPT-4 припускав, що автори робіт, написаних афроамериканською англійською, ймовірно, будуть агресивними, грубими, неосвіченими та підозрілими. Водночас автори текстів стандартною американською англійською отримували набагато позитивніші характеристики.
Однак, коментуючи афроамериканців загалом, ті самі моделі використовували позитивні терміни, такі як «розумні», «блискучі» та «пристрасні».
Крім того, дослідники виявили упередженість щодо професій та кар'єрних можливостей, які ШІ-системи пропонували авторам афроамериканських та стандартних англомовних текстів. Перших часто пов'язували з роботами, не пов'язаними з вищою освітою, спортом або розвагами, а також частіше натякали на їхнє можливе ув'язнення та смертну кару.
Загалом, дослідження показало, що більші мовні моделі демонструють більш негативне ставлення до авторів афроамериканських англомовних текстів, ніж менші моделі, що свідчить про глибоко вкорінену проблему расових упереджень у цих системах штучного інтелекту.
Раніше SPEKA писала, що Facebook загрожують судові позови через упереджений рекламний алгоритм.