Чи можуть великі мовні моделі (LLMs), як-от GPT, мати цінності — не задані програмно, а сформовані через навчання на людському контенті? Це питання виходить далеко за межі технологій: воно зачіпає мораль, ідентичність, довіру й навіть саме розуміння того, що робить нас людьми.
Штучний інтелект і цінності: що ми справді передаємо великим мовним моделям? Image: lummi.ai
Нове дослідження, опубліковане в Harvard Business Review, показує, що відповідь на це питання вже не гіпотетична. LLMs дійсно демонструють ієрархію цінностей — не випадкову, а стійку й подібну до людської. Але що це означає насправді?
Як "виміряти" мораль машини?
Команда дослідників застосувала до GPT-3.5 і GPT-4 один із найавторитетніших інструментів у соціальній психології — Portrait Values Questionnaire (PVQ-RR), розроблений Шаломом Шварцом. Це опитування використовується для аналізу особистих цінностей у людей, незалежно від культури чи мови. У ньому оцінюється схильність до таких мотивацій, як турбота про інших, досягнення, влада, гедонізм, традиції тощо.
Але як адаптувати людський тест для штучного інтелекту? Дослідники розробили техніку «value anchoring» — спосіб ставити запитання таким чином, щоб модель повинна була оцінювати дії з точки зору конкретної цінності. Наприклад:«Як би оцінив цю поведінку хтось, хто дуже цінує самостійність?»
Це дозволило виявити не просто випадкові відповіді, а структуровану ціннісну ієрархію моделей.
Турбота, самостійність, справедливість — як цінності GPT
Виявилося, що GPT демонструє послідовні моральні схильності, дуже схожі на ті, які ми бачимо у реальних людей по всьому світу. Найвищу підтримку моделі висловлювали таким цінностям, як:
Турбота про інших (benevolence)
Особиста автономія (self-direction)
Універсалізм (universalism) — рівність, захист довкілля, права людини
Справедливість і чесність
Підписуйтеся на наші соцмережі
А менш підтримуваними були:
Влада
Конформізм і сліпа лояльність до норм
Домінування й контроль
Це викликає оптимізм: здається, що моделі «розуміють» гуманістичні ідеали. Але чи справді це розуміння — чи лише відлуння даних, на яких вони тренувалися?
Цінності без свідомості
Тут — головне уточнення. LLMs не мають досвіду, емоцій чи свідомості. Їхні «цінності» — це статистичне передбачення того, що звучить правильно у певному контексті. Вони імітують моральну позицію, а не формують її.
Проте, імітація працює. І цього вже достатньо, щоб впливати на реальне життя:
Коли дитина ставить ChatGPT питання про справедливість — вона отримує відповідь, яка може сформувати її уявлення.
Коли людина сумнівається, як вчинити в етичній ситуації, вона може спитати модель — і несвідомо прийняти її логіку як авторитетну.
Коли в соціальних мережах LLMs використовують для автоматичного реагування чи модерації — вони вже виконують роль морального арбітра.
Отже, навіть без емоцій чи намірів, LLMs стають фільтрами моралі — і те, як ми їх тренуємо, має значення.
Проєкція людяності: чи не бачимо ми в машинах себе?
Ще одна складність — це людська схильність до антропоморфізму. Ми схильні приписувати машинам людські риси, особливо тоді, коли вони спілкуються переконливо. Якщо GPT каже: «Я вважаю, що допомагати іншим — це важливо», ми можемо сприймати це як ознаку моральної особистості.
Але це — ілюзія. І саме в цьому полягає ризик: ми можемопереоцінювати етичну компетентністьмоделей і, відповідно, делегувати їм надто важливі рішення.
Наслідки для суспільства
Це дослідження не лише для академіків або керівників компаній. Воно ставить під сумнів багато звичних уявлень:
Хто тепер формує уявлення про добро і зло? Якщо відповідь на моральні питання ми частіше шукаємо у LLMs, то ми поступово делегуємо етичну навігацію не філософам, батькам чи учителям, а моделям.
Що означає "нейтральність" у технологіях? Усі моделі — це відображення контенту, а отже, культури, політики, домінантних ідеологій. Вони не є поза суспільством — вони його частина.
Яке майбутнє міжособистісної довіри? Якщо люди починають більше довіряти штучному інтелекту, ніж одне одному, це трансформує саме соціальне поле: від партнерських стосунків до правової системи.
Як діяти?
1
Розвивати критичне мислення— навіть до відповідей від GPT. Якщо ви отримали моральну пораду від ШІ, варто поставити собі питання: "А звідки ця логіка? Які цінності вона відображає? Я з ними згоден?"
2
Вчити дітей і підлітків взаємодіяти з моделями відповідально. GPT може бути чудовим співрозмовником — але не заміною етики.
3
Вимагати прозорості й відповідальності від творців моделей. Ми маємо право знати, який контент був основою, чи відбувалась фільтрація, які філософські або політичні рамки були закладені.
4
Пам’ятати, що етика — це живий процес, а не набір правильних відповідей. LLMs можуть допомогти у роздумах, але не мають останнього слова.
Замість висновку
Моделі, як GPT, не просто обробляють мову — вони реінтерпретують людський досвід, витягують наші моральні конструкції з текстів і повертають їх нам у новій, синтетичній формі.
Це шанс і загроза одночасно.
Вони не мають душі, але мають відбиток нашої культури. І саме ми відповідальні за те, який він — глибокий чи поверхневий, гуманістичний чи утилітарний, відкритий чи викривлений.
Запитання вже не в тому, чи мають LLMs цінності, а в тому, які цінності ми як суспільство готові їм передати.
Цей матеріал підготовлений на основі інформації з відкритих джерел. Редакція самостійно відбирає ключові факти, аналізує їх та структурує за допомогою AI-інструментів.