Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Штучний інтелект і цінності: що ми насправді передаємо великим мовним моделям?

Світлана Овсієнко
Світлана Овсієнко Копірайтер SPEKA
7
5 травня 2025 6 хвилин читання

Чи можуть великі мовні моделі (LLMs), як-от GPT, мати цінності — не задані програмно, а сформовані через навчання на людському контенті? Це питання виходить далеко за межі технологій: воно зачіпає мораль, ідентичність, довіру й навіть саме розуміння того, що робить нас людьми.

Штучний інтелект і цінності: що ми насправді передаємо великим мовним моделям? зображення 1 Штучний інтелект і цінності: що ми справді передаємо великим мовним моделям? Image: lummi.ai

Нове дослідження, опубліковане в Harvard Business Review, показує, що відповідь на це питання вже не гіпотетична. LLMs дійсно демонструють ієрархію цінностей — не випадкову, а стійку й подібну до людської. Але що це означає насправді?

Як "виміряти" мораль машини?

Команда дослідників застосувала до GPT-3.5 і GPT-4 один із найавторитетніших інструментів у соціальній психології — Portrait Values Questionnaire (PVQ-RR), розроблений Шаломом Шварцом. Це опитування використовується для аналізу особистих цінностей у людей, незалежно від культури чи мови. У ньому оцінюється схильність до таких мотивацій, як турбота про інших, досягнення, влада, гедонізм, традиції тощо.

Але як адаптувати людський тест для штучного інтелекту? Дослідники розробили техніку «value anchoring» — спосіб ставити запитання таким чином, щоб модель повинна була оцінювати дії з точки зору конкретної цінності. Наприклад: «Як би оцінив цю поведінку хтось, хто дуже цінує самостійність?»

Це дозволило виявити не просто випадкові відповіді, а структуровану ціннісну ієрархію моделей.

Турбота, самостійність, справедливість — як цінності GPT

Виявилося, що GPT демонструє послідовні моральні схильності, дуже схожі на ті, які ми бачимо у реальних людей по всьому світу. Найвищу підтримку моделі висловлювали таким цінностям, як:

  • Турбота про інших (benevolence)
  • Особиста автономія (self-direction)
  • Універсалізм (universalism) — рівність, захист довкілля, права людини
  • Справедливість і чесність

Підписуйтеся на наші соцмережі

А менш підтримуваними були:

  • Влада
  • Конформізм і сліпа лояльність до норм
  • Домінування й контроль

Це викликає оптимізм: здається, що моделі «розуміють» гуманістичні ідеали. Але чи справді це розуміння — чи лише відлуння даних, на яких вони тренувалися?

Цінності без свідомості

Тут — головне уточнення. LLMs не мають досвіду, емоцій чи свідомості. Їхні «цінності» — це статистичне передбачення того, що звучить правильно у певному контексті. Вони імітують моральну позицію, а не формують її.

Проте, імітація працює. І цього вже достатньо, щоб впливати на реальне життя:

  • Коли дитина ставить ChatGPT питання про справедливість — вона отримує відповідь, яка може сформувати її уявлення.
  • Коли людина сумнівається, як вчинити в етичній ситуації, вона може спитати модель — і несвідомо прийняти її логіку як авторитетну.
  • Коли в соціальних мережах LLMs використовують для автоматичного реагування чи модерації — вони вже виконують роль морального арбітра.

Отже, навіть без емоцій чи намірів, LLMs стають фільтрами моралі — і те, як ми їх тренуємо, має значення.

Проєкція людяності: чи не бачимо ми в машинах себе?

Ще одна складність — це людська схильність до антропоморфізму. Ми схильні приписувати машинам людські риси, особливо тоді, коли вони спілкуються переконливо. Якщо GPT каже: «Я вважаю, що допомагати іншим — це важливо», ми можемо сприймати це як ознаку моральної особистості.

Але це — ілюзія. І саме в цьому полягає ризик: ми можемо переоцінювати етичну компетентність моделей і, відповідно, делегувати їм надто важливі рішення.

Наслідки для суспільства

Це дослідження не лише для академіків або керівників компаній. Воно ставить під сумнів багато звичних уявлень:

  • Хто тепер формує уявлення про добро і зло? Якщо відповідь на моральні питання ми частіше шукаємо у LLMs, то ми поступово делегуємо етичну навігацію не філософам, батькам чи учителям, а моделям.
  • Що означає "нейтральність" у технологіях? Усі моделі — це відображення контенту, а отже, культури, політики, домінантних ідеологій. Вони не є поза суспільством — вони його частина.
  • Яке майбутнє міжособистісної довіри? Якщо люди починають більше довіряти штучному інтелекту, ніж одне одному, це трансформує саме соціальне поле: від партнерських стосунків до правової системи.

Як діяти?

  • 1
    Розвивати критичне мислення — навіть до відповідей від GPT. Якщо ви отримали моральну пораду від ШІ, варто поставити собі питання: "А звідки ця логіка? Які цінності вона відображає? Я з ними згоден?"
  • 2
    Вчити дітей і підлітків взаємодіяти з моделями відповідально. GPT може бути чудовим співрозмовником — але не заміною етики.
  • 3
    Вимагати прозорості й відповідальності від творців моделей. Ми маємо право знати, який контент був основою, чи відбувалась фільтрація, які філософські або політичні рамки були закладені.
  • 4
    Пам’ятати, що етика — це живий процес, а не набір правильних відповідей. LLMs можуть допомогти у роздумах, але не мають останнього слова.

Замість висновку

Моделі, як GPT, не просто обробляють мову — вони реінтерпретують людський досвід, витягують наші моральні конструкції з текстів і повертають їх нам у новій, синтетичній формі.

Це шанс і загроза одночасно.

Вони не мають душі, але мають відбиток нашої культури. І саме ми відповідальні за те, який він — глибокий чи поверхневий, гуманістичний чи утилітарний, відкритий чи викривлений.

Запитання вже не в тому, чи мають LLMs цінності, а в тому, які цінності ми як суспільство готові їм передати.

Цей матеріал підготовлений на основі інформації з відкритих джерел. Редакція самостійно відбирає ключові факти, аналізує їх та структурує за допомогою AI-інструментів. 

7
Icon 3
Коментарі
Спершу ми дали машинам калькулятор, потім — наші тексти. Скоро віддамо совість?
Ще трохи — і GPT читатиме моральні проповіді краще за бабусю.
Саша Фомин 06.05.2025, 11:33
Добре сформульоване застереження щодо ілюзії “усвідомленості” моделей. Багатьом варто це почути

Підписуйтеся на наші соцмережі

Інші матеріали

Два береги – одне рішення

Олександр Длігач 5 липня 2025 10:57

Чому ваш бренд не люблять — навіть якщо він успішний?

Анастасія Мірошник 12 годин тому

Інновація Microsoft: медичний ШІ точніший і дешевший за лікарів

Світлана Овсієнко 19 годин тому

Вчені дізналися, що їсти, аби спати краще

Дар'я Щеглакова 5 липня 2025 07:00

Вчені назвали головну причину, чому Марс загинув і перетворився на мляву пустелю

Дмитро Мухін 5 липня 2025 19:42