OpenAI виділила $1 млн на створення алгоритмів, що вивчають моральні судження людей для навчання ШІ, пише TechCrunch.
OpenAI профінансувала дослідження Університету Дюка, спрямоване на розвиток морального штучного інтелекту. Проєкт, що триватиме до 2025 року, має на меті навчити алгоритми передбачати моральні судження у складних сценаріях у таких сферах, як медицина, право та бізнес.
Головним дослідником став професор практичної етики Волтер Сіннотт-Армстронг, який раніше вивчав потенціал ШІ для ухвалення етичних рішень. Разом із колегою Яною Борг він створив алгоритми, що допомагають вирішувати, наприклад, кому надавати донорські органи.
Втім експерти наголошують: мораль — це складна та суб’єктивна концепція, що може бути недосяжною для сучасних ШІ. Досвід із системою Ask Delphi від Інституту Аллена показав, що алгоритми часто схильні до упереджень і помилок, особливо через обмеженість навчальних даних.