Рада директорів OpenAI зможе блокувати випуск потенційно небезпечних нейромереж
Після скандалу з відставкою генерального директора OpenAI Сема Альтмана та його повернення компанія вживає серйозних заходів для реформування управління та підвищення відповідальності розробників за великі мовні моделі.
Про це повідомляє Bloomberg.
Рада директорів OpenAI отримала повноваження затримувати випуск нових моделей у разі виявлення недостатньої безпеки.
Підписуйтеся на наші соцмережі
Ключову роль у цьому новому механізмі контролю відіграватиме «Preparedness» під керівництвом Олександра Мадрі, який поєднує цю посаду з науковою діяльністю в Массачусетському технологічному інституті.
Їх завданням буде аналіз кожної нової мовної моделі щодо виявлення «катастрофічних ризиків», таких як потенційні матеріальні збитки або людські жертви.
Група Мадрі буде регулярно ділитися звітами про діяльність розробників з радою з безпеки, яка, в свою чергу, буде спільно розглядати ці висновки з генеральним директором та радою директорів.
Рішення про випуск нових моделей буде піддаватися вето ради директорів, якщо вони вважають його небезпечним.
Оцінка ризиків буде проводитися за чотирма градаціями, і лише моделі з низьким або середнім ризиком матимуть можливість виходу на ринок.