Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Рада директорів OpenAI зможе блокувати випуск потенційно небезпечних нейромереж

19 грудня 2023 2 хвилин читання

Після скандалу з відставкою генерального директора OpenAI Сема Альтмана та його повернення компанія вживає серйозних заходів для реформування управління та підвищення відповідальності розробників за великі мовні моделі.

Про це повідомляє Bloomberg.

Рада директорів OpenAI отримала повноваження затримувати випуск нових моделей у разі виявлення недостатньої безпеки.

Підписуйтеся на наші соцмережі

Ключову роль у цьому новому механізмі контролю відіграватиме «Preparedness» під керівництвом Олександра Мадрі, який поєднує цю посаду з науковою діяльністю в Массачусетському технологічному інституті.

Їх завданням буде аналіз кожної нової мовної моделі щодо виявлення «катастрофічних ризиків», таких як потенційні матеріальні збитки або людські жертви.

Група Мадрі буде регулярно ділитися звітами про діяльність розробників з радою з безпеки, яка, в свою чергу, буде спільно розглядати ці висновки з генеральним директором та радою директорів.

Рішення про випуск нових моделей буде піддаватися вето ради директорів, якщо вони вважають його небезпечним.

Оцінка ризиків буде проводитися за чотирма градаціями, і лише моделі з низьким або середнім ризиком матимуть можливість виходу на ринок. 

0
Icon 0

Підписуйтеся на наші соцмережі

Інші матеріали

СЕС для бізнесу: як уникнути помилок на етапі проєктування?

Антон Березинський 25 квітня 2025 09:00

Лайфхаки для українців за кордоном: як легко повернути читання у своє життя

Валерій Старик 8 годин тому

​Рекомендація книги «Sapiens: Людина розумна. Коротка історія людства» Юваля Ноя Харарі

Валерій Старик 8 годин тому

Вкрадена Батьківщина: історія загубленого покоління

Валерій Старик 8 годин тому

Що таке індивідуальна податкова консультація та як її отримати ФОП?

Inna Sharova 25 квітня 2025 15:30