Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Рада директорів OpenAI зможе блокувати випуск потенційно небезпечних нейромереж

Артем Житкевич
Артем Житкевич
19 грудня 2023 2 хвилин читання

Після скандалу з відставкою генерального директора OpenAI Сема Альтмана та його повернення компанія вживає серйозних заходів для реформування управління та підвищення відповідальності розробників за великі мовні моделі.

Про це повідомляє Bloomberg.

Рада директорів OpenAI отримала повноваження затримувати випуск нових моделей у разі виявлення недостатньої безпеки.

Підписуйтеся на наші соцмережі

Ключову роль у цьому новому механізмі контролю відіграватиме «Preparedness» під керівництвом Олександра Мадрі, який поєднує цю посаду з науковою діяльністю в Массачусетському технологічному інституті.

Їх завданням буде аналіз кожної нової мовної моделі щодо виявлення «катастрофічних ризиків», таких як потенційні матеріальні збитки або людські жертви.

Група Мадрі буде регулярно ділитися звітами про діяльність розробників з радою з безпеки, яка, в свою чергу, буде спільно розглядати ці висновки з генеральним директором та радою директорів.

Рішення про випуск нових моделей буде піддаватися вето ради директорів, якщо вони вважають його небезпечним.

Оцінка ризиків буде проводитися за чотирма градаціями, і лише моделі з низьким або середнім ризиком матимуть можливість виходу на ринок. 

Підписуйтеся на наші соцмережі

50 UAH 150 UAH 500 UAH 1000 UAH 3000 UAH 5000 UAH
0
Прокоментувати
Інші матеріали

Корисні GenAI-сервіси для маркетингу та створення контенту

Анна Сергієнко 1 годину тому

Chai Discovery залучив кошти від Thrive Capital і OpenAI для створення ліків на основі ШІ

Владислав Паливода 5 годин тому

Чому цифрові близнюки змінюють бізнес та до чого тут ШІ

Олександр Тартачний 7 годин тому

Топ-5 професій, які найчастіше використовують ШІ, назвали в Microsoft

Вікторія Рудзінська 20 годин тому

Нова валюта продажів — інсайти: як Big Data, аналітичний підхід та гнучкість визначають успіх у В2В

Євген Кузьменко 9 вересня 2024 15:43