Альтман заявив, що OpenAI співпрацюватиме з Інститутом безпеки ШІ США для тестування нових моделей
Національний інститут буде тестувати всі нові моделі штучного інтелекту OpenAI, що робить це майже національним проєктом, а не просто комерційною ініціативою.
Про це повідомив СЕО OpenAI Сем Альтман.
OpenAI уклала угоду з Інститутом безпеки штучного інтелекту США (AI Security Institute) щодо тестування та оцінювання своїх майбутніх моделей. У своєму профілі в X Сем Альтман висловив задоволення від досягнення угоди, зазначивши важливість цього процесу на національному рівні та закликав США продовжувати лідерство у галузі штучного інтелекту.
Підписуйтеся на наші соцмережі
Угода передбачає, що Інститут безпеки ШІ отримуватиме доступ до нових моделей OpenAI до та після їхнього публічного випуску. Це дозволить провести спільні дослідження, щоб оцінити можливості та ризики, пов’язані з безпекою моделей, а також розробити методи для пом'якшення цих ризиків. Державні експерти будуть активно долучатися до процесу, що робить цей проєкт важливим кроком щодо відповідального розвитку технологій.
Елізабет Келлі, директорка Інституту безпеки штучного інтелекту США, підкреслила значення цієї угоди для стимулювання безпечних інновацій у сфері штучного інтелекту. Вона зазначила, що ці угоди є важливою віхою на шляху до безпечного майбутнього ШІ.
Інститут безпеки ШІ працюватиме над вдосконаленням моделей OpenAI, а також надаватиме зворотний зв'язок про можливі покращення. У співпраці з британськими партнерами фахівці інституту створять нові стандарти для безпеки штучного інтелекту.
Ця угода також відповідає виконавчому наказу адміністрації Байдена-Харріс, що спрямований на безпечний та відповідальний розвиток ШІ.