Ян Лейке звільняється з OpenAI, заявляючи про пріоритетність продуктів над безпекою
Про це повідомляє The Verge.
Це сталося після того, як видання Wired повідомило, що OpenAI розпустила команду Superalignment, яка займалася безпекою ШІ.
Ян Лейке
Екскерівник Superalignment«Нам давно пора стати неймовірно серйозними щодо наслідків AGI (ред. штучний генералізований інтелект). Ми повинні поставити пріоритет на те, щоб підготуватися до них якнайкраще. Тільки тоді ми зможемо забезпечити користь AGI для всього людства».
Building smarter-than-human machines is an inherently dangerous endeavor.
— Jan Leike (@janleike) May 17, 2024
OpenAI is shouldering an enormous responsibility on behalf of all of humanity.
Команда Superalignment була створена в липні минулого року для розробки та впровадження протоколів безпеки для ШІ, що здатний міркувати як людина. Лейке підкреслив, що спочатку OpenAI планувала відкрито надавати свої моделі громадськості, але згодом компанія вирішила зробити їх закритими через побоювання щодо потенційних руйнівних наслідків. Він закликав до серйозного ставлення до наслідків загального штучного інтелекту (AGI) і наголосив на необхідності підготовки до них.
Відставка Лейке відбулася на тлі зміни керівництва в OpenAI. Джон Шульман, співзасновник компанії, візьме на себе обов’язки Лейке.
Лейке зазначив, що його команда втратила пріоритети та не отримувала необхідних ресурсів для виконання своєї роботи.
Ян Лейке
Екскерівник Superalignment"Я приєднався, тому що вважав, що OpenAI буде найкращим місцем у світі для проведення цього дослідження. Однак я досить довго не погоджувався з керівництвом OpenAI щодо основних пріоритетів компанії, поки ми нарешті не досягли переломної точки".