Ян Лейке звільняється з OpenAI, заявляючи про пріоритетність продуктів над безпекою

17 травня 2024 2 хвилин читання

Ян Лейке, який керував командою Superalignment, спеціалізованою на вирішенні довгострокових ризиків штучного інтелекту, оголосив про свою відставку, висловлюючи глибоке занепокоєння щодо пріоритетів OpenAI.

Про це повідомляє The Verge.

Це сталося після того, як видання Wired повідомило, що OpenAI розпустила команду Superalignment, яка займалася безпекою ШІ.

Ян Лейке
Екскерівник Superalignment

«Нам давно пора стати неймовірно серйозними щодо наслідків AGI (ред. штучний генералізований інтелект). Ми повинні поставити пріоритет на те, щоб підготуватися до них якнайкраще. Тільки тоді ми зможемо забезпечити користь AGI для всього людства».

Нам шкода, але цей блок не підтримується в AMP версії, перейдіть за посиланням,щоб побачити повну версію.

Команда Superalignment була створена в липні минулого року для розробки та впровадження протоколів безпеки для ШІ, що здатний міркувати як людина. Лейке підкреслив, що спочатку OpenAI планувала відкрито надавати свої моделі громадськості, але згодом компанія вирішила зробити їх закритими через побоювання щодо потенційних руйнівних наслідків. Він закликав до серйозного ставлення до наслідків загального штучного інтелекту (AGI) і наголосив на необхідності підготовки до них.

Відставка Лейке відбулася на тлі зміни керівництва в OpenAI. Джон Шульман, співзасновник компанії, візьме на себе обов’язки Лейке. 

Лейке зазначив, що його команда втратила пріоритети та не отримувала необхідних ресурсів для виконання своєї роботи.

Ян Лейке
Екскерівник Superalignment

"Я приєднався, тому що вважав, що OpenAI буде найкращим місцем у світі для проведення цього дослідження. Однак я досить довго не погоджувався з керівництвом OpenAI щодо основних пріоритетів компанії, поки ми нарешті не досягли переломної точки".