Загроза ШІ для людства не менша за ядерну війну: лідери галузі об'єдналися для вирішення проблеми
“Центр безпеки ШІ”, що об’єднав експертів з ШІ, журналістів, науковців, політиків та представників компаній, виразили свою стурбованість надшвидким і некерованим розвитком штучного інтелекту. Понад 500 людей залишили свій голос у короткій недвозначній заяві, яка з'явилась 30 травня
Раніше, 22 березня 2023 об'єднання Future of life опублікувало лист-звернення, у якому просить призупинити розвиток великих мовних моделей (LLM) ШІ на півроку. Його підписали Джеффрі Хінтон та Йошуа Бенжіо, “хрещені батьки” ШІ.
У новій заяві найвищий пріоритет ШІ-ризиків визнали не лише двоє з трьох «хрещених батьків ШІ» Джеффрі Хінтон та Йошуа Бенжіо, а й ще десятки топових імен:
Підписуйтеся на наші соцмережі
Гендиректори лідерів у розробці ШІ:
- Google DeepMind – Деміс Хасабіс,
- OpenAI – Сем Альтман,
- Anthropic – Даріо Амодеї та Данієла Амодеї (президент),
- Microsoft – Кевін Скот (СТО);
Головні наукові співробітники компаній-лідерів:
- Google DeepMind – Шейн Легг,
- OpenAI – Ілля Суцкевер,
- Anthropic – Роджер Гросс,
- Microsoft – Ерік Хорвітц;
Професори провідних університетів, серед яких:
- Стюарта Рассела та Доан Сонг (Берклі, Каліфорнія)
- Я-Цинь Чжан та Сяньюань Чжан (Університет Пекіна);
Керівники багатьох відомих дослідницьких центрів серед яких:
- Center for Responsible AI,
- Human Centered Technology,
- Center for AI та Fundamental Interactions,
- Center for AI Safety
3-й “хрещений батько ШІ” Ян Лекун відмовився підписувати заяву.