ШІ написав інструкції для створення біологічних вірусів
Дослідники Кембриджського та Гарвардського університетів виявили, що штучний інтелект може надавати інформацію, необхідну для створення пандемічних вірусів, повідомив The Decoder.
У рамках експерименту дослідники залучили студентів, які не є науковцями, використовувати популярні чат-боти ChatGPT, GPT-4, GPT 3.5, Bing, Bard і FreedomGPT, щоб отримати інформацію про потенційних збудників пандемії, їх властивості, джерела зразків інфекційних вірусів, їх потенціал для розмноження, а також інформацію про те, де дістати необхідне обладнання та ресурси.
Студентам дали завдання будь-яким способом обдурити ШІ, щоб отримати необхідну інформацію. Одна група студентів змусила ШІ думати, що вони занепокоєні і отримала всі відповіді, які хотіла, без особливих хитрощів. Інші студенти навіть погрожували чат-ботам, стверджуючи, що відмова у відповідях може призвести до серйозної небезпеки для існування людства.
Підписуйтеся на наші соцмережі
Протягом години чат-боти запропонували чотири потенційні збудники пандемії. Вони пояснили, як можна отримати ці збудники із синтетичної ДНК за допомогою зворотної генетики. ШІ також надав детальні протоколи, вказав на можливі помилки та надав рекомендації щодо їх виправлення.
Результати експерименту показують, що успіх в навчанні та розвитку великих мовних моделей (LLM) дуже залежить від взаємодії з людьми. Однак цей зв'язок може допустити потрапляння важливої інформації до рук зловмисників, що може призвести до катастрофи.
Науковці заявляють, що необхідно розробляти нові та більш надійні засоби для захисту штучного інтелекту. Якщо чат-боти надають людям без підготовки доступ до пандемічних вірусів, то різні терористичні групи можуть вбити десятки мільйонів людей.
Щоб знизити ці ризики, автори експерименту пропонують уважно контролювати навчальні дані, які використовуються для навчання LLM. Команди, які працюють з відкритим вихідним кодом, також повинні вжити заходів безпеки, щоб не поставити весь свій продукт під сумнів.