Відкритий лист: ексспівробітники OpenAI та DeepMind попереджають про небезпеку ШІ
Нинішні та колишніі співробітники компаній із штучним інтелектом, а саме OpenAI та Google DeepMind, 4 червня опублікувала відкритий лист, у якому наголошують на ризиках, пов’язаних із ШІ.
Про це повідомляє Reuters.
У листі 11 нинішніх та колишніх співробітників OpenAI та Google DeepMind стверджують, що фінансові мотиви компаній із штучним інтелектом перешкоджають ефективному нагляду.
Підписуйтеся на наші соцмережі
Автори листа також попереджають про ризики від нерегульованого ШІ, як-от:
- поширення дезінформації;
- втрата контролю над системами ШІ;
- поглиблення нерівності.
Вони стверджують, що це може призвести до вимирання людини. Як приклад наводять генератори зображень від OpenAI та Microsoft, які створюють фотографії з дезінформацією, що стосується голосування, незважаючи на політику проти такого контенту.
У листі також йдеться про те, що компанії із штучним інтелектом мають «слабкі зобов’язання» ділитися інформацією з урядами про можливості та обмеження своїх систем.
Відкритий лист — це черговий акт занепокоєння щодо безпеки генеративних технологій штучного інтелекту, які можуть швидко та дешево створювати текст, зображення та аудіо, подібно до людських.