Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Відкритий лист: ексспівробітники OpenAI та DeepMind попереджають про небезпеку ШІ

5 червня 2024 2 хвилин читання

Нинішні та колишніі співробітники компаній із штучним інтелектом, а саме OpenAI та Google DeepMind, 4 червня опублікувала відкритий лист, у якому наголошують на ризиках, пов’язаних із ШІ.

Про це повідомляє Reuters.

У листі 11 нинішніх та колишніх співробітників OpenAI та Google DeepMind стверджують, що фінансові мотиви компаній із штучним інтелектом перешкоджають ефективному нагляду.

Ми не вважаємо, що індивідуальних структур корпоративного управління достатньо, щоб змінити це.
відкритий лист

Підписуйтеся на наші соцмережі

Автори листа також попереджають про ризики від нерегульованого ШІ, як-от:

  • поширення дезінформації;
  • втрата контролю над системами ШІ;
  • поглиблення нерівності.

Вони стверджують, що це може призвести до вимирання людини. Як приклад наводять генератори зображень від OpenAI та Microsoft, які створюють фотографії з дезінформацією, що стосується голосування, незважаючи на політику проти такого контенту.

У листі також йдеться про те, що компанії із штучним інтелектом мають «слабкі зобов’язання» ділитися інформацією з урядами про можливості та обмеження своїх систем.

Відкритий лист — це черговий акт занепокоєння щодо безпеки генеративних технологій штучного інтелекту, які можуть швидко та дешево створювати текст, зображення та аудіо, подібно до людських.

0
Icon 0

Підписуйтеся на наші соцмережі

Інші матеріали

СЕС для бізнесу: як уникнути помилок на етапі проєктування?

Антон Березинський 25 квітня 2025 09:00

Лайфхаки для українців за кордоном: як легко повернути читання у своє життя

Валерій Старик 10 годин тому

​Рекомендація книги «Sapiens: Людина розумна. Коротка історія людства» Юваля Ноя Харарі

Валерій Старик 10 годин тому

Вкрадена Батьківщина: історія загубленого покоління

Валерій Старик 10 годин тому

Що таке індивідуальна податкова консультація та як її отримати ФОП?

Inna Sharova 25 квітня 2025 15:30