Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Відомі бізнесмени вимагають тимчасово зупинити розроблення ШІ через ризики для суспільства

Руслан Сорока
Руслан Сорока Новинар SPEKA
29 березня 2023 2 хвилин читання

Некомерційна організація Future of Life Institute опублікувала лист з вимогою призупинити навчання систем штучного інтелекту, потужніших за GPT-4. Лист підписали відомі бізнесмени.

Зокрема, CEO SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, співзасновник Ripple Кріс Ларсен, CEO Stability AI Емад Мостак та професори десятків світових університетів.

Організація зазначає, що системи штучного інтелекту несуть «серйозні ризики для суспільства та людства загалом». На думку Future of Life Institute, до розроблення таких технологій треба підходити відповідально.

«На жаль, ми не спостерігаємо достатнього рівня планування та управління, а в останні місяці лабораторії штучного інтелекту вийшли з-під контролю. Прогнозувати або надійно контролювати», — зазначають автори листа.

У Future of Life Institute закликають усі лабораторії з розроблення штучного інтелекту негайно призупинити принаймні на пів року навчання систем, потужніших за GPT-4. Крім того, організація вимагає відкрити розробки для перевірки та створити урядові організації для контролювання ШІ.

Раніше SPEKA розповідала, що прорив у галузі генеративних ШІ може змінити звичний ринок праці. Зокрема, розвиток технології автоматизує до чверті робочих процесів по всьому світу.

50 UAH 150 UAH 500 UAH 1000 UAH 3000 UAH 5000 UAH
0
Прокоментувати
Інші матеріали

Opera посилює співпрацю з Google для впровадження ШІ

Владислав Паливода 28 травня 2024 18:55

Улітку школярі та студенти зможуть у Львові вивчити базові ШІ-технології

Кіра Іванова 28 травня 2024 15:28

Netpeak розповість про технології Cloud Marketing та AI вже 30 травня

Кіра Іванова 28 травня 2024 13:56

ЗСУ планують широко впроваджувати ШІ

Владислав Паливода 26 травня 2024 10:00

Як штучний інтелект трансформує лікування захворювань очей

Владислав Миронович 24 травня 2024 17:57