Кому довірити управління штучним інтелектом: результати опитування
ШІ-інструменти ChatGPT та Midjourney порушили низку правових та регуляторних питань, а також проблем конфіденційності в інтернеті. Зловмисники вже використовують ШІ для скоєння кримінальних злочинів та поширення дезінформації, що є неприпустимим для державних урядів.
SPEKA розповідає, кому, за даними Statista, довіряють управляти ШІ.
- Опитування KPMG Австралії та університету Квінсленда, в якому взяли участь 17 000 осіб у 17 країнах, показало, що лише третина респондентів має високу або повну довіру до урядів у питаннях регулювання ШІ.
-
Учасники опитування скептично ставляться до технологічних компаній та існуючих регуляторних органів як керівних у сфері ШІ.
- Дослідницькі інститути, університети та збройні сили розглядаються як найбільш спроможні для управління системами ШІ.
Підписуйтеся на наші соцмережі
Як намагаються контролювати ШІ
Європейська комісія у квітні 2021 року розробила законопроєкт AI Act для обмеження впливу ШІ та захисту прав людини. Проєкт розподіляє застосунки ШІ на категорії ризику. Наприклад:
- В ЄС заборонять ШІ, спрямований на маніпулювання громадською думкою або наживу на дітях чи вразливих групах.
- Застосунки з високим рівнем ризику (наприклад, програмне забезпечення для обробки біометричних даних) обмежать суворими правовими рамками.
Однак, експерти критикують проєкт за нечіткість визначень та очевидні лазівки.
-
1
Захист від небезпечних та неефективних систем
-
2
Алгоритмічний захист від дискримінації
-
3
Конфіденційність даних
-
4
Примітки та пояснення: розробники ШІ-систем повинні надавати основну інформацію про те, як функціонує система, хто відповідальний за неї тощо
-
5
Користувач повинен мати можливість відмовитися від автоматизованих систем й винайняти людину. Розробник має забезпечити доступність та контроль у сферах з чутливими даними: освіта, кримінальне правосуддя тощо.
Через те, що у США поки немає федеральних законів або обов'язкових правил щодо регулювання ШІ, Білль не є обов'язковим до виконання.