Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Що таке Black box в алгоритмах та як зрозуміти, які рішення ухвалює штучний інтелект

Олександр Тартачний
Олександр Тартачний журналіст
9 грудня 2024 9 хвилин читання

Тією чи іншою мірою штучний інтелект оточує нас усюди. Він працює, коли ми розшифровуємо мовлення у текст, сканує наші резюме, пропонує, що переглянути на Netflix чи послухати нову музику у Spotify. А ще пише замість нас електронні листи, створює презентації та може автоматизувати до 30% робочого часу через швидше виконання рутинних завдань. 

Попри це внутрішню роботу систем штучного інтелекту часто складно зрозуміти. Девід Мартенс, професор відділу відповідального штучного інтелекту Антверпенського університету, та Софі Готалс, докторант Антверпенського університету, розповідають, як «зрозумілий ШІ» може допомогти нам дізнатись, як працюють алгоритми. SPEKA публікує переклад статті вчених для The Conversation із власними доповненнями. 

Що таке Black Box у штучному інтелекті та як зрозуміти рішення алгоритмів Що таке Black Box у штучному інтелекті та як зрозуміти рішення алгоритмів

ШІ та машинне навчання: у чому різниця

З нинішнім рухом до інтеграції штучного інтелекту в організації та широкого висвітлення в медіа його потенціалу легко заплутатися, особливо з такою кількістю термінів, що ширяють навколо для позначення систем штучного інтелекту, включаючи машинне навчання, глибоке навчання та великі мовні моделі та ще кілька назв.

Простими словами, ШІ означає розробку комп’ютерних систем, які виконують завдання, що вимагають людського інтелекту, наприклад вирішення проблем, прийняття рішень і розуміння мови . Він охоплює різні підполя, такі як робототехніка, комп’ютерне бачення та розуміння природної мови.

Однією із важливих підмножин штучного інтелекту є машинне навчання, яке дозволяє комп’ютерам навчатися на основі даних замість того, щоб їх явно програмувати для виконання кожного завдання. По суті, машина дивиться на шаблони в даних і використовує ці шаблони, щоб робити прогнози або приймати рішення. Наприклад, подумайте про спам-фільтр електронної пошти. Система навчається на тисячах прикладів як спаму, так і не спаму. З часом він вивчає такі шаблони, як конкретні слова, фрази чи відомості про відправника, які часто зустрічаються в спамі.

Глибоке навчання, додаткова підмножина машинного навчання, використовує складні нейронні мережі з кількома рівнями для вивчення ще складніших шаблонів. Доведено, що глибоке навчання має виняткову цінність під час роботи із зображеннями чи текстовими даними та є основною технологією, що лежить в основі різних інструментів розпізнавання зображень або великих мовних моделей, таких як ChatGPT.

<br>

Регулювання штучного інтелекту

Деякі випадки застосування ШІ, як от рекомендація фільмів на Netflix, начебто не містить жодних ризиків. Натомість інші процеси, такі як скринінг резюме, оцінка кредитоспроможності чи медичний діагноз, можуть мати великий вплив на чиєсь життя, тому вкрай важливо, щоб вони відбувалися у спосіб, який узгоджується з нашими етичними цілями.

Підписуйтеся на наші соцмережі

Визнаючи це, Європейський Союз запропонував Закон про ШІ, який його парламент схвалив у березні. Ця нормативна база класифікує застосування штучного інтелекту за чотирма різними рівнями ризику: неприйнятний, високий, обмежений і мінімальний, залежно від їх потенційного впливу на суспільство та окремих людей. Кожен рівень підпорядковується різному ступеню правил і вимог.

Системи штучного інтелекту з неприйнятним ризиком, такі як системи, що використовуються для соціального скорингу або виявлення потенційної злочинної діяльності, заборонені в ЄС, оскільки вони становлять серйозну загрозу правам людини.

Системи штучного інтелекту високого ризику дозволені, але вони підлягають суворому регулюванню, оскільки вони можуть завдати значної шкоди в разі їх невдачі або неправильного використання, зокрема в таких сферах як правоохоронні органи, наймання працівників чи освіта.

Системи штучного інтелекту з обмеженим ризиком, такі як чат-боти або системи розпізнавання емоцій, несуть певний ризик маніпуляцій або обману. Тут важливо, щоб люди були поінформовані про свою взаємодію з системою ШІ.

Системи ШІ з мінімальним ризиком включають усі інші системи штучного інтелекту, такі як фільтри спаму, які можна розгортати без додаткових обмежень.

Чорна скринька алгоритмів

Багато споживачів більше не бажають миритися з тим, що компанії звинувачують у своїх рішеннях алгоритми чорної скриньки. Візьмемо інцидент з Apple Card, коли чоловікові було надано значно вищий кредитний ліміт, ніж його дружині, попри їхні спільні активи, а остання мала кращий кредитний рейтинг та інші фактори на її користь. Це викликало обурення громадськості, оскільки Apple не змогла пояснити причину рішення свого алгоритму. Цей приклад підкреслює зростальну потребу в зрозумілості рішень, керованих штучним інтелектом.

Для систем штучного інтелекту з високим рівнем ризику у законі ЄС про ШІ є стаття 86, що встановлює право вимагати пояснення рішень, прийнятих системами штучного інтелекту, що є значним кроком до забезпечення прозорості алгоритмів.

Однак, окрім законодавчої відповідності, прозорі системи штучного інтелекту пропонують ряд інших переваг як для власників моделей, так і для тих, на кого впливають рішення системи.

Прозорий ШІ

По-перше, прозорість створює довіру: коли користувачі розуміють, як працює система штучного інтелекту, вони, швидше за все, залучатимуться до неї. По-друге, це може запобігти упередженим результатам, дозволяючи регулювальним органам перевірити, чи модель несправедливо надає перевагу певним групам. Нарешті, прозорість дозволяє постійно вдосконалювати системи штучного інтелекту шляхом виявлення помилок або неочікуваних шаблонів.

Але як ми можемо досягти прозорості в ШІ?

Загалом існує два основні підходи до того, щоб зробити моделі ШІ більш прозорими.

По-перше, для прогнозування можна використовувати прості моделі, такі як дерева рішень або лінійні моделі. Ці моделі легко зрозуміти, оскільки процес прийняття рішень у них простий. Наприклад, модель лінійної регресії може бути використана для прогнозування цін на житло на основі таких характеристик, як кількість спалень, квадратні метри та розташування. Простота полягає в тому, що кожній функції присвоєно вагу, а прогноз є просто сумою цих характеристик. Це означає, що можна чітко побачити, як кожна функція впливає на прогноз кінцевої ціни на будинок.

Однак, оскільки дані стають складнішими, ці прості моделі можуть перестати працювати достатньо добре. Ось чому розробники часто звертаються до більш просунутих моделей, таких як глибокі нейронні мережі, які можуть обробляти більші та складніші дані, але їх важко інтерпретувати. Наприклад, глибока нейронна мережа з мільйонами параметрів може досягти дуже високої продуктивності, але те, як вона приймає свої рішення, незрозумілий людям, оскільки її процес прийняття рішень занадто великий і складний. Це і є, так звана, «чорна скринька». 

Transparent AI 

Іншим варіантом є використання цих потужних моделей чорної скриньки разом із окремим алгоритмом пояснення, щоб прояснити модель або її рішення . Цей підхід, відомий як «пояснюваний штучний інтелект» (Transparent AI), дозволяє нам отримати переваги від потужності складних моделей, забезпечуючи певний рівень прозорості.

Одним із добре відомих методів є протиправне пояснення. Контрфактичне пояснення пояснює рішення моделі шляхом ідентифікації мінімальних змін у вхідних характеристиках, які призвели б до іншого рішення.

Наприклад, якщо система штучного інтелекту відмовляє комусь кредиті, протиправне пояснення може проінформувати заявника: «Якби ваш дохід був на $5000 вищим, вашу позику було б схвалено». Це робить рішення більш зрозумілим, хоча використовувана модель машинного навчання може бути дуже складною. Однак є один мінус: ці пояснення є наближеними, а це означає, що може бути кілька способів пояснити те саме рішення.

Оскільки моделі штучного інтелекту стають дедалі складнішими, їхній потенціал трансформаційного впливу зростає, але також зростає їхня здатність робити помилки. Щоб ШІ був справді ефективним і надійним, користувачі повинні розуміти, як ці моделі приймають рішення.

Прозорість — це не лише питання зміцнення довіри, але також має вирішальне значення для виявлення помилок і забезпечення справедливості. Наприклад, в безпілотних автомобілях штучний інтелект може допомогти інженерам зрозуміти, чому автомобіль неправильно зрозумів знак зупинки або не розпізнав пішохода. Подібним чином під час прийому на роботу розуміння того, як система штучного інтелекту ранжирує кандидатів на роботу, може допомогти роботодавцям уникнути упередженого відбору та сприяти різноманітності.

Зосереджуючись на прозорих і етичних системах штучного інтелекту, ми можемо гарантувати, що технологія служить як людям, так і суспільству позитивним і справедливим способом.

Підписуйтеся на наші соцмережі

50 UAH 150 UAH 500 UAH 1000 UAH 3000 UAH 5000 UAH
0
Прокоментувати
Інші матеріали

Розвиток штучного інтелекту в Україні у 2025 році: прогнози лідерів галузі

Анна Сергієнко 45 хвилин тому

OpenAI запустила нову функцію для налаштування ChatGPT

Вікторія Рудзінська 17 січня 2025 22:32

Google та Associated Press підписали угоду на показ новин у чатботі Gemini AI: що відомо

Владислав Паливода 17 січня 2025 14:00

Чи може штучний інтелект замінити політиків? Три варіанти розвитку подій

Олександр Тартачний 17 січня 2025 09:13

Google починає співпрацю з Associated Press для інтеграції новин у реальному часі в Gemini

Вікторія Рудзінська 16 січня 2025 07:09