Тренди ШІ: які етичні загрози несе використання штучного інтелекту
![Тренди ШІ: які етичні загрози несе використання штучного інтелекту](https://images.weserv.nl/?w=715&we=1&n=-1&url=https%3A%2F%2Fnewspeka.fra1.digitaloceanspaces.com%2Fprod%2Fmedia%2F27332%2F1679043859549.jpg%3Fv%3D1679043860)
Де ШІ використовувати етично, а де не дуже
Не можна сказати, що є цілі галузі, в яких використовувати штучний інтелект неетично. Є фундаментальні чинники етичних ризиків застосування штучного інтелекту, які засновані на загрозах основним правам людини. Тож є галузі, де, залежно від застосування, ШІ може спричиняти істотніші ризики і потребуватиме обмежень глибини застосування та додаткового контролю.
Можна виділити кілька рівнів глибини застосування ШІ. На поверхні не надто важливі рішення, як-от запис до лікаря. Це ті рішення, які ми вже зараз готові делегувати штучному інтелекту.
Складніші рішення можуть ухвалюватися з попереднім контролем людини. Наприклад, заява на отримання громадянства: штучний інтелект може агрегувати та аналізувати анкетні дані заявника і готувати попередній висновок. Але остаточне рішення буде ухвалювати державний службовець.
Наступний рівень — коли штучний інтелект отримує автономію і потребує тільки постконтролю від людини. Тут глибина застосування штучного інтелекту і залежить від галузі. Це може бути той самий міграційний контроль, правосуддя (спочатку адміністративне, наприклад, штрафи за паркування), рішення про прийняття людини на роботу тощо. Тут є високі ризики неетичного застосування штучного інтелекту.
Підписуйтеся на наші соцмережі
Окремі застосування ШІ, як-от дистанційна біометрична ідентифікація — технології ідентифікації за обличчям, ходою, поставою людини тощо, будуть високоризиковими, бо можуть порушувати права людини або загрожувати її безпеці та здоров'ю.
Які ризики несе використання великих мовних моделей
Основні ризики, які постають з появою таких інструментів, як ChatGPT, можна поділити на групи.
Перша група — це ризики для особистих даних і приватності. Мовні моделі, по-перше, можуть робити дуже багато узагальнень, поєднань інформації і висновків з отриманих даних, які можуть бути недоступними для людини, що аналізує інформацію. Наприклад, з наборів даних про поведінку людини у соцмережах та інтернеті загалом, тих же запитів до чатботів великих мовних моделей, можна робити глибокі висновки щодо її психічного стану, звичок, розкладу дня тощо. Поєднання великих масивів даних та їх аналіз ШІ створюють додаткові загрози приватності, які не очевидні для користувачів, бо окремо ці дані не створюють загроз.
Наступна група — це ризики сегрегації. Мовні моделі, за рахунок того, як саме і на основі яких даних навчаються, можуть надавати перевагу окремим соціальним групам. Вони будуть краще працювати з цими групами, а іншим приділяти менше уваги і маргіналізувати їх, вилучати певні меншини (етнічні або інші) та відтворювати людські упередження щодо цих меншин.
Третя група ризиків — це неточність і неправдивість інформації. Це, наприклад, некоректна медична чи правова допомога. Мовні моделі не дуже добре відрізняють факти від вигадок, але при цьому створюють враження, що вони є достовірними співрозмовниками. Це може створювати багато загроз.
Це також може бути персоналізоване шахрайство, коли людина отримує повідомлення з урахуванням методів соціальної інженерії, які спрямовані саме на неї, які використовують індивідуальні слабкості та упередження — таке шахрайство буде краще працювати. Звісно, є також ризики, які стосуються порушення прав інтелектуальної власності та плагіату.
Також можна використовувати мовні моделі для допомоги у розробленні тих же комп'ютерних вірусів або зброї, коли штучним інтелектом буде заміщуватися певна експертиза, відсутня у людей, що діють зі злими намірами.
Це дає державним органам потужні інструменти втручання у приватність. І, як я уже згадував вище, огульне застосування ШІ може призвести до ухвалення неправомірних чи хибних рішень стосовно громадян — застосування санкцій, відмови у доступі до послуг, кредиту, працевлаштування тощо. І, що найгірше, мотивацію таких рішень неможливо буде пояснити, а отже, й оскаржити. Тож запровадження інструментів ШІ у високоризикових застосунках і галузях має бути обережним і поступовим.
І наостанок нагадаю відому провокативну думку Ніка Бострома, шведського філософа, дослідника, професора Оксфорду, засновника Інституту майбутнього людства та Інституту етики і нових технологій: ШІ може не знищити людство за допомогою якоїсь зброї, а просто захопити контроль над ним через маніпулювання, бездоганно знаючи, як працює мозок людини і маючи весь арсенал методів, які можна використовувати для того, щоб формувати суспільну думку в потрібному напрямі.
Він, звісно, говорив про широкий штучний інтелект, що здатен сам себе усвідомлювати, але не можна списувати з рахунку й ризиків, що наступні покоління великих мовних моделей спробують використати з аналогічною метою у тоталітарних суспільствах, принаймні в окремих.