Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Тренди ШІ: які етичні загрози несе використання штучного інтелекту

Юрій Гайдай
Юрій Гайдай Старший економіст CES
21 травня 2023 7 хвилин читання

Питання етики ШІ дискутуються вже багато років. У 2021 році ЄС та Китай випустили свої рекомендації (guidelines), які мають забезпечувати етичний розвиток та запровадження систем штучного інтелекту. Лавиноподібне запровадження великих мовних моделей ще більше привернуло увагу до питань етики ШІ.  

Тренди ШІ: які етичні загрози несе використання штучного інтелекту Тренди ШІ: які етичні загрози несе використання штучного інтелекту

Де ШІ використовувати етично, а де не дуже

Не можна сказати, що є цілі галузі, в яких використовувати штучний інтелект неетично. Є фундаментальні чинники етичних ризиків застосування штучного інтелекту, які засновані на загрозах основним правам людини. Тож є галузі, де, залежно від застосування, ШІ може спричиняти істотніші ризики і потребуватиме обмежень глибини застосування та додаткового контролю.

Можна виділити кілька рівнів глибини застосування ШІ. На поверхні не надто важливі рішення, як-от запис до лікаря. Це ті рішення, які ми вже зараз готові делегувати штучному інтелекту.

Складніші рішення можуть ухвалюватися з попереднім контролем людини. Наприклад, заява на отримання громадянства: штучний інтелект може агрегувати та аналізувати анкетні дані заявника і готувати попередній висновок. Але остаточне рішення буде ухвалювати державний службовець. 

Наступний рівень — коли штучний інтелект отримує автономію і потребує тільки постконтролю від людини. Тут глибина застосування штучного інтелекту і залежить від галузі. Це може бути той самий міграційний контроль, правосуддя (спочатку адміністративне, наприклад, штрафи за паркування), рішення про прийняття людини на роботу тощо. Тут є високі ризики неетичного застосування штучного інтелекту. 

Підписуйтеся на наші соцмережі

Залежно від розвитку технологій і суспільства та надійності контролю, ми можемо переглядати допустимі рівні глибини застосування ШІ для різних завдань і галузей.

Окремі застосування ШІ, як-от дистанційна біометрична ідентифікація — технології ідентифікації за обличчям, ходою, поставою людини тощо, будуть високоризиковими, бо можуть порушувати права людини або загрожувати її безпеці та здоров'ю. 

Які ризики несе використання великих мовних моделей

Основні ризики, які постають з появою таких інструментів, як ChatGPT, можна поділити на групи. 

Перша група — це ризики для особистих даних і приватності. Мовні моделі, по-перше, можуть робити дуже багато узагальнень, поєднань інформації і висновків з отриманих даних, які можуть бути недоступними для людини, що аналізує інформацію. Наприклад, з наборів даних про поведінку людини у соцмережах та інтернеті загалом, тих же запитів до чатботів великих мовних моделей, можна робити глибокі висновки щодо її психічного стану, звичок, розкладу дня тощо. Поєднання великих масивів даних та їх аналіз ШІ створюють додаткові загрози приватності, які не очевидні для користувачів, бо окремо ці дані не створюють загроз. 

І якщо раніше це було питанням середнього горизонту майбутнього, то якість досьє, які вже зараз можна отримати за допомогою доступних чатботів про доволі непублічних людей, є турбуюче глибокою у порівнянні з результатами традиційного пошуку. 

Наступна група — це ризики сегрегації. Мовні моделі, за рахунок того, як саме і на основі яких даних навчаються, можуть надавати перевагу окремим соціальним групам. Вони будуть краще працювати з цими групами, а іншим приділяти менше уваги і маргіналізувати їх, вилучати певні меншини (етнічні або інші) та відтворювати людські упередження щодо цих меншин. 

Третя група ризиків — це неточність і неправдивість інформації. Це, наприклад, некоректна медична чи правова допомога. Мовні моделі не дуже добре відрізняють факти від вигадок, але при цьому створюють враження, що вони є достовірними співрозмовниками. Це може створювати багато загроз. 

Звідси випливають і безпекові ризики: мовні моделі дуже зручно використовувати для масової дезінформації, причому персоналізованої дезінформації «з людським обличчям», заточеної під конкретні групи людей, наприклад, шляхом коментування у соцмережах та у медіа. 

Це також може бути персоналізоване шахрайство, коли людина отримує повідомлення з урахуванням методів соціальної інженерії, які спрямовані саме на неї, які використовують індивідуальні слабкості та упередження — таке шахрайство буде краще працювати. Звісно, є також ризики, які стосуються порушення прав інтелектуальної власності та плагіату.

Також можна використовувати мовні моделі для допомоги у розробленні тих же комп'ютерних вірусів або зброї, коли штучним інтелектом буде заміщуватися певна експертиза, відсутня у людей, що діють зі злими намірами.  

Ще одна група ризиків — загроза правам людини через використання штучного інтелекту державними органами. Це насамперед здатність опрацьовувати величезні масиви даних, роблячи узагальнення і висновки щодо окремих людей. Це можливості розпізнавання, а отже, відстежування людей як фізично, так і деанонімізація їхньої онлайн-поведінки. 

Це дає державним органам потужні інструменти втручання у приватність. І, як я уже згадував вище, огульне застосування ШІ може призвести до ухвалення неправомірних чи хибних рішень стосовно громадян — застосування санкцій, відмови у доступі до послуг, кредиту, працевлаштування тощо. І, що найгірше, мотивацію таких рішень неможливо буде пояснити, а отже, й оскаржити. Тож запровадження інструментів ШІ у високоризикових застосунках і галузях має бути обережним і поступовим.

І наостанок нагадаю відому провокативну думку Ніка Бострома, шведського філософа, дослідника, професора Оксфорду, засновника Інституту майбутнього людства та Інституту етики і нових технологій: ШІ може не знищити людство за допомогою якоїсь зброї, а просто захопити контроль над ним через маніпулювання, бездоганно знаючи, як працює мозок людини і маючи весь арсенал методів, які можна використовувати для того, щоб формувати суспільну думку в потрібному напрямі.

Він, звісно, говорив про широкий штучний інтелект, що здатен сам себе усвідомлювати, але не можна списувати з рахунку й ризиків, що наступні покоління великих мовних моделей спробують використати з аналогічною метою у тоталітарних суспільствах, принаймні в окремих.

Підписуйтеся на наші соцмережі

Якщо ви хочете поділитися з читачами SPEKA власним досвідом, розповісти свою історію чи опублікувати колонку на важливу для вас тему, долучайтеся. Відтепер ви можете зареєструватися на сайті SPEKA і самостійно опублікувати свій пост.
50 UAH 150 UAH 500 UAH 1000 UAH 3000 UAH 5000 UAH
0
Прокоментувати
Інші матеріали

Енергонезалежні будинки на колесах, AI-спальня та роботаксі. Чим здивувала CES 2025

Марія Ортинська 14 хвилин тому

Як ми створили курс Fullstack: інвестиція в майбутнє з оплатою після працевлаштування

Євген Мощенський 39 хвилин тому

Чому ШІ споживає стільки електроенергії та що це означає для світу

Олександр Тартачний 10 січня 2025 19:00

Китайський Alibaba запустив власного ШІ-чатбота Qwen Chat

Кіра Іванова 10 січня 2025 15:44

Тренди зелених технологій на 2025 рік

Федір Компанієць 10 січня 2025 09:10