Русский военный корабль, иди нах*й.
Пожертвувати на армію
×
Укр
Eng
Упс!
Не вдала спроба:(
Будь ласка, спробуйте ще раз.
preview
Юлія Даниленко
Юлія Даниленко головна редакторка SPEKA
8 липня 2022 11 хвилин читання

«Оруелл помилився в одному». Австралійський професор про «розумні» міни росії, китайську гру у Великого Брата та роботів-убивць

Тобі Волш — професор у галузі штучного інтелекту в Університеті Нового Південного Уельсу, Австралія, автор трьох книг про майбутнє ШІ та визнаний експерт у цій сфері. Волшу нещодавно заборонили в'їзд до росії через інтервʼю The Australian, в якому професор розповів, що російські заборонені ШІ-міни (які рф використовувала у Харківській області) не настільки розумні, як стверджує Кремль, і не здатні відрізнити військових від цивільних. Це робить їх максимально смертоносними.

Кремль на викриття своєї брехні традиційно образився. 

SPEKA поговорила з Тобі Волшем про російські міни, про дрони, що зможуть розпізнавати обличчя цілі, та про те, чи зможе людство контролювати використання ШІ-озброєнь. 

Дозвольте привітати, тепер ви в офіційному списку ворогів росії. 

Так, я потрапив до вельми престижного клубу. Загалом росія забанила 120 австралійців (у списку було 121 ім'я, але одну людину згадали двічі. — Ред.). Вочевидь, росії досі не начхати, що світ про неї думає, інакше навіщо смикатися? 

Вас внесли до списку ворогів через критику російських ШІ-мін POM3, що, як стверджує росія, можуть розрізняти цивільних і військових.

Ці заяви — дурня чистої води. POM3 неодноразово розбирали, тож відомо, що вони обладнані лише одним сейсмічним датчиком. Цей датчик фіксує вібрацію землі, і міна спрацьовує до того, як людина на неї наступить, достатньо увійти до зони ураження. А зона ураження у POM3 дуже велика. 

Заяви, що сейсмічний датчик може відрізнити цивільного від військового або «свого» солдата від ворога, це смішно. Росія просто намагається виправдати використання варварської міни, яка спричинила стільки страждань під час Другої світової і яку зрештою заборонили Оттавською конвенцією.  

Цю угоду підписали понад 160 країн, зокрема Україна, адже такі міни створені, щоб завдавати людям максимальної шкоди.

Росія, звісно, нічого не підписувала. 

Цей випадок лише верхівка айсберга ШІ-озброєнь та їх регулювання. На яких умовах можна застосовувати штучний інтелект у військових технологіях? 

Я виступав у ООН на цю тему, мабуть, разів шість. Human Rights Watch та ініціатива Stop Killer Robots неодноразово запрошували мене говорити про це, зокрема на CCW convention. Як і більшість моїх колег-дослідників штучного інтелекту, мене дуже хвилюють можливі зловживання ШІ-озброєннями.  

Штучний інтелект можна застосовувати і на благо. В Австралії ми створили робота-розмінувальника. Якщо він підірветься, ти просто купуєш іншого робота, адже ніхто не покалічиться і тим паче не загине. 

Але можливість дати машині право на вбивство, що вона буде здатна ідентифікувати, відстежувати і знищувати людей, приводить нас морально, юридично та технічно до страшних наслідків. 

Я борюся проти такого майбутнього останні шість років.

Якось так і «Термінатор» починався. 

Якщо порівнювати ці машини з Термінатором, можна подумати, що вони більш просунуті, ніж насправді. Зараз вони доволі прості, але ситуація стрімко змінюється. Дрони стають дедалі більш автономними. Та сама Туреччина стала серйозним гравцем на ринку зброї саме  завдяки розробленню відносно дешевих дронів, здатних виконувати дедалі більший спектр завдань. Правила ведення війни змінилися. 

Згадайте, як українці потопили «Москву». Вірогідно, що «Байрактар» відволік ППО корабля і дав ракеті можливість вдарити по крейсеру.

Дрони використовують для наведення артилерії, для збирання розвідданих. Вони змінюють баланс сил на полі бою. 

Крім розмінувальних роботів як іще можна використовувати ШІ у війні? 

Логістика — це не так цікаво, як знищення людей, але це один із найкращих прикладів. ШІ дозволяє доставляти людям припаси, спорядження та кулі, куди потрібно та коли потрібно. Майже 20 років тому під час операції «Буря в пустелі» саме використання комп'ютерів і ШІ дозволило вчасно спланувати та відправити солдатів, сотні літаків, десятки кораблів, всю амуніцію. 

Тож є хороші приклади, а є не дуже. З технічної точки зору постає багато питань: чи будуть ці безпілотники підпорядковуватися міжнародному гуманітарному праву, а також є юридичні питання і моральні. Багато хто вважає таку зброю огидною. 

Навіть секретар ООН закликав визнати таке озброєння аморальним, тому його треба заборонити. Ми вже заборонили інші аморальні види зброї. Ми визнали аморальними хімічну та біологічну зброю. Ми починаємо розуміти, що ядерна зброя — це теж огидно та аморально. Ми врегулювали її використання. 

Цілком очевидно, що ШІ-озброєння будуть наступними у цьому списку. 

Як гарантувати, що заборону використання ШІ-зброї будуть виконувати?

Гарне питання. Щоб на нього відповісти, треба поглянути, як ми гарантували дотримання інших заборон. 

Візьмемо, наприклад, хімічну зброю. Її створення — відносно недорогий та нескладний процес, не кажучи вже про те, що ми не можемо заборонити хімію як науку. Достатньо піти до відділу товарів для басейну у місцевому будівельному магазині і можна будувати дуже елементарну хімічну зброю.

Але оскільки вона заборонена, торговці зброєю не можуть її продавати, принаймні відкрито. Тому вона не є широкодоступною. Ця заборона не знищила хімічну зброю повністю, є випадок Сирії, де її використали проти цивільного населення. Але коли це відбувається, з'являються статті в NYT, резолюції ООН, запроваджують економічні та інші санкції проти тих, хто порушив правила.

Ми можемо сподіватися на такий самий результат із ШІ-зброєю. Саму технологію не заборониш, але ми можемо обмежити її використання.

Однак мене турбує, що зазвичай ми забороняємо надто пізно. Хімічну зброю заборонили лише після жахіть Іпрської битви. Боюся, що із ШІ-озброєннями буде так само, і ми заборонимо їх лише після того, як через них загинуть люди. 

Чи бували випадки, коли певні види зброї вдавалося заборонити превентивно? 

Такий випадок був — із сліпучим лазером. Дві компанії, китайська та американська, оголосили, що збираються розробити сліпучі лазери. Через заборону вони не змогли закінчити свої розробки і почати їх продавати. Тож ані в Сирії, ані в Україні ми не маємо випадків, коли людей осліпили лазерами.

У світі і так чимало жахливих способів ведення війни, нам не потрібно винаходити нові, особливо ті, що можуть осліпити людей.

Отже, штучний інтелект не має вирішувати питання життя і смерті. Які ще межі він не має перетинати? 

Потрібно враховувати, щодо яких питань реально досягти консенсусу в ООН. Деякі види зброї, якими керує ШІ, вже існують, як-от згадані вище міни. Але їхній «розум» вельми умовний: вони просто детонують, якщо людина підходить дуже близько. 

Більш складним алгоритмам можна дозволити розпізнавати профіль танка (якщо він здатний відрізнити танк від швидкої). Але алгоритми, що зможуть упізнавати певних людей (а деякі турецькі безпілотники нібито вже можуть використовувати розпізнавання облич), — це межа, яку переходити неприпустимо. 

Думаю, ми зможемо умовити ООН заборонити ШІ ідентифікувати, відстежувати та знищувати людські цілі. 

Сама ідея про те, що безпілотник може знайти і вбити конкретну людину просто посеред вулиці, лякає. 

Світ, у якому це можливо, був би дуже небезпечним місцем для життя. Ми вже бачили спробу вбити президента Венесуели за допомогою безпілотника, щоправда, про ШІ не йшлося, ми думаємо, ним керувала людина. Але це лише питання часу. 

Таку зброю можна було б застосовувати проти цілей найвищого рівня, скажімо, проти президента України чи росії. Хоча останньому варто більше хвилюватися через те, щоб його не отруїли свої ж. 

Потрібні технології вже існують: і розпізнавання облич, і автономні дрони. Додайте сюди ще чорний ринок, і йой. 

Обладнайте дрон програмою розпізнавання облич, яку використовує ваш смартфон, і він буде технічно здатний знайти на вулиці потрібну людину. А згодом можна буде так запрограмувати дрон, щоб він врізався у цю людину. 

Мій колега Стів Расселл зняв цікаве відео «Роботи-вбивці» саме про такий сценарій. Коли ми показали це відео у ООН, нас обізвали любителями мелодрами. А незабаром президента Мадуро атакував дрон. 

 

Використання технології розпізнавання облич несе багато небезпек. 

Ми бачимо, що деякі автократи, зокрема Китай та росія, активно шпигують за своїми громадянами саме завдяки цій технології. Світ Джорджа Орвелла стає дедалі ближчим.  

Ідея Орвелла про державу, що стежить за своїми громадянами 24/7, завжди здавалася мені перебільшеною, але останні події змушують змінити думку. 

У дечому Орвелл все-таки помилився. Немає Великого Брата, який би шпигував за людьми через телевізор, а є компʼютери, які здатні робити те саме, але у більших масштабах.  

Східна Німеччина — чудовий приклад того, що відбувається, коли доручаєте людям шпигувати за людьми: принаймні третина країни муситиме постійно шпигувати за іншими двома третинами. 

Масштабувати це дуже важко, і хто гарантує, що шпигуни завжди казатимуть вам правду? А от комп'ютери ідеально масштабуються.

Теоретично ви можете стежити за всім населенням країни у режимі реального часу. У Китаї цей процес уже пішов, там є алгоритм з іронічною назвою Skynet, здатний просканувати 1 млрд облич за хвилину.

Skynet уже стежить, принаймні у Китаї Skynet уже стежить, принаймні у Китаї

Кібервійна — ще одна сфера, де штучний інтелект змінює правила гри. 

І що далі, то серйозніше. Навіть більше, у кібервійні його будуть застосовувати не проти ворожої армії, а проти цивільної інфраструктури. Я завжди кажу, що ми дізнаємося про початок Третьої світової, коли вимкнуть інтернет. І не лише інтернет, ляжуть лікарні, електростанції, електромережі та банки. 

Україна постійно відбивається на кіберфронті від російських хакерів. На жаль, атаки ставатимуть дедалі складнішими та швидшими, оскільки за ними стоятимуть не люди, а ШІ-алгоритми.

І єдиним способом захиститися буде власний ШІ — більш швидкий, більш складний, більш зубатий. 

Як штучний інтелект змінить світ у найближчі роки — на краще чи на гірше? І як ми можемо не дати цим технологіям стати інструментом знищення?

Я раджу прочитати мою нову книгу "Машини, які погано поводяться", вона відповідає на ці питання. Її головна ідея, якою я також хочу поділитися з вашими читачами, у тому, що все залежить від нас. 

Технології — це не вирок, а вибір. Добро і зло працюють на однакових алгоритмах. Це як вогонь: з його допомогою ми можемо готувати їжу, а можемо і вбивати.

Тож рятуватиме штучний інтелект на полі бою чи вбиватиме — наш вибір. 

0
Прокоментувати
Інші матеріали

Розкладачка по-новому: у продажу з'явився перший у світі ноутбук зі складаним дисплееєм

Наталія Миронова 1 жовтня 2022 13:18

Meta представила нейромережу Make-A-Video, яка генерує відео за текстовим описом

Вадим Добровольський 30 вересня 2022 10:05

Економіка невизначеності. Огляд основних подій українського та світового бізнесу

Ivan Verstyuk 29 вересня 2022 17:10

Програмування та креативність. У які галузі залучатимуть штучний інтелект і чи варто його боятися

Наталія Миронова 28 вересня 2022 16:10

IT-спільнота України хоче придбати для ЗСУ дрон Punisher за $70 тис.

Вадим Добровольський 27 вересня 2022 17:22