Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Чому Microsoft звільнив команду, яка працювала над етичним ШІ

Олександр Тартачний
Олександр Тартачний журналіст
15 березня 2023 6 хвилин читання

Як пише видання Platformer, Microsoft звільнив команду, яка відповідала за етику під час створення інструментів з використанням штучного інтелекту (ШІ). SPEKA обрала головне зі статті. Пояснюємо, чому команду звільнили саме зараз та до яких ризиків це може призвести. 

Що робила команда з етики ШІ у Microsoft

У 2020 році у команді з етики організації штучного інтелекту в суспільстві було приблизно 30 співробітників, зокрема інженерів, дизайнерів і філософів. У жовтні команду скоротили до семи осіб.

У березні Microsoft звільнив усю команду. Загалом під час цієї хвилі скоротили 10 тис. співробітників компанії.

Команда з питань етики стежила за тим, щоб принципи відповідального ШІ реалізовувались у продуктах корпорації. У Microsoft ще є Офіс відповідального штучного інтелекту, який займається операційною та теоретичною діяльністю, наприклад, розробляє принципи компанії щодо ШІ.

Microsoft каже, що попри звільнення його загальні інвестиції у відповідальну роботу зростають.

«Люди дивляться на принципи, які декларує офіс відповідального штучного інтелекту і кажуть: „Я не знаю, як це застосовувати“ Наша робота полягала в тому, щоб показати принципи й створити правила у тих областях, де їх не було» — наголошує колишній співробітник команди.

Останніми роками команда створила гру Judgement Call. Вона допомогла розробникам уявити потенційну шкоду, яку може спричинити ШІ, й обговорити її під час розроблення продукту. Гра була частиною «набору інструментів для відповідальних інновацій», який створила команда.

Також команда з етики працювала над виявленням ризиків, пов'язаних із застосуванням технології компанії OpenAI (відома нейромережею GPT), яку Microsoft інтегрує у свої продукти.

Які причини звільнення 

Згідно із записом, який одержав Platformer, у жовтні Джон Монтгомері, корпоративний віцепрезидент із ШІ, сказав команді, що технічний директор Кевін Скотт та CEO Microsoft Сатья Наделла хочуть якнайшвидше передати найновіші моделі OpenAI (ймовірно мова про GPT-4) та їхні наступні розробки клієнтам. Тому більшість команди з етики збиралися перевести в інші відділи організації, але дехто був проти. 

Але все-таки більшість людей перевели в інші департаменти Microsoft. Приблизно через п'ять місяців, 6 березня, під час відеодзвінка їм повідомили, що команду ліквідують.

Як звільнення команди може вплинути на використання ШІ у Microsoft

Microsoft може використати ШІ, щоб отримати перевагу у сфері пошукового сервісу, програмного забезпечення, хмарних обчислень, де він конкурує з Google.

Усунення команди з етики відбулося саме тоді, коли компанія зосередилася на найбільшому виклику — передбачити, що станеться, коли Microsoft випустить інструменти на основі OpenAI для глобальної аудиторії.

Коли Microsoft перезапустила Bing зі штучним інтелектом, то повідомила інвесторам, що кожен 1% ринку пошукових сервісів, який вона може забрати у Google, принесе $2 млрд річного доходу.

Це пояснює, чому Microsoft інвестувала $11 млрд в OpenAI та інтегрує технологію стартапу усюди. Минулого тижня компанія заявила, що Bing має 100 млн активних користувачів щодня, причому третина з них прийшла після перезапуску пошукової системи з технологією OpenAI.

Водночас усі, хто бере участь у розробленні, погоджуються, що ця технологія створює ризики — відомі й такі, які поки що не можна передбачити. У Microsoft є ще три групи, які працюють над цією проблемою. 

Але скорочення позбавляє Microsoft команди, яка пов'язувала задекларовані принципи штучного інтелекту із процесом розроблення та дизайном продуктів із ШІ.

Як Microsoft раніше реагував на рекомендації команди з етики

У 2022 році команда написала пам'ятку, що детально описує ризики компанії, пов'язані з Bing Image Creator. Цей інструмент використовує систему DALL-E від OpenAI для створення зображень на основі текстових запитів. Його вже запустили у кількох країнах у жовтні минулого року.

Хоча технологія стала надзвичайно популярною, дослідники Microsoft передбачили, що вона також може загрожувати художникам, дозволяючи будь-кому легко копіювати їхній стиль.

«Під час тестування Bing Image Creator ми виявили, що за допомогою простого запиту — ім'я художника та засіб (живопис, друк, фотографія чи скульптура) — згенеровані зображення майже неможливо відрізнити від оригіналів. Ризик шкоди для художників, а також негативного піару для Microsoft є досить значним, щоб домагатися виправити програму, перш ніж це нашкодить бренду Microsoft», — писала команда.

Дослідники з етики також розробили стратегії, щоб пом'якшити можливі проблеми. Наприклад, заборонити користувачам Bing Image Creator використовувати імена живих художників як запити та створити маркетплейс для продажу робіт художників, що з'являтиметься, якщо хтось вводитиме їхнє ім'я.

Співробітники вважають, що жодна з цих стратегій не була реалізована (тестову версію Bing Image Creator все-таки запустили в кількох країнах). Microsoft каже, що інструмент змінили перед запуском, щоб усунути проблеми.

Але юридичні питання щодо генеративного ШІ залишаються невирішеними. У лютому 2023 року Getty Images подала позов проти Stability AI, який створив сервіс Stable Diffusion. Getty звинуватив стартап у неправомірному використанні понад 12 млн зображень із фотобанку для навчання своєї системи.

Ці звинувачення підтвердили занепокоєння, висловлене спеціалістами зі штучного інтелекту Microsoft. «Цілком імовірно, що небагато митців погодилися використовувати свої роботи як навчальні дані і більшість, мабуть, досі не знає, як генеративні технології дозволяють створювати варіації їхніх робіт за лічені секунди», — писали співробітники минулого року.

50 UAH 150 UAH 500 UAH 1000 UAH 3000 UAH 5000 UAH
0
Прокоментувати
Інші матеріали

Copilot, ChatGPT та DuckDuckGo зламалися через збій у Bing

Олеся Дерзська 4 години тому

Lenovo збільшила доходи у четвертому кварталі на 9%, до $13,8 млрд

Вікторія Рудзінська 7 годин тому

OpenAI підписує угоду з News Corp для доступу до новинного контенту

Вікторія Рудзінська 13 годин тому

EasyJet впроваджує штучний інтелект для управління польотами

Вікторія Рудзінська 14 годин тому

Федеральна комісія зі зв’язку вимагає розкривати використання ШІ у політичній рекламі

Вікторія Рудзінська 14 годин тому