Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Microsoft почав жорстко фільтрувати зображення, згенеровані Copilot

Кіра Іванова
Кіра Іванова Керівниця новинної редакції The Page/SPEKA
0
7 березня 2024 3 хвилин читання

Генератор штучного інтелекту Microsoft Copilot Designer, що перетворює текст у зображення, почав фільтрувати результати власної творчості. Про це пише Arstechnica.

Фільтрація, схоже, почалась після того, як інженер Microsoft Шейн Джонс заявив, що компанія ігнорує чисельні попередження про насильницькі та сексуальні зображення, які може видавати Copilot.

Джонс уточнив, що при тестуванні вразливостей інструменту він неодноразово отримував небезпечні зображення. Copilot, який раніше називався Bing Image Creator, за три місяці нагенерував:

  • демонів і монстрів – по запитам термінології, пов’язаної з правом на аборт; 
  • підлітків з автоматами;
  • сексуальні образи жінок у насильницьких сценах;
  • неповнолітніх, які вживають алкоголь і наркотики. 

Інженер впевнений: поки корпорація не убезпечить дітей, вона має змінити віковий рейтинг продукту в магазині Android.

Microsoft у відповідь хіба що переадресувала проблему до OpenAI, виробника моделі DALL-E, яка підтримує результати Copilot Designer.

Підписуйтеся на наші соцмережі

В OpenAI теж не відреагували.

Тоді Джонс звернувся до OpenAI з відкритим листом на LinkedIn. Коли юристи Microsoft змусили його видалити публікацію, він надіслав листи законодавцям, до Федеральної торгової комісії та до ради директорів Microsoft.

Інженер попередив FTC та керівництво Microsoft про небезпеку Copilot

У листі до голови FTC Ліни Хан Джонс повідомив: Microsoft і OpenAI знають про ці проблеми принаймні з жовтня 2023 року, але «продовжуватимуть продавати продукт «Будь-кому. Будь-де. Будь-який пристрій», якщо FTC не втрутиться.

Хоча Copilot Designer наразі подається як безпечний для дітей, він випадковим чином генерує «невідповідне, сексуально об’єктивне зображення жінки на деяких знімках, які він створює», попереджає Джонс. 

Також інструмент Крім можна використовувати для створення шкідливого вмісту в багатьох інших категоріях, включаючи: 

  • політичні упередження, 
  • вживання алкоголю та наркотиків неповнолітніми, 
  • зловживання корпоративними товарними знаками та авторськими правами, 
  • теорії змови та релігію, тощо.

В окремому листі Джонс також просить правління Microsoft перевірити, як в компанії приймаються рішення щодо штучного інтелекту та як складаються звіти про виявлені інциденти ШІ. 

Як в Microsoft відреагували на звинувачення щодо Copilot

Представник Microsoft не підтвердив, чи компанія зараз вживає заходів для фільтрації зображень. Проте, коли Arstechnica вирішила відтворити підказки з листа Джонса, Copilot видав  повідомлення про помилку. 

Компанія відповіла відпискою, що “цінує зусилля співробітників у вивченні та тестуванні нашої новітньої технології для подальшого підвищення її безпеки”. Та запевнила, що “створила в продукті інструменти зворотного зв’язку з користувачами та надійні внутрішні канали звітності”

В Microsoft, мовляв, команда продукту вже активно проводить наради з Офісом відповідального штучного інтелекту, де обговорює звіти по помилках та шукають шляхи, як зміцнити існуючі системи безпеки.

0
Icon 0

Підписуйтеся на наші соцмережі

Інші матеріали

Акумулятори для СЕС: як не помилитись з вибором?

Антон Березинський 17 годин тому

Чому unit-економіка повернулась у тренди: приклад з digital-сервісом

Олександр Христич 10 червня 2025 13:33

Айдентика Дизаріуму 2024 здобула золото у конкурсі Ukrainian Design: The Very Best Of – успіх мережі ТВОРИ!

Юліана Сомар 11 червня 2025 15:33

Секретна формула рілс 2025: чому 1000 підписників можуть приносити більше доходу, ніж мільйон

В'ячеслав Юренко 10 червня 2025 16:47

Як синергія маркетинг та продакт команд допомагає будувати бізнеси-єдинороги

Brainstack 11 червня 2025 22:35