Google, Meta, Microsoft посилюють заходи проти сексуального насильства над дітьми
Про це повідомляє The Verge.
Компанії підписали новий набір принципів, спрямованих на обмеження поширення CSAM. Техногіганти хочуть переконатися, що навчальні набори даних ШІ не міститимуть даних із високим ризиком включення CSAM, та обіцяють видалити зображення, що стосуються насильства над дітьми. Компанії зобов’язуються проводити «стрес-тестування» моделей штучного інтелекту, щоб переконатися, що вони не створюють зображень із сексуальним насильством, і випускати моделі, лише якщо їх перевірили, що вони безпечні для дітей.
Підписуйтеся на наші соцмережі
Ініціативу підтримали також Anthropic, Civitai, Metaphysic, Mistral AI та Stability AI.
Generative AI викликав зростання занепокоєння щодо підробок зображень, зокрема щодо розповсюдження підроблених фотографій CSAM в інтернеті.
У грудні дослідники зі Стенфордського університету опублікували звіт, у якому йшлося про те, що популярний набір даних, який використовують для навчання деяких моделей ШІ, містить посилання на матеріали сексуального насильства над дітьми. Також з'ясувалося, що Національний центр зниклих безвісти та експлуатованих дітей (NCMEC) швидко переповнюється зображеннями CSAM, створеними саме штучним інтелектом.