Stable Attribution допомагає знайти, звідки інші штучні інтелекти «крадуть» зображення
Айтівці з Chroma створили штучний інтелект Stable Attribution. Він допомагає митцям перевірити, чи не навчались ШІ на їхніх картинах.
Коли нейромережі, як-от Stable Diffusion, створюють зображення з текстових параметрів, стає важко знайти справжніх творців вихідних зображень, зазначає видання Golem. Саме тому розробники зі стартапу Chroma заснували портал Stable Attribution, який представляє однойменну модель машинного навчання.
Продукт допоможе знайти оригінальні зображення в інтернеті, які використовують такі ШІ, як Midjourney або Stable Diffusion.
Stable Attribution розшифровує окремі елементи зображення, згенерованого ШІ, і шукає схожі файли у навчальному наборі даних.
На думку авторів стартапу, це допоможе митцям перевіряти, чи не порушують інші нейромережі авторські права.
У світі вже довгий час триває дискусія на тему авторських прав під час навчання ШІ. Нещодавно компанія Getty Images подала позов у США проти Stability AI, творців Stable Diffusion. Компанія стокової фотографії звинувачує Stability AI у «нахабному порушенні інтелектуальної власності Getty Images у приголомшливих масштабах» і вимагає компенсацію у розмірі $1 млн.
Крім того, раніше SPEKA повідомляла, що спілка художників подала до суду проти компанії Stability AI та Midjourney, а також платформи DeviantArt. За словами митців, штучний інтелект, який генерує малюнки, порушує авторські права.