Новая модель ИИ искажает изображения, чтобы обойти авторские права

Искусственный интеллект, преобразующий текст в изображение, преимущественно обучались на настоящих изображениях. Чтобы избежать появившуюся проблему нарушения авторских прав, была разработана новая модель, которая обучается только на «поврежденных» изображениях.

Большой проблемой моделей ИИ, которые преобразуют текст в изображение, является их способность копировать оригинальные работы, использованные для обучения. Из-за этого возникает юридическая проблема нарушения авторских прав.

В мае на компанию Google Alphabet был подан коллективный иск со стороны группы художников, утверждающих, что их работы использовались для обучения генератора изображений на основе искусственного интеллекта Imagen. Множество других компаний, таких как, например, DeviantArt, столкнулись с аналогичными исками.

Пытаясь найти выход из сложившейся ситуации, исследователи из Техасского университета (Юта) в Остине и Калифорнийского университета в Беркли разработали систему генеративного ИИ на основе диффузии. Эта модель обучается только на тех изображениях, которые заблаговременно были повреждены или изменены до неузнаваемости. Такой подход снижает вероятность того, что ИИ запомнит и воспроизведет оригинальную работу.

HnNJwyQn8_4.jpg Источник: UT at Austin

На изображении выше показана разница в выводе изображения при использовании повреждения. Исследователи сначала обучали свою модель  на высококачественных изображениях знаменитостей. После этого ИИ генерировал изображения, почти идентичные оригиналам (левая панель). Затем исследователи переобучили модель, используя сильно поврежденные фотографии, где до 90% отдельных пикселей были замаскированы случайным образом. Хотя модель создавала реалистичные человеческие лица, результаты были менее похожими (правая панель).

Профессор информатики в UT в Остине и соавтор исследования Адам Кливанс отметил, что эта структура может оказаться полезной для научных и медицинских приложений. Однако как и в случае с существующими генераторами текста в изображение, результаты не всегда идеальны.  Однако тот факт, что модель Ambient Diffusion может заставить художников чувствовать себя в безопасности, потому что их работы не будут в точности воспроизведены посредством случайной генерации.

Исследователи сделали свой код и модель Ambient Diffusion открытыми, чтобы стимулировать дальнейшие исследования. Он доступен на GitHub. Об этом сообщает New Atlas.

Если ты увидел что-то интересное, выиграл грант или стал очевидцем события, расскажи нам об этом:
Portal072@gmail.com
8 (3452) 68-34-55 /
VK / Telegram

Оцените материал: