OpenAI научилась определять созданные через DALL-E 3 изображения

→ Оригинал (без защиты от корпорастов) | Изображения из статьи: [1] [2] [3]

8 мая 2024

Новый инструмент поможет в борьбе с фейками. А также в ИИ-контенте появятся водяные знаки.

Источник: Unsplash

Компания OpenAI выпустит инструмент, который позволит определить, создано ли изображение через генератор DALL-E 3. Об этом разработчики рассказали в своем блоге.

В компании отметили, что занимаются созданием инструментов, которые определяют происхождение контента. По словам разработчиков, это необходимо из-за растущих опасений касательно использования нейросетей для фейков, в том числе для влияния на выборы по всему миру.

OpenAI уже тестирует инструмент, который распознает созданные DALL-E 3 изображения. Он подходит даже для картинок, которые обрезали или у которых изменили насыщенность или другие параметры. Точность сервиса составляет примерно 98%. При этом с сервисами для генерации других изображений он справляет намного хуже. Например, в случае с Midjourney определяется около 5-10% картинок.

Источник: OpenAI

Помимо этого, OpenAI будет маркировать сгенерированный контент специальными водяными знаками. Например, в аудио появится сигнал, который будет очень сложно удалить.

Ранее нейросеть SORA сгенерировала музыкальный клип. Его фишкой стал «бесконечный зум».