OpenAI запустила инструмент для выявления изображений, созданных ее ИИ | Эксперт

→ Оригинал (без защиты от корпорастов) | Изображения из статьи: [1]

OpenAI запустила инструмент, который позволит выявлять изображения, сгенерированные ее нейросетью DALL-E 3,

пишет

The Wall Street Journal.

По словам представителей компании-разработчика, точность, с которой новый инструмент выявляет генеративный контент, достигает 98%. В случаях, когда изображение изменено — обрезано, подверглось изменению цвета, либо рассматривается его скриншот, точность определения снижается. В OpenAI ищут решение этих проблем, в том числе открыв инструмент для сторонних исследователей.

В OpenAI также заявили, что присоединяются к отраслевой группе, сформированной Google, Microsoft и Adobe, которая работает над стандартами и нормами, призванными обеспечить отслеживаемость сгенерированного контента.

Дискуссия об ущербе от генерируемой ИИ дезинформации, в том числе от преднамеренных ИИ-фейков в последнее время обострилась на фоне большого числа избирательных кампаний в 2024 г. во всем мире.

«Предвыборная озабоченность абсолютно точно стимулирует эту работу. Это самый важный контекст, о котором мы слышим от политиков», — приводит издание слова Дэвида Робинсона, который в OpenAI отвечает за политическое планирование.

Напомним, в феврале о планах начать маркировать изображения, сгенерированные ИИ других компаний, заявляла Meta (признана в России экстремистской организацией и запрещена).

В начале текущего года Всемирный экономический форум причислил ИИ-фейки к главным глобальным рискам современности, наряду с последствиями глобального потепления, а также политической поляризацией.