Чат-боты Google и Microsoft начали ссылаться друг на друга, плодя фейки

→ Оригинал (без защиты от корпорастов) | Изображения из статьи: [1]

Если сейчас спросить чат-бот Microsoft Bing, был ли закрыт чат-бот Google Bard, он ответит «нет», хотя ещё пару часов назад ответ был противоположным. Microsoft утверждал о закрытии конкурента, ссылаясь в качестве доказательства на новостную статью о твите, в котором рассказывается о том, как пользователь спросил Bard, когда он будет закрыт, и Bard ответил, что уже закрыт, ссылаясь на комментарий с Hacker News, в котором кто-то пошутил, что это произошло, а кто-то другой использовал ChatGPT для написания фейковой новости об этом событии.

Источник изображения: Pixabay

То, что чат-бот Microsoft Bing теперь исправил свою ошибку можно интерпретировать по-разному: или как демонстрацию возможности быстрой корректировки генеративного ИИ, или что системы на базе ИИ настолько бесконечно изменчивы, что становится привычным получать сообщения об их очередных ошибках.

Описанная ситуация — ранний признак масштабных мистификаций и дезинформаций, исходящих от искусственного интеллекта, который не может адекватно оценивать надёжные источники новостей, неправильно воспринимает истории о себе и ошибочно информирует пользователя о собственных возможностях. В данном случае всё началось из-за одного шутливого комментария на Hacker News. Трудно представить последствия в случае продуманной и преднамеренной попытки вывести чат-боты из строя.

Это смехотворная ситуация, но с потенциально серьёзными последствиями. Учитывая неспособность языковых моделей ИИ надёжно отличать факты от вымысла, их широкое применение грозит оставить за собой шлейф дезинформации и недоверия, информационные провокации, которые невозможно полностью подтвердить или авторитетно опровергнуть. Всё потому, что Microsoft, Google и OpenAI решили, что доля рынка важнее безопасности.

Эти компании могут размещать сколько угодно заявлений об отказе от ответственности в своих чат-ботах, утверждая, что это просто «эксперимент», а не полноценная поисковая система, но уже описаны множественные случаи распространения дезинформации чат-ботами на базе ИИ. А теперь они ещё и начали ссылаться на ошибки друг друга…

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.