Генеративный ИИ стал почти вдвое чаще давать ложную информацию
AI теперь повторяет недостоверные сведения в каждом третьем случае при новостных запросах
Анализ NewsGuard показал, что генеративные AI-модели стали чаще ошибаться: в августе 2025 года десять ведущих инструментов повторяли ложную информацию в 35% случаев при работе с новостными запросами. Год назад этот показатель был почти вдвое ниже — 18%. Несмотря на технический прогресс, AI по-прежнему не всегда способен отличить факты от вымысла.
Проблема связана с тем, что модели теперь стремятся отвечать на любой вопрос, даже если информации мало или она сомнительная. Раньше они могли отказаться от ответа, теперь же отказов почти нет — норма отказов упала с 31% до нуля. В результате AI стал черпать данные из интернета, где встречаются ненадежные сайты, дезинформация и контент, созданный для манипуляций.
Эксперты отмечают, что злоумышленники используют эту готовность моделей отвечать на новости. Через социальные сети, малоизвестные сайты и автоматически сгенерированные статьи ложная информация распространяется быстрее, чем когда-либо. Стремление сделать AI более отзывчивым и быстрым привело к тому, что модели непреднамеренно стали носителями пропаганды и недостоверных сведений.
