Новости раздела

Генеративный ИИ стал почти вдвое чаще давать ложную информацию

AI теперь повторяет недостоверные сведения в каждом третьем случае при новостных запросах

Анализ NewsGuard показал, что генеративные AI-модели стали чаще ошибаться: в августе 2025 года десять ведущих инструментов повторяли ложную информацию в 35% случаев при работе с новостными запросами. Год назад этот показатель был почти вдвое ниже — 18%. Несмотря на технический прогресс, AI по-прежнему не всегда способен отличить факты от вымысла.

Проблема связана с тем, что модели теперь стремятся отвечать на любой вопрос, даже если информации мало или она сомнительная. Раньше они могли отказаться от ответа, теперь же отказов почти нет — норма отказов упала с 31% до нуля. В результате AI стал черпать данные из интернета, где встречаются ненадежные сайты, дезинформация и контент, созданный для манипуляций.

Эксперты отмечают, что злоумышленники используют эту готовность моделей отвечать на новости. Через социальные сети, малоизвестные сайты и автоматически сгенерированные статьи ложная информация распространяется быстрее, чем когда-либо. Стремление сделать AI более отзывчивым и быстрым привело к тому, что модели непреднамеренно стали носителями пропаганды и недостоверных сведений.

Артем Гафаров

Подписывайтесь на телеграм-канал, группу «ВКонтакте» и страницу в «Одноклассниках» «Реального времени». Ежедневные видео на Rutube и «Дзене».

Технологии

Новости партнеров