Почему нейросети стали ошибаться и отвечать неправильно? Объясняет эксперт
Нейросети склонны ошибаться, как и все мы. Но не будем их сильно осуждать — они ведь только учатся. Александр Кобозев объяснил, почему ИИ-боты выдают так много неточностей.

Рост количества фейковых ответов чат-ботов во многом связан с изменением принципов их работы и усилением внешнего давления. Об этом рассказал директор направления Data Fusion Лиги Цифровой Экономики Александр Кобозев в беседе с «ТехИнсайдером».
Александр Кобозев
директор направления Data Fusion Лиги Цифровой Экономики
За последний год крупные языковые модели перешли от осторожной тактики «лучше промолчать» к стремлению отвечать на любой запрос.
Еще в 2024 году ИИ часто отказывался от комментариев на острые темы, но уже летом 2025-го, по данным аудита NewsGuard, боты отвечали на все тестовые запросы — и в 35% случаев ошибались. Для сравнения: год назад доля ошибок составляла 18%.
«Проблема обострилась после внедрения автоматического веб-поиска без должной фильтрации ресурсов. Даже если в ответе есть ссылки на источники, это не всегда означает правдивость информации: нейросети могут брать информацию на ненадежных сайтах, не проверяя факты. Помимо этого, некоторые СМИ специально создают материалы, рассчитанные на алгоритмы поиска, чтобы именно их использовали в качестве источника информации», — отметил специалист.
