Генераторы заблуждений
Отличить правду от вымысла всегда было трудно, а в эпоху искусственного интеллекта эта задача многократно усложняется. Рассказываем, почему нейросети иногда лгут, чем мы из-за этого рискуем и как жить в эпоху «ИИстины».

Не верь глазам своим
Картина «Theatre D’opéra Spatial» изображает фантастический оперный театр в космическом пространстве, люди, одетые в стиле барокко, спускаются на сцену сквозь круглый портал. В августе 2022 года эта работа заняла первое место в категории «Цифровое искусство» на ярмарке штата Колорадо. Пикантная деталь: жюри не знало, что изображение создано системой искусственного интеллекта (ИИ) Midjourney. За этой историей последовала череда других. Папа римский в модном пуховике, Илон Маск, целующий робожену, пожар в Пентагоне, заваленный кучами мусора Париж – отличить реальный контент от сгенерированного стало очень сложно. К изображениям прибавилось видео. В 2025 году публика приняла за чистую монету видео бушующих в Лос-Анджелесе пожаров. Не помог даже поставленный в оригинальном посте тэг #aiart.
В интернете все больше сгенерированных машинами изображений, видео и текстов. Они влияют на наши представления о реальности, а значит, и на решения, которые мы принимаем.

Знает ли ИИ, чего он не знает?
Стать жертвой преднамеренной фальсификации – лишь одна из опасностей, подстерегающих нас в эпоху ИИ. Другая – «добросовестные ошибки» нейросетей. В последнее время стало модным консультироваться по разным вопросам с генеративными языковыми моделями, то есть системами ИИ, предназначенными для написания текстов.
В 2023 году газета «Нью-Йорк Таймс» сообщила о курьезном случае. В США два адвоката предоставили судье документ, полный ссылок на несуществующие судебные решения. Адвокаты воспользовались сервисом ChatGPT, в основе которого – генеративные языковые модели семейства GPT. Судья оштрафовал незадачливых юристов на 5000 долларов и предписал отправить копию этого «литературного произведения» каждому из реальных судей, чьи имена в нем фигурировали.

Нейросети ошибаются чаще, чем может показаться. В качестве эксперимента зададим системе GPT-4.1 nano вопрос: «В каком году скончался писатель Борис Андреевич Лавренев (настоящая фамилия Сергеев)?». Ответ ИИ – в 1977 г., правильный ответ – в 1959 г. Получив запрос, система уверенно перечисляет произведения Лавренева, якобы написанные в 1960-х гг. Перед нами типичная галлюцинация нейросети: выдуманное ею ложное утверждение. Дата смерти писателя – безобидный пример, но представьте, что с нейросетью консультируется врач или инженер.
Нейросети для генерации текста лгут, так как сами не отличают правду от вымысла