Феномен текста: человек vs ИИ
При правильно написанном промпте рассказ, сгенерированный нейросетью последнего поколения, не отличить от человеческого. Но прежде чем доверить сочинение боту, разберемся в нюансах
Все больше людей используют тексты, написанные искусственным интеллектом. Открытой статистики на этот счет не существует (данные засекречены разработчиками и операторами связи), но известно, что, например, в 2024 году мобильный трафик и аудитория сервисов ИИ в России выросли в пять раз. Прошлогоднее исследование компании «Яндекс» показало: к нейросетям для генерации текста обращается треть пользователей Рунета, причем доля аудитории от 45 до 54 лет и старше 55 лет растет.
Есть и яркий пример «генерационного бума»: в апреле этого года газета «Краснодарские известия» выпустила номер, полностью написанный ИИ. Перед началом работы нейросеть обучали на десятках журналистских материалов, чтобы адаптировать к стилю издания. В итоге в номере появились такие материалы, как статьи «Сгенерированный судья будущего» и «Они заменят вас на работе».
Давайте разберемся в этих предвестниках «креативной революции»: действительно ли искусственный интеллект способен писать тексты или даже мыслить как человек?
Банальность или странный креатив
Для начала стоит успокоиться: в отличие от людей ИИ не понимает слова, которые пишет, а просто отыскивает закономерности в миллионах текстов. В основе нейросети лежит языковая модель — алгоритм, обученный на большом количестве текстов. Опираясь на заданную фразу — контекст, — модель предсказывает наиболее логичную последовательность слов. Ключевая задача, которую при этом решают разработчики, — сделать результат максимально приближенным к написанному человеком.
Технически это называется авторегрессионной генерацией. Модель получает цепочку слов на вход и вычисляет, какое следующее слово наиболее релевантно. Например, фразу «Левитан был» можно продолжить так: «человеком», «художником», «подданным Российской империи». ИИ оценивает каждый вариант и выбирает лучший. Одни алгоритмы настроены так, что лучшим признается фраза с наиболее часто встречающимся продолжением для известного контекста (в этом случае возможности постоянной генерации новых тестов ограниченны, так как нейросеть движется по одной колее), другие ориентированы на случайный выбор наиболее популярных вариантов (тексты получаются более разнообразными).
После добавления каждого нового слова действие повторяется — и так до тех пор, пока не будет достигнут лимит длины или не будет сгенерирован специальный символ завершения. Иногда нейросеть выдает текст из 20 слов, иногда из 120 — все зависит от того, в какой последовательности расположатся слова-токены.

На созданный ИИ текст могут влиять параметры, которые задает пользователь, например уровень креативности. Чем он выше, тем чаще модель будет выбирать редкие токены, делая написанное менее предсказуемым, порой очень странным. В случае с Левитаном нейросеть при высоком уровне креативности выбрала бы не «художник», а «подданный».
Еще один параметр — повторяемость. Модели склонны повторять стилистические шаблоны: для имитации стиля определенного писателя применяются инструкции в промпте.
«Процесс генерации основан на статистических закономерностях: ИИ не понимает содержание, а угадывает, какое слово или фраза лучше всего подходят в данном контексте, опираясь на свои тренировочные данные, — рассказывает руководитель научной группы “Технологии персонализации” института AIRI Евгений Фролов. — За последние пять лет развитие ИИ в области написания текстов прошло колоссальный путь. Возьмем для примера GPT. В 2018 году модель GPT-2, обученная на 1,5 миллиарда параметров, могла генерировать связные, но часто бессмысленные или ограниченные тексты. GPT-3, появившийся в 2020 году, был обучен на 175 миллиардах — в 117 раз больше, чем у предыдущей модели. Его тексты стали более естественными, точными и разнообразными. Для GPT-4, по оценкам экспертов, использовалось от 500 миллиардов до двух триллионов параметров — теперь нейросеть пишет эссе, стихи и даже диалоги, которые порой сложно отличить от созданных человеком. Такой прорыв стал возможен по нескольким причинам: увеличение объема данных для обучения, совершенствование алгоритмов, например введение методов дообучения с подкреплением, рост вычислительных мощностей. Благодаря последним были внедрены и механизмы, позволяющие моделям учитывать обратную связь от пользователей для улучшения стиля и точности ответов. Так что сегодня ИИ не просто генерирует текст — он адаптируется к конкретным задачам».
Проверяй и проверяй
При этом эксперты признают, что все искусственно созданные тексты имеют общую уязвимость: их «гениальный автор» не понимает того, о чем пишет. Сочинения нейросети собраны как конструктор «Лего», а смысл им придает читающий. Именно поэтому ИИ иногда ошибается, или, как говорят специалисты, выдает галлюцинации.
«Например, вместо ожидаемого текста на русском модель может что-то написать на китайском. Частный пример галлюцинаций — ошибки в фактических данных, некорректные адреса, числовые идентификаторы, гиперссылки. Наиболее мощные модели допускают не так много ошибок, как нам кажется, — в основном они связаны с различными точными сведениями из узких областей. Да, откровенные галлюцинации иногда помогают идентифицировать ботов, но это не универсальный метод. Передовые модели пишут очень убедительные тексты, ошибки в них не очевидны и потому с большим трудом распознаются человеком», — поясняет сотрудник международной лаборатории интеллектуальных систем и структурного анализа факультета компьютерных наук НИУ ВШЭ