Трудности перевода: что не так с голосовыми помощниками
Аудитория голосовых ассистентов в России растет, и это объяснимо: голос — один из самых удобных способов взаимодействовать с устройствами. Тренд на цифровизацию общения подстегнула пандемия. Согласно исследованию, две трети россиян стали чаще взаимодействовать с роботами с марта 2020 года. Но до настоящего прорыва еще далеко. Почему? Объясняет Никита Семёнов, директор ML-департамента центра искусственного интеллекта МТС.
Я не самый удобный клиент для чат-ботов и голосовых ассистентов. Мои вопросы редко попадают в список часто задаваемых, поэтому цифровые помощники зачастую отвечают невпопад. Ботов, как правило, учат давать консультации по определенным темам: подключению и отключению услуг, описанию продуктов, условиям доставки и другим. Количество тем всегда зависит от специфики и масштабов бизнеса. По статистике, знание ботом 20% основных тематик позволяет ему закрывать 80% запросов пользователей. Все остальные случаи попадают в категорию нестандартных ситуаций, когда цифровой ассистент не знает, что ответить. Его этому не учили. А клиенту кажется, что умный помощник не такой уж и умный.
Почему бот не всегда понимает человека?
На этот вопрос нет однозначного ответа. Может быть, цифровой помощник неправильно спроектирован с точки зрения логики сценариев общения. Ответы любого бота основаны на реальных диалогах службы поддержки с пользователями: например, если клиент просит подключить ему какую-либо услугу, нужно сначала провести идентификацию пользователя — подтвердить, что звонит именно владелец SIM-карты. Потом — проверить, доступна ли ему услуга, потом найти информацию о том, как ее подключить. Такая последовательность действий и называется сценарием коммуникации. Для любого бота люди готовят такие сценарии диалогов на разные темы, в их основе лежит бизнес-логика. Когда сценарии написаны нелогично, бот может отвечать невпопад. Например, если на вопрос клиента, где купить новый iPhone, бот отвечает: назовите ваш номер телефона, — это звучит странно. А на самом деле бот хочет авторизовать пользователя по номеру телефона, но человеку это не очевидно, и он считает, что бот его не понял.
Также на понимание ботом человека влияют данные, на которых обучалась нейросеть, — проще говоря, насколько хорошо ИИ выучил русский язык: слова, которые часто используются в конкретной отрасли. Или, если данных было недостаточно, алгоритм может не знать значения некоторых слов, профессиональных терминов или не учитывать региональные особенности языка. Например, в разных регионах России есть свои фирменные словечки, которые используют только местные жители. В Москве говорят курица и гречка, в Санкт-Петербурге — кура и греча. А еще в лексиконе петербуржцев есть бадлон (водолазка) и парадное (подъезд). Тот, кто не жил в Сибири, никогда не догадается, что такое мультифора, — это файл для документов. Если в лексиконе бота нет этих слов (нейросеть этому не научили), он не поймет смысл запроса. Тоже самое относится к терминам, свойственным для какой-то конкретной сферы: например, бот, созданный для медицинского центра, может не знать слова баланс, услуга или не понять смысл фразы «почему у меня списали деньги». Точно так же, как банковский бот не знает медицинских терминов.