И ты, бот: почему в утечке данных пользователей ChatGPT нет ничего удивительного
На минувшей неделе компания OpenAI сообщила об утечке персональных данных пользователей чат-бота ChatGPT. Из-за сбоя некоторые пользователи могли видеть чужие сообщения, а также имена, фамилии, электронную почту и платежную информацию платных подписчиков сервиса. Forbes опросил российских участников рынка и специалистов в области кибербезопасности об этой утечке, о том, что они думают об этом происшествии и как это может повлиять на их дальнейшую работу с использованием ChatGPT.
Бот так история
20 марта OpenAI была вынуждена временно отключить ChatGPT из-за «ошибки в работе библиотеки с открытым исходным кодом», которая позволила некоторым пользователям видеть сообщения других людей, общавшихся с чат-ботом. Инцидент стал публичным после того, как пользователи Reddit начали публиковать скриншоты из ChatGPT, на которых были видны заголовки и первые сообщения активных чатов других пользователей. По данным издания Engadget, сервис не работал около 10 часов.
Расследование инцидента показало, что скомпрометированной могла оказаться и личная информация некоторых платных подписчиков сервиса, говорится в сообщении OpenAI: «За несколько часов до того, как мы отключили ChatGPT в понедельник, некоторые пользователи могли видеть имя и фамилию других активных пользователей, их емейлы, платежные адреса, последние четыре цифры кредитных карт и сроки действия кредитных карт».
В компании заверили, что утечка коснулась только 1,2% подписчиков ChatGPT Plus, а уязвимость была устранена. «Мы считаем, что число пользователей, чьи данные действительно были раскрыты кому-то другому, крайне мало. <...> Мы уведомили затронутых пользователей о том, что их платежная информация могла быть раскрыта. Мы уверены в отсутствии рисков для данных пользователей», — заявили в OpenAI.
Гендиректор компании Сэм Олтмэн рассказал о «значительной проблеме в работе ChatGPT» в среду, 22 марта, на своей странице в Twitter (заблокирован в России). Он сообщил, что пользователи временно потеряют доступ к истории сообщений, добавив, что разработчики «чувствуют себя ужасно» из-за произошедшего.
Угроза для бизнеса
В России уже есть немало компаний, которые начали использовать ChatGPT. «Сервис помогает им создавать маркетинговые тексты, для чего в ChatGPT на сервер в Америку, где запущена нейросеть, передаются данные — персональные и коммерческие. Что с ними происходит дальше, знает только OpenAI», — рассуждает гендиректор Smart Engines Владимир Арлазаров. По его мнению, бизнесу следует учитывать, что ChatGPT и подобные ей нейросети создают новые угрозы.
Forbes опросил участников рынка, использующих ChatGPT в своей работе, что они думают об утечке и не боятся ли, что данные их клиентов могут быть скомпрометированы.
Глеб Обломский, директор по продуктам разработчика решений на базе разговорного ИИ Just AI:
«Сама по себе конкретно эта утечка — не утечка данных логов работы модели и тех запросов, которые в нее отправляли, а утечка подписчиков, тех, кто непосредственно регистрировался в Open AI для работы. Если верить официальной информации, логи работы и данные, которые передавались в процессе работы в СhatGPT, не утекали.
Но есть намного более серьезный риск — передача данных, в том числе персональных и конфиденциальных, в закрытую и сложную модель, размещенную в облаке. Как будут использоваться эти данные и насколько создатели модели контролируют их использование — неизвестно. Поэтому я бы не рекомендовал строить решения, которые предполагают передачу персональных данных или чувствительной информации в модели, размещенной в облаке, и использовать такие решения.
Для разработчиков решений с точки зрения создания рабочих и надежных решений я бы смотрел на open source LLM модели, которые могут быть развернуты в контуре заказчика и на которых можно построить намного более контролируемый процесс обработки данных.