Детектор дипфейков
В России появится сервис для маркировки ИИ-контента и его выявления. Но для того чтобы сервисы были эффективны, должен быть создан единый отраслевой стандарт генерации ИИ-контента

«Яндекс» совместно с Институтом системного программирования Российской академии наук (ИСП РАН) разрабатывает систему маркировки для фото-, видео- и аудиоконтента, сгенерированного искусственным интеллектом (ИИ), в частности нейросетью «Яндекса» для генерации картинок «Шедеврум». Об этом «Ведомостям» рассказали три источника, знакомых с планами по разработке проекта, и подтвердил представитель «Яндекса». Сроки готовности разработки в компании не уточнили.
Один из собеседников пояснил, что речь идет не о каком-то видимом «водяном знаке», который можно было бы закрасить или обрезать, а о микроскопическом артефакт‑маркере, который был бы заметен анализатору, но не человеческому глазу. Для того чтобы пользователи могли проверить, было ли изображение сгенерировано с помощью ИИ, «Яндекс» разрабатывает сервис по распознаванию маркировки, уточнил источник «Ведомостей», знакомый с ходом разработки. Технология может быть стандартизирована и выложена в опенсорс для всех участников рынка, добавил он.
«Мы планируем внедрять такие инструменты в наши сервисы», – заявил представитель «Яндекса». Чтобы сервис мог распознавать изображения или видеоконтент, созданный с помощью ИИ-моделей других компаний, должен быть отраслевой стандарт генерации ИИ-контента, объяснил представитель «Яндекса». «Ведомости» направили запрос в ИСП РАН.
Представитель «Сбера» отказался от комментариев, планирует ли компания внедрять сервис «Яндекса» для маркировки контента или аналогичный ему в сервис генерации картинок Kandinsky.
Совместная разработка ИСП РАН и «Яндекса» основана на внедрении невидимых цифровых водяных знаков (digital watermarking) в ИИ-контент, знает директор департамента расследований T.Hunter Игорь Бедеров. Технология предполагает два направления исследований: во-первых, это стеганографические метки, когда в пиксели изображений, аудиодорожки или кадры видео внедряются алгоритмические паттерны, незаметные для человека, но детектируемые специальными инструментами, поясняет эксперт. «Злоумышленники могут пытаться удалить водяные знаки через преобразования контента (сжатие, кадрирование, фильтры), однако современные методы (например, устойчивые к искажениям квазихаотические паттерны) усложняют это», – добавляет он.