Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБКHi-Tech

Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Автор: Максим Момот

Мы считаем, что интернет создан ради нас, но на самом деле основные его пользователи — уже давно боты. Так, согласно исследованию компании Imperva, занимающейся вопросами кибербезопасности, еще в 2016 году число посещений сайтов программами, созданными для различных целей, превысило количество их просмотров людьми. В чем похожи и те и другие, так это в своей неразборчивости к распространяемой информации.

Люди то и дело перепощивают в соцсетях сообщения, которые считают правдой, потому что они их пугают или, наоборот, радуют. Примерно то же самое, но в целях пропаганды, делают боты — например для выведения недостоверных публикаций в топ новостей. Положить этому конец обещают разработчики платформ, способных в полуавтоматическом режиме отслеживать лживый и оскорбительный контент. Впрочем, деятельность этих платформ сама по себе поднимает моральную проблему — где разница между правдой и пропагандой?

В поисках истины

Трудно поверить, но одни из главных потенциальных клиентов платформ автоматического фактчекинга — рекламщики. «Исследования показывают, что 80% пользователей избегают покупок у брендов, присутствующих рядом с радикальным или опасным контентом», — отметил в комментарии РБК основатель и CEO нидерландского стартапа Adverif.ai Ор Леви. Компания разработала алгоритм FakeRank, позволяющий выявлять фальшивые новости. А это, в свою очередь, дает брендам возможность не размещать свою рекламу рядом с такими сообщениями в соцсетях.

Пример фальшивой новости, рядом с которой серьезному рекламодателю вряд ли захочется увидеть свои объявления, — сообщение о том, что покончившего с собой в американской тюрьме (согласно официальной версии) финансиста Джеффри Эпштейна видели живым после его смерти. FakeRank поставит такой новости высокий индекс недостоверности и не допустит размещения рядом с ней рекламных сообщений, утверждают в компании.

По словам Ора Леви, наиболее эффективный способ определения фальшивых новостей — это имитация процесса человеческих умозаключений. «Невозможно вручную проверять каждый фрагмент контента соцсетей, — говорит он. — Однако некоторые задачи, которые выполняют журналисты и люди, профессионально занимающиеся проверкой фактов, могут быть автоматизированы, что поможет увеличить масштабы этой работы».

Если ложные сообщения, которые намеренно распространяют боты, легко отловить обычным поиском (ведь тексты дословно повторяют друг друга), то фейковые новости, которые разносят люди, могут циркулировать в отличных друг от друга вариациях. Поэтому алгоритм FakeRank использует обработку естественного языка. Вердикт о ложности информации он выносит, сравнивая тексты в соцсетях и форумах с утверждениями из достоверных источников, например ведущих СМИ. Adverif.ai продает доступ к FakeRank рекламодателям, рекламным сетям и СМИ.

По схожей модели работает и лондонская компания Factmata. Как рассказал в комментарии РБК ее основатель и CEO Друв Галати, в основе технологии, которую они используют, лежит классификация текстов по различным категориям риска — оскорбления, угрозы, расистские заявления и так далее. Обнаружив в какой-либо публикации фрагменты, содержащие опасный контент, алгоритм отслеживает их перепосты и цитирование другими пользователями. Чтобы улучшить работу алгоритмов, компания сотрудничает с журналистами, исследователями и общественными организациями.

Впрочем, Factmata отлавливает не только оскорбления и угрозы: стартап, сумевший привлечь $3 млн инвестиций, утверждает, что ему удалось создать систему оценки онлайн-контента на достоверность и нормы морали. Ложь для Factmata — понятие многомерное: в частности, система оценивает в процентах вероятность того, имеет ли текст политическую ангажированность, не призывает ли к насилию и не является ли заголовок материала кликбейтным (то есть намеренно не соответствующим содержанию текста и нацеленным лишь на то, чтобы на него кликнули).

Как считает Галати, компании, которые борются с недостоверными сообщениями, могут помочь, помимо брендов, и модераторам контента. Еще одна цель — предотвратить монетизацию таких недостоверных новостей, которая может происходить, например, через продажу рекламы на желтых сайтах, зарабатывающих популярность тиражированием уток.

Выявлять фальшивые новости, которые распространяются в рамках заказных информационных кампаний, можно не только изучая их содержание. Другой способ — отслеживать скоординированное поведение ботов, продвигающих эти новости. Такую технологию разработала компания Logically, привлекшая $12,7 млн инвестиций (ее офисы расположены в Великобритании и Индии, также открывается представительство в США). Как рассказали РБК в пресс-службе компании, для определения первоисточника недостоверных сообщений Logically использует интеллектуальную поисковую систему. Она может отследить, кто именно первым запустил в сеть недостоверную информацию — в том числе вирусные видео. А вот проверку содержимого публикаций Logically решила не отдавать полностью на откуп алгоритмам — этим занимаются в том числе эксперты-люди.

Детектор лжи

На смену фальшивым текстовым новостям идут более изощренные подделки, основанные на технологии дипфейк, позволяющей накладывать одно видео на другое при помощи ИИ. Нетрудно представить, к каким проблемам может привести, например, подделка видеовыступлений глав государств. «Превращение дипфейков и синтетических медиа («роботизированных СМИ», в которых контент создается или модифицируется алгоритмами. — РБК) в оружие уже вошло в число главных угроз будущего с точки зрения кибербезопасности», — отметил в комментарии РБК Кристоф Сабо, CEO и сооснователь датской компании Defudger, занимающейся выявлением дипфейков. По его словам, по мере распространения таких технологий люди будут все сильнее теряться в лабиринте подлинных и сфальсифицированных материалов (подробнее о дипфейках — в другой статье в данном номере).

Если недостоверность видео и изображений может быть доказана чисто технически и у результатов такой проверки вряд ли может быть политический уклон (если разоблачаться будут фейки разных политических групп, а не исключительно одной), то с оценкой текстов все сложнее. «Сама идея, что есть нечто, называемое фактчекингом, и что это заменит журналистику и редактуру, и политику, и аргументацию, и субъективные решения, всегда было химерой, но это так привлекательно для индустрии технологий», — отмечал колумнист The New York Times Бен Смит. То есть оценка текстам в конечном счете все равно будет даваться людьми, что опять может вызвать подозрения в необъективности.

Как рассказал в комментарии РБК сооснователь российского сервиса Fakecheck Дмитрий Казьмин, в его компании проверки достоверности публикаций проводятся именно вручную. «ИИ сейчас может эффективно находить хейтспич, токсичные слова и картинки», — рассказывает он. По мнению Казьмина, ИИ может сильно упростить проверку, взяв на себя механическую работу, но не способен полностью заменить человека, поскольку не учитывает все нюансы текста. К тому же автоматическая проверка текстов пока совершенствуется в основном для англоязычных источников. «Все продукты с анализом текста и робожурналистикой на английском сильно опережают аналогичные продукты на русском языке, — говорит Дмитрий Казьмин. — Поэтому автоматизация русскоязычных сервисов отстает».

В качестве примера анализа, который проводит Fakecheck, можно привести опубликованный на сайте компании разбор поста в «Яндекс.Дзен», в котором со ссылкой на выдуманное сообщение «РИА Новости» утверждалось, что со 2 ноября 2020 года в Москве по решению мэра Сергея Собянина вводится пропускной режим. Чтобы опровергнуть эту информацию, Fakecheck хватило трех фактов: «Агентство «РИА Новости» не выпускало такой новости. О том, что со 2 ноября в Москве начнут возвращать пропускной режим, не говорил и мэр города. Более того, Собянин и его подчиненные неоднократно в течение октября говорили, что хотели бы в этот раз избежать жестких ограничений».

Избирательный фактчекинг

Приведенный пример с проверкой поста на «Яндекс.Дзен» — это простой случай, разоблачение утверждения, которое легко опровергнуть со ссылкой на общедоступные и достоверные первоисточники. Однако когда фактчекингу пытаются подвергнуть мнения и оценки, правдивость или ложность которых совсем не очевидна, фактчекинг сам способен превратиться в инструмент политической борьбы и манипуляций общественным мнением.

Например, стоило президенту США Дональду Трампу написать в Twitter о том, что рассылка избирательных бюллетеней по почте приведет к фальсификациям на выборах, соцсеть тут же разместила под его сообщениями ссылки на публикации, в которых утверждается обратное. И это при том, что в прессе не раз появлялись сообщения о том, что эти бюллетени находят в мусорных баках и отследить их перемещения довольно сложно. Однако фактчекеров из Twitter эти данные почему-то не заинтересовали. Прореспубликанские СМИ, кроме того, обратили внимание на то, что фактчекингом высказываний руководства Демократической партии Twitter не занимается.

Другой пример избирательного фактчекинга — многочисленные сообщения о том, что предвыборный штаб Дональда Трампа во время президентской кампании 2016 года якобы находился в сговоре с российскими спецслужбами и властями. Хотя расследование спецпрокурора Роберта Мюллера не нашло доказательств подобных обвинений, сообщения об этих связях продолжают появляться в СМИ. Они почему-то не считаются теорией заговора и не удаляются из Сети и результатов поиска.

Поэтому неудивительно, что даже в США, согласно опросу Gallup, СМИ доверяют только 40% граждан. На самом деле, если присмотреться к этому опросу, ситуация намного хуже. Общий показатель 40% получается благодаря высокому уровню доверия к СМИ среди сторонников Демпартии (73%), в то время как среди независимых избирателей (не поддерживающих постоянно ту или иную партию) этот показатель составляет 36%, а среди республиканцев — всего 10%. То есть СМИ не доверяют 90% сторонников одной из двух крупнейших партий страны.

Смогут ли компании, занимающиеся борьбой с фальшивыми новостями, вернуть доверие к информационному пространству? По данным Logically, когда компания отправляет результаты своей проверки заказчикам, те, в свою очередь, делятся этими результатами примерно со 100 людьми, многие из которых видели исходную недостоверную информацию. Поэтому компания убеждена, что восстановить доверие к информации благодаря фактчекингу вполне возможно. Но что сделать, чтобы сама «проверка фактов» не превратилась в инструмент политической борьбы? По словам Дмитрия Казьмина, чтобы вызывать доверие, фактчекинговым сервисам нужно соблюдать правила качественной, объективной журналистики. «Верить на слово нам никто не должен, смотрите по делам», — советует он. И тут искусственному интеллекту снова не обойтись без помощи единственного существа на планете, понимающего разницу между правдой и ложью, — человека.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Математическая погрешность Математическая погрешность

Стоит ли всегда округлять 4,97 до 5?

Forbes
Мозг, исцеляющий себя Мозг, исцеляющий себя

Реальные истории людей, которые победили болезни и преобразили свой мозг

kiozk originals
Бизнес в особом режиме Бизнес в особом режиме

Московская область — один из благоприятных регионов для развития формата ОЭЗ

РБК
Мама может Мама может

Все самое важное и актуальное о материнском капитале

Лиза
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
Гадкий утенок превращается в CEO: как любимые детские сказки влияют на наш жизненный путь Гадкий утенок превращается в CEO: как любимые детские сказки влияют на наш жизненный путь

Главы из книги Марины Мелии «Хочу — могу — надо. Узнай себя и действуй!»

Forbes
На ошибках учатся На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБК
Сыграть рукой: Григорий Туманов — о том, почему слитое видео Дзюбы превратило интернет в сеанс коллективной мастурбации Сыграть рукой: Григорий Туманов — о том, почему слитое видео Дзюбы превратило интернет в сеанс коллективной мастурбации

Почему чувственность известного футболиста задела тонкие струны русской души?

Esquire
Город без нагромождений Город без нагромождений

Новое оборудование для сотовых сетей не портит городских пейзажей

РБК
Котлета от Тимати: сколько можно заработать на франшизе Black Star Burger Котлета от Тимати: сколько можно заработать на франшизе Black Star Burger

Как сейчас работает Black Star Burger и можно ли заработать на этой франшизе?

Forbes
Вечные ценности Вечные ценности

На какие деньги живут города-музеи

Forbes
Кислород и водород на Марсе предложили получать из рассола Кислород и водород на Марсе предложили получать из рассола

Кислород и водород на Марсе хотят получать из марсианских озер

N+1
Правила жизни Правила жизни

Правила жизни величайшего актера Кирка Дугласа

Playboy
«Карантинные разводы»: как не пополнить печальную статистику? «Карантинные разводы»: как не пополнить печальную статистику?

Как не разрушить отношения, находясь с мужем дома 24/7 – рассказывает психолог

Cosmopolitan
Кто является автором термина «Великая Отечественная война»? Кто является автором термина «Великая Отечественная война»?

Кем впервые было произнесено название войны, которую предстояло пройти СССР

Дилетант
Двигатель EmDrive: нарушая законы физики Двигатель EmDrive: нарушая законы физики

Этот электромагнитный двигатель опровергает принципы известной нам физики

Популярная механика
Как накопить миллион Как накопить миллион

Планируешь крупную покупку? Учись откладывать деньги

Лиза
Давид Ян: «В мире появится движение Robot lives matter» Давид Ян: «В мире появится движение Robot lives matter»

Давид Ян уверен, что нейросети нужен эмоциональный интеллект

РБК
9 неприятных привычек тех, кто нас так раздражает 9 неприятных привычек тех, кто нас так раздражает

Объясняем, почему некоторые черты людей вызывают у нас сильное раздражение

Psychologies
Чем болели президенты США (втайне от простых американцев) Чем болели президенты США (втайне от простых американцев)

Кто основал среди американских лидеров традицию болеть

Maxim
Любовь или легкая влюбленность? 16 важных отличий Любовь или легкая влюбленность? 16 важных отличий

Чем отличается легкое увлечение от настоящей любви?

Psychologies
Дворцовая площадь Дворцовая площадь

Отель Badrutt’s Palace — замок посреди Швейцарских Альп

GQ
Шпалера со смыслами Шпалера со смыслами

Фламандская шпалера середины XVI века

Дилетант
Завезенных в Австралию ос назвали угрозой безопасности авиаперелетов Завезенных в Австралию ос назвали угрозой безопасности авиаперелетов

Гнезда насекомых могут привести к катастрофе

N+1
«Ждем, когда 5G станет реальностью, а не только поводом для хайпа» «Ждем, когда 5G станет реальностью, а не только поводом для хайпа»

Александр Чуб — о том, как в России развивается инфраструктура для сотовой связи

РБК
Дети за новогодним столом Дети за новогодним столом

Как максимально безопасно для детей провести Новый год праздник за общим столом

Здоровье
Неандертальцев уличили в сильном хвате Неандертальцев уличили в сильном хвате

Антропологи построили 3D-модель кисти неандертальца

N+1
Человек с кинобритвой Человек с кинобритвой

Как режиссер Луис Бунюэль провоцировал публику на скандалы

Weekend
Тональный на все лицо и еще 9 ошибок, которые ты делаешь, когда наносишь макияж Тональный на все лицо и еще 9 ошибок, которые ты делаешь, когда наносишь макияж

Рассказываем, как избежать мейкап-ошибок, чтобы выглядеть отлично

Cosmopolitan
Беззащитные перед космосом: десятиметровый астероид прошел над Землей незамеченным ниже МКС Беззащитные перед космосом: десятиметровый астероид прошел над Землей незамеченным ниже МКС

Астероид 2020 VT4 подошел к Земле ближе, чем Международная космическая станция

Forbes
Открыть в приложении