Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Общество Общество

Захар Прилепин – о том, почему после 1990-х страна ждала от нулевых большего

Esquire
«Я сделала своего мужа миллионером» «Я сделала своего мужа миллионером»

Популярный блогер Яна Sims рассказала, как вдохновить своего мужчину

OK!
Рейтинг доверия Рейтинг доверия

Дмитрий Марков — о рисках и преимуществах биометрических систем

РБК
«Буханка», Land Cruiser и другие: 5 моделей-долгожителей в России «Буханка», Land Cruiser и другие: 5 моделей-долгожителей в России

Несколько культовых автомобилей выпускают на протяжении десятилетий

РБК
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
18 неприличных на слух слов с приличным смыслом 18 неприличных на слух слов с приличным смыслом

Некоторые слова — не то, чем кажутся твоему подсознанию!

Maxim
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
Почему взрослым непросто учиться: плюсы и минусы образовательных подходов Почему взрослым непросто учиться: плюсы и минусы образовательных подходов

Зачастую нам мешает учиться неподходящий метод обучения

Psychologies
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
Этан, метан, азот и Титан Этан, метан, азот и Титан

Титан можно было бы даже сравнить с Землёй, если бы не одно «но»

Наука и жизнь
Слишком холодно, слишком темно, слишком неуютно Слишком холодно, слишком темно, слишком неуютно

Как продолжить тренировки даже в самое холодное время года

Men’s Health
Деньги и мы: что влияет на наши отношения? Деньги и мы: что влияет на наши отношения?

Как складываются ваши отношения с деньгами и можно ли их изменить?

Psychologies
Без черной звезды Без черной звезды

Почему Тимати ушел из Black Star и чем он сейчас занимается

Forbes
«Я провела три дня на полу не в состоянии подняться»: жестокая правда жизни стартапера «Я провела три дня на полу не в состоянии подняться»: жестокая правда жизни стартапера

Сколько физических и ментальных ресурсов уходит на то, чтобы не бросить стартап

Inc.
Константин и хаос междуцарствия Константин и хаос междуцарствия

Отречение великого князя от престола оказалось удобным поводом для мятежа

Дилетант
Елки-палки: как стартап по высадке леса Maraquia получил похвалу Путина, потерял инвесторов и теперь судится с основателем Елки-палки: как стартап по высадке леса Maraquia получил похвалу Путина, потерял инвесторов и теперь судится с основателем

Что скрывается за красивым фасадом стартапа Maraquia («Маракуйя»)

Forbes
Нет цензурных слов. Почему Россия бьется за свободу слова, а ей не верят Нет цензурных слов. Почему Россия бьется за свободу слова, а ей не верят

Власти жалуются на цензуру свободного общества

СНОБ
Как улучшить качество сна? Как музыка влияет на мозг — и при чем тут искусственный интеллект Как улучшить качество сна? Как музыка влияет на мозг — и при чем тут искусственный интеллект

Музыка, искусственный интеллект и Grimes: как саунд-дизайн помогает лучше спать

Esquire
Авторская кухня Авторская кухня

Ресторатор Илья Тютенков за девять лет запустил шесть модных заведений в Москве

Forbes
8 фактов о Мартине Скорсезе 8 фактов о Мартине Скорсезе

Факты, которые заменят тебе просмотр грандиозных фильмов Мартина Скорсезе

Maxim
Иммунные клетки мигрировали из кишечника для защиты мозга Иммунные клетки мигрировали из кишечника для защиты мозга

Исследователи обнаружили в мозге иммунные клетки, которые произошли от кишечных

N+1
Кость даю Кость даю

Семейная коллекция северного косторезного искусства Михаила Карисалова

Forbes
Отрывки из текста Михаила Калужского Отрывки из текста Михаила Калужского

Фрагмент текста Михаила Калужского — о памяти, ее аберрациях и ностальгии

СНОБ
Древнейшая жизнь на Земле: биологическая революция Древнейшая жизнь на Земле: биологическая революция

С образования нашей планеты до зарождения первых форм жизни прошло мало времени

Популярная механика
«За слова надо отвечать»: когда общение в родительском чате приводит к убийству «За слова надо отвечать»: когда общение в родительском чате приводит к убийству

Почему виртуальная ссора может привести к реальной трагедии

Psychologies
20 ошибок при самостоятельном окрашивании волос, которых легко избежать 20 ошибок при самостоятельном окрашивании волос, которых легко избежать

Что греха таить: все мы периодически красим (и портим) волосы дома

Cosmopolitan
Вакцинация спасет амурских тигров от чумки Вакцинация спасет амурских тигров от чумки

Вакцинация собак, которая до сих пор считалась приоритетной, тиграм не поможет

N+1
«Математика с дурацкими рисунками. Идеи, которые формируют нашу реальность» «Математика с дурацкими рисунками. Идеи, которые формируют нашу реальность»

Отрывок из книги Бена Орлина, которая поможет вам легко понять математику

N+1
Почему мы продолжаем отношения, которые давно пора закончить? Почему мы продолжаем отношения, которые давно пора закончить?

Причины, по которым мы остаемся в отношениях, которые нам не нужны

Cosmopolitan
История одной песни: советско-германский плагиат «Марш авиаторов», 1923 История одной песни: советско-германский плагиат «Марш авиаторов», 1923

Вот это детектив: то ли фашисты украли у нас песню, то ли мы у фашистов

Maxim
Открыть в приложении