Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Светлана Миронюк: «Одна жизнь = несколько карьер с множеством развилок» Светлана Миронюк: «Одна жизнь = несколько карьер с множеством развилок»

Светлана Миронюк — о работе и её будущем

РБК
7 отличий здоровых отношений от невротичных 7 отличий здоровых отношений от невротичных

Что может мешать двух взрослым людям построить гармоничный союз?

Psychologies
Великий и сбежавший Великий и сбежавший

Бывший глава Renault Карлос Гон снова готовится покорить мир

Forbes
Если бюджет ограничен: на какую одежду стоит тратить деньги, а на какую нет Если бюджет ограничен: на какую одежду стоит тратить деньги, а на какую нет

Как составить модную смету и понять, можешь ли ты позволить себе шопинг мечты

Cosmopolitan
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
Скука как путь к новым идеям Скука как путь к новым идеям

Скука ассоциируется у нас с чем-то неприятным, негативным, а зря

Psychologies
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
«В Москву едут слабаки». Уральский предприниматель — о том, почему вести бизнес в регионах круче «В Москву едут слабаки». Уральский предприниматель — о том, почему вести бизнес в регионах круче

Переезд в Москву — поиск ответа на вопросы: где лучше жить и где лучше работать

Inc.
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
Как сделать девушке приятно, не залезая к ней в постель, да еще и заработать Как сделать девушке приятно, не залезая к ней в постель, да еще и заработать

Умеешь починить розетку и прибить к холодильнику полку?

Maxim
Чёрный передел: версия 1939 года Чёрный передел: версия 1939 года

Секретный протокол к Пакту о ненападении

Дилетант
Никита Кукушкин: «Свои желания я исполняю сам» Никита Кукушкин: «Свои желания я исполняю сам»

Актер театра и кино – о новогодних сюрпризах и разочарованиях

Cosmopolitan
Человек — лишнее звено Человек — лишнее звено

Какие технологии станут главными в 2022 году

Forbes
Бить или не бить? Ответы на 11 caмых важных вопросов для тех, кто хочет сделать татуировку Бить или не бить? Ответы на 11 caмых важных вопросов для тех, кто хочет сделать татуировку

Опытный татуировщик отвечает на самые популярные вопросы о татуировках

Maxim
Из тюрьмы в бочку Из тюрьмы в бочку

Куда делись миллиарды Сергея Полонского, да и были ли они?

Forbes
Брат средневековой пушки: начало истории автомобильных двигателей Брат средневековой пушки: начало истории автомобильных двигателей

Экскурс в историю двигателестроения

Популярная механика
Гудбай, Америка: 10 фактов о Христофоре Колумбе, которых вы не знали Гудбай, Америка: 10 фактов о Христофоре Колумбе, которых вы не знали

Все самые интересные факты о Христофоре Колумбе в нашей подборке

Популярная механика
6 самых смачных забастовок в истории 6 самых смачных забастовок в истории

Самые интересные и необычные забастовки в истории

Maxim
Алкогений: Петр Мамонов Алкогений: Петр Мамонов

Хмурым утром у ларька с пивом очередь расступалась, завидя Мамонова в пиджаке

Maxim
Одновременная линька маховых перьев облегчила птицам отказ от полета Одновременная линька маховых перьев облегчила птицам отказ от полета

Ученые выяснили причину, по которой птицы становятся нелетающими

N+1
7 фактов о Леониде Гайдае 7 фактов о Леониде Гайдае

Даже после смерти Леонида Гайдая его фильмы продолжают смешить. Феномен!

Maxim
Разводы в британской королевской семье: письмо Елизаветы II Диане и cлёзы обеих Разводы в британской королевской семье: письмо Елизаветы II Диане и cлёзы обеих

Вспоминаем разводы членов британской королевской семьи

Cosmopolitan
Феномен английского детектива — в книге Люси Уорсли «Чисто британское убийство». Публикуем ее фрагмент Феномен английского детектива — в книге Люси Уорсли «Чисто британское убийство». Публикуем ее фрагмент

Введение к книге Люси Уорсли "Чисто британское убийство"

Esquire
Сон как самая большая загадка эволюции. Почему мы спим, зачем и можем ли этого не делать? (Спойлер: ученые не знают) Сон как самая большая загадка эволюции. Почему мы спим, зачем и можем ли этого не делать? (Спойлер: ученые не знают)

Что вообще такое сон, для чего он нам и почему все животные так в нем нуждаются?

Популярная механика
«Копирование — это не кража, а трансформация»: Уиллем Дефо — о своем провальном старте и новом фильме «Сибирь» «Копирование — это не кража, а трансформация»: Уиллем Дефо — о своем провальном старте и новом фильме «Сибирь»

Уиллем Дефо о том, почему увольнение может быть радостным событием

Forbes
Когда не надо спрашивать «почему?» Когда не надо спрашивать «почему?»

Иногда невинное «почему?» вызывает сопротивление и даже агрессию

Psychologies
35 лет ОС Windows: история голубого экрана смерти 35 лет ОС Windows: история голубого экрана смерти

Откуда взялся тот самый голубой экран смерти, который никто не любит

Maxim
Аборт и закон: могут ли нам запретить решать, когда быть матерью? Аборт и закон: могут ли нам запретить решать, когда быть матерью?

Как один закон может повлиять на судьбы многих женщин

Cosmopolitan
Ради любви или пиара? Звезды, приходившие на «Давай поженимся!» – зачем им это Ради любви или пиара? Звезды, приходившие на «Давай поженимся!» – зачем им это

Кто из знаменитостей искал любовь на шоу «Давай поженимся!» и кто ее нашел?

Cosmopolitan
Других писателей у меня для вас нет Других писателей у меня для вас нет

Знакомьтесь: Омид Скоби, биограф Меган Маркл и принца Гарри

Tatler
Открыть в приложении