Как пересекаются этика и искусственный интеллект?

ЭкспертHi-Tech

Об этике применения программных средств с элементами искусственного интеллекта

Когда мы говорим об этике ИИ, речь идет, конечно, не о самих машинах, а об их создателях и пользователях, то есть об этике проектирования, конструирования и использования сложных программных алгоритмов, исключающей негативные последствия их применения для личности, общества и государства

Андрей Дубровин, Роман Титов, Александра Баранова*

Отдайте же человеку — человеческое, а вычислительной машине — машинное. Винер Н. «Творец и Будущее».

Этика искусственного интеллекта (ИИ) считается одним из самых важных и актуальных вопросов, которые стоят перед нашим обществом в настоящее время. Одно из определений рассматривает этику ИИ как часть этики технологий, характерную для роботов и других искусственно интеллектуальных «существ». Проблематика этики обычно разделяется на два аспекта:

— этика создателей, которая решает вопросы морального поведения людей при проектировании, конструировании, использовании искусственно разумных существ;

— этика машин, которая затрагивает проблемы морального поведения самих искусственных моральных агентов.

Наибольшее число страхов и вопросов в обществе вызывает второй аспект. Важно отметить, что в настоящее время широко распространено следующее заблуждение: искусственным интеллектом называют любую компьютерную программу, способную в той или иной степени заменить какую-либо умственную деятельность человека, хотя к интеллекту как таковому она не имеет никакого отношения. До создания полноценного ИИ технологии еще не развились. Для этого как минимум необходимо полностью изучить процессы головного мозга — разобрать на кирпичики человеческий разум. А это даже современной науке не по силам.

Что касается официальных формулировок, то сегодня ситуация в России следующая: согласно Федеральному закону «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации…» (№ 123-ФЗ от 24.04.2020), ИИ — это «комплекс технологических решений, позволяющих имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Надо отдать должное нашим законодателям и сказать спасибо за адекватные формулировки: «имитировать» и «сопоставимые». Они отражают реальное положение дел в области развития ИИ. Подавляющая же часть граждан воспринимает современные сложные программные комплексы с элементами ИИ как «копирующие» мыслительные функции человека, как «аналогичные» человеческому разуму.

Однако, к сожалению, ни одна из статей упомянутого закона не затрагивает не только вопросы, касающиеся этических принципов функционирования ИИ, но и аналогичные вопросы в сфере создания и применения сложных программных комплексов, «получающих при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Еще раз: употребляя эффектный термин «искусственный интеллект», надо понимать, что речь сегодня идет не о полноценном аналоге человеческого интеллекта, а о сложных, эффективных, самообучающихся, но все-таки компьютерных программах. А значит, и этика реального искусственного интеллекта пока остается в стороне. Это вопрос будущего, который может рассматриваться учеными, философами и фантастами исключительно гипотетически.

Пока ИИ не будет создан, что называется «во плоти», мы не можем реально оценить его плохие или хорошие стороны. Можно даже допустить, что новое творение человеческого гения окажется обладателем такой неуловимой материи, как душа. Современные же программные средства, хоть и очень эффективные, душой обладать не смогут никогда. Это даже не человекоподобный манекен, а пародии на его части. А где нет души — там нет и этики. Где нет этики — нет места человеку. И именно эта грань духовно-технократического конфликта является сегодня одной из важнейших проблем человечества. Отсутствие реального искусственного интеллекта не избавляет нас от проблем, связанных с программными средствами, пытающимися частично исполнить его функции.

Из вышесказанного следует, что актуальным на сегодня аспектом этики ИИ является не этика самих машин, а этика их создателей и пользователей, то есть этика проектирования, конструирования и использования сложных программных алгоритмов, исключающая негативные последствия их применения для личности, общества и государства. И корректнее было бы назвать это этикой «проектирования и применения программных комплексов, подражающих человеческому разуму». Но для простоты восприятия пускай останется «этика применения элементов ИИ».

Рассмотрим несколько самых очевидных проблем, связанных с этикой применения элементов ИИ.

Безопасен ли ИИ

Проблема безопасности. Многие эксперты считают, что алгоритмы некоторых программ могут представлять угрозу для человечества, если они станут слишком интеллектуальными и начнут действовать вопреки нашим интересам. Это может произойти, например, если алгоритм станет разрабатывать собственные цели и стремиться к их достижению, игнорируя интересы людей. В России уже начали делать первые шаги в направлении регулирования вопросов безопасности в сфере применения элементов ИИ. Так, согласно «Национальной стратегии развития искусственного интеллекта на период до 2030 года», которая утверждена Указом президента Российской Федерации от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации», основным принципом развития и использования технологий ИИ является безопасность, которая понимается следующим образом: «недопустимость использования ИИ в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий ИИ».

Другой важный аспект этики применения элементов ИИ связан с проблемой автономности. Современные роботизированные системы уже способны действовать без участия человека, и это может приводить к непредсказуемым последствиям. Например, если автономный транспортный беспилотник в процессе движения по своему маршруту примет решение, не согласующееся с реальной ситуацией на пути следования, это может привести к серьезным последствиям, включая гибель людей.

Возможны также ситуации, когда программа с элементами ИИ принимает решения, основанные на статистических данных, которые изначально содержат ошибки или предвзятость, что может привести к несправедливым решениям, которые дискриминируют определенные группы людей. Это серьезная проблема, и она требует особого внимания и разработки механизмов, в том числе законодательных, которые позволят обнаруживать и корректировать подобные ошибки.

Не менее важны и этические вопросы в связи с использованием элементов ИИ в критически важных отраслях, например в медицине. Сложные программные комплексы могут использоваться для диагностики и лечения пациентов, что может привести к повышению качества здравоохранения. Однако потенциально это также может вызвать этические проблемы, например если элемент ИИ будет использоваться для принятия решений о том, какое лечение необходимо пациенту, не учитывая его личных предпочтений и ценностей.

Еще одна важная тема в области этики применения элементов ИИ связана с проблемой прозрачности. Многие программные системы используют массивные и сложные алгоритмы, логика которых обычным людям непонятна. Это может создавать проблемы в том, что люди не смогут объяснить, почему система приняла определенное решение, породит недоверие к использованию элементов ИИ и неприятие их в обществе.

Следующая важная тема, связанная с этикой применения элементов ИИ, — это проблема ответственности. Кто несет ответственность за действия принимающей решения системы, если она причинила вред? Необходимо разработать механизмы, которые позволят четко разграничить ответственность за негативные действия и обеспечить компенсацию пострадавшим в случае необходимости.

Концепция этической архитектуры

Для того чтобы решить все эти проблемы, необходимо развивать принципиально новый подход к созданию и использованию современных, мощных программных систем с элементами ИИ. Этот подход должен основываться на тщательном анализе потенциальных этических рисков и учете интересов всех заинтересованных сторон. Кроме того, нужно разработать этические стандарты и регуляторные механизмы, которые обеспечат соблюдение этих стандартов в различных аспектах искусственного интеллекта: сбор данных, база данных, пределы самостоятельных решений, прозрачность и регулируемость результатов применения и пр.

Один из примеров таких стандартов — концепция «этической архитектуры» для систем искусственного интеллекта. Эта концепция предлагает использовать этические принципы уже в процессе проектирования программных систем, чтобы минимизировать риски, связанные с их использованием. Этическая архитектура может включать в себя, например, использование принципа «безопасности по умолчанию», который предполагает, что система с элементами ИИ должна быть настроена на максимальную безопасность для людей.

Другой пример — разработка кодекса этики для исследователей в области и сможет включать в себя принципы, направленные на защиту прав и интересов пользователей систем с элементами ИИ, а также требования к прозрачности и ответственности за действия таких систем.

Однако все мы взрослые люди и прекрасно понимаем, в какой агрессивно-конкурентной среде мы сегодня живем. Никакие концепции, принципы и кодексы не остановят исследователей, ученых, программистов крупных корпораций, если на горизонте замаячит возможность заполучить непреодолимое конкурентное преимущество. И тут без вмешательства государства никак не обойтись. Регулирование этики применения элементов ИИ — это в первую очередь государственная функция.

Для того чтобы решить этические проблемы, нужны действия правительства. Например, законодательство должно требовать от компаний, ведущих разработки в области ИИ, соблюдения принципов прозрачности и открытости, чтобы пользователи могли понимать, как та или иная система работает и какие данные о пользователе она собирает. Законодательство также может требовать от компаний обеспечивать защиту персональных данных и принимать меры по предотвращению дискриминации при использовании элементов ИИ.

Кроме того, важно развивать и применять методы тестирования и оценки программных систем с элементами ИИ, чтобы выявлять этические проблемы и риски, предотвращать их до введения элементов ИИ в эксплуатацию. Важно также обучать разработчиков и пользователей этическим принципам, чтобы они могли осознавать и минимизировать риски.

Но даже если будут приняты все необходимые меры для обеспечения этичности и безопасности применения элементов ИИ, вопросы этики останутся актуальными и будут требовать дальнейшего обсуждения и развития.

В связи с этим возникает идея создания специальных правительственных агентств или комиссий, которые занимались бы вопросами этики развития сложных программных систем с элементами искусственного интеллекта и ответственности за их действия. Важно учитывать и международный аспект проблематики. Так как современные программные средства с элементами ИИ имеют потенциал стать ключевой технологией для многих стран, необходимо разработать международные стандарты и нормы, которые обеспечат безопасное и этичное их использование во всем мире. Международные организации, такие как ООН или ШОС, могут стать платформами для разработки и внедрения таких международных стандартов и норм.

Острой становится проблема использования элементов ИИ в военном деле. Современные военные конфликты уже доказали, что использование даже простейших программных средств существенно повышает эффективность на поле боя. Нетрудно представить, что произойдет, когда непреодолимая военная сила, основанная на использовании элементов ИИ, попадает в руки «плохих парней». А учитывая нынешнее геополитическое противостояние Востока и Запада, военные риски, связанные с применением программных систем с элементами ИИ, возрастают многократно.

Недружественные нам страны фокусируются на перманентном использовании перспективного ИИ как составляющей концепта гибридной войны. В предисловии к «Стратегии оборонного искусственного интеллекта» министерства обороны Великобритании министр Бен Уоллес указал следующее: «Чтобы справиться с различными вызовами (по контексту имеются в виду вызовы со стороны России. — Авт.), оборона должна уделять приоритетное внимание исследованиям, разработкам и экспериментам, сохраняя стратегическое преимущество за счет использования инновационных концепций и передовых технологических достижений, а искусственный интеллект является одной из технологий, необходимых для модернизации обороны».

В «Комплексной оперативной концепции Великобритании» содержатся еще более ужасающие заявления: «Заглядывая в будущее, в следующее десятилетие, мы видим, что сочетание проверенных технологий, таких как повсеместная доступность данных благодаря расширенному подключению к облачным хранилищам, машинное обучение и искусственный интеллект, а также квантовые вычисления позволят создать не просто новое поколение систем вооружения, но и совершенно новый способ ведения войны».

Как вам такой вариант использования элементов ИИ бывшими «партнерами»? Вероятно, уже в недалеком будущем потребуется ограничение применения элементов ИИ в военном деле, по аналогии с международными договорами об ограничении распространения ядерного вооружения (например, раскрытие кода).

Наряду с военным использованием элементов ИИ не менее важное место занимает и воздействие на социальную среду. Мы все привыкли к ситуации, когда после поиска определенного товара таргетированная реклама сама подкидывает нам подходящие варианты его приобретения. При желании таким же образом можно откорректировать даже свою новостную ленту. А что если это не ваше желание? Что если некая «сущность» на основе статистики исключительно ваших предпочтений из поиска, ваших предпочтений в использовании тех или иных соцсетей, ваших контактов, ваших покупок, ваших регулярных мест посещения, ваших любимых фильмов, книг и т. д., в конце концов, ваших индивидуальных психологических особенностей начнет «скармливать» вам определенный социальный или политический нарратив в подходящей оболочке, который сможет побудить вас к определенным действиям, выгодным этой «сущности»?

Есть такой термин в маркетинге — «омниканальность», означающий дословно «взаимную интеграцию разрозненных каналов коммуникации в единую систему с целью обеспечения бесшовной и непрерывной коммуникации с клиентом». Омниканальность в сфере управления социумом в сочетании с индивидуальным подходом даст такой синергетический эффект, какой никаким пропагандистам и не снился. Однако такой «комплекс мероприятий» очень сложно организовать лишь силами людей. Для воздействия только на одного человека понадобится целый штат сотрудников, начиная с аналитиков данных и заканчивая психологами. А для управления социумом требуется влиять на массы. Эффективно управлять таким массовым «комплексом мероприятий» сможет лишь сложный программный комплекс с элементами ИИ. Различные «цветные революции» можно будет устраивать буквально «в несколько кликов».

Можно ли отдавать столь мощную силу в руки частным корпорациям или позволить подобным образом влиять на сознание российского общества недружественным странам? Соответствует ли такое применение элементов ИИ этическим нормам современного, цивилизованного человека? Ответ очевиден.

Наступили времена, когда программные средства достигли такого развития, что стали играть в жизни человека ключевую роль. Что неудивительно: мир стремительно несется к созреванию пятого технологического уклада и началу формирования шестого. Эти процессы ведут к полной трансформации как хозяйственной деятельности, так и самого человеческого общества. В погоне за технологическим развитием важно не растерять те этические ориентиры, которые были выстраданы в течение двухсот тысяч лет нашей общечеловеческой истории.

Напоследок стоит отметить, что этические вопросы никогда не будут решены раз и навсегда. Они будут требовать постоянного обновления и адаптации в соответствии с развитием технологий. Решение этих вопросов потребует постоянного общения и диалога между различными группами, включая разработчиков, экспертов, общественные организации и, самое главное, государство. Все должны работать сообща, чтобы создать условия, при которых интересы всех членов общества будут учтены, а безопасность использования технологий с элементами ИИ — гарантирована. 

Фото: Taidgh Barron/ZUMA, Piero Nigro/ALTO PRESS

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Был ли аншлюс ГДР? Был ли аншлюс ГДР?

Читаем новый единый учебник всеобщей истории для 11 класса

Дилетант
Под старину. Внедорожный проект Hyperion Под старину. Внедорожный проект Hyperion

Образ довоенной советской «эмки», стиль американских хот-родов и внедорожник

4x4 Club
Зеленая эпоха уходит Зеленая эпоха уходит

Все больше стран отказываются от доллара в пользу национальных валют

Эксперт
Запретная любовь в Сарае: как были устроены гаремы турецких султанов Запретная любовь в Сарае: как были устроены гаремы турецких султанов

Как был устроен султанский гарем

Вокруг света
Дискаунтер с элементами шика Дискаунтер с элементами шика

Федеральный ретейлер «Магнит» запускает сеть жестких дискаунтеров «Первый выбор»

Эксперт
Он усадил ее тело на заднее сиденье автомобиля и отвез в Пубол: безумная любовь Сальвадора Дали к русской эмигрантке Он усадил ее тело на заднее сиденье автомобиля и отвез в Пубол: безумная любовь Сальвадора Дали к русской эмигрантке

Несмотря на непримечательную внешность, Елена Дьяконова, Гала, производила фурор

ТехИнсайдер
Сто смет одиночества Сто смет одиночества

Есть ли шанс привить миллениалам и зумерам ценности многодетной семьи

Монокль
Не греет душу: как Disney продолжает капитализировать ностальгию в фильме «Индиана Джонс и колесо судьбы» Не греет душу: как Disney продолжает капитализировать ностальгию в фильме «Индиана Джонс и колесо судьбы»

Харрисон Форд прощается с образом неутомимого харизматичного археолога

Правила жизни
Приоритет — у русской моды Приоритет — у русской моды

Сегодня сложился уникальный момент для подъема отечественного легпрома

Эксперт
Леопардовые костюмы, Кейт Мидлтон за диджейским пультом и танец Меган Маркл с Карлом III: нейросеть показала вечеринку по случаю коронации Леопардовые костюмы, Кейт Мидлтон за диджейским пультом и танец Меган Маркл с Карлом III: нейросеть показала вечеринку по случаю коронации

Какой могла бы быть идеальная вечеринка после коронации Карла III?

Правила жизни
5 примеров того, как научные открытия влияли на искусство 5 примеров того, как научные открытия влияли на искусство

Как научные открытия находили свое отражение в изобразительном искусстве

СНОБ
Разумная экономия: 5 гениальных идей, как использовать просроченный крем в быту Разумная экономия: 5 гениальных идей, как использовать просроченный крем в быту

Реюз: как можно повторно использовать крем?

ТехИнсайдер
Король на Aston Martin. Какие автомобили любит новый британский монарх Король на Aston Martin. Какие автомобили любит новый британский монарх

Как и его покойная мать Елизавета II, Карл III известен любовью к автомобилям

РБК
Эолова яхта Эолова яхта

Этот дизайн-­проект яхты длиной 131 м создан в рамках инициативы Oceanco NXT

Y Magazine
Сколько яиц в день можно съедать, чтобы не стать жертвой их пяти опасных побочных эффектов Сколько яиц в день можно съедать, чтобы не стать жертвой их пяти опасных побочных эффектов

Яйца считаются отличным источником белка в меню. Но есть пара нюансов!

VOICE
Вы удивитесь, что на самом деле означает слово «колготки», и как правильно говорить: «калготы» или «колготки»? Вы удивитесь, что на самом деле означает слово «колготки», и как правильно говорить: «калготы» или «колготки»?

Задумывались ли вы когда-нибудь, почему колготки называются именно так?

ТехИнсайдер
Кто и зачем на самом деле изобрел кириллицу (спойлер — нет, не Кирилл и Мефодий) Кто и зачем на самом деле изобрел кириллицу (спойлер — нет, не Кирилл и Мефодий)

Некоторые незыблемые знания не выдерживают столкновения с фактами

Maxim
Анна Рыжова Анна Рыжова

Путь Анны Рыжовой — образец для комиксиста

Правила жизни
Физики собрали рекордно большой двумерный ионный кристалл Физики собрали рекордно большой двумерный ионный кристалл

В ловушку Пауля уместилось 105 ионов кальция

N+1
11 предметов, которые были на даче у каждого, кто жил в СССР 11 предметов, которые были на даче у каждого, кто жил в СССР

Если эти вещи вам знакомы, то у вас было тяжелое, но счастливое детство

Maxim
Хозяйкам на заметку: 5 удивительных методов использования дрожжей, о которых вы и не догадывались Хозяйкам на заметку: 5 удивительных методов использования дрожжей, о которых вы и не догадывались

Дрожжи можно использовать не только в кулинарии!

ТехИнсайдер
Природный стимулятор: пять необычных «зеленых» офисов со всего мира Природный стимулятор: пять необычных «зеленых» офисов со всего мира

Растения способны снижать уровень выгорания и утомляемости и повышать мотивацию

Forbes
Как в России ввели сухой закон во время мобилизации и что из этого вышло Как в России ввели сухой закон во время мобилизации и что из этого вышло

Кажется, что на Руси пили всегда. Но вообще-то нет!

Maxim
С глаз долой: как справиться с «отпускной email-паникой» — страхом погрязнуть в неотвеченных письмах после отпуска С глаз долой: как справиться с «отпускной email-паникой» — страхом погрязнуть в неотвеченных письмах после отпуска

Несколько советов от управленцев, как не погрязнуть в неотвеченных письмах

VC.RU
«Русалочка»: за что любят и ненавидят ремейк классического мультфильма Disney «Русалочка»: за что любят и ненавидят ремейк классического мультфильма Disney

Какой получилась новая версия «Русалочки» и стоит ли ждать от нее откровений?

Forbes
«Мир, дружба, жвачка»: 5 разновидностей дружеских отношений «Мир, дружба, жвачка»: 5 разновидностей дружеских отношений

Рассмотрим несколько видов дружбы и посмотрим на их характерные черты и отличия

Psychologies
Самые вкусные сорта крепкого пива: краткий гид Самые вкусные сорта крепкого пива: краткий гид

Мы предпочитаем смаковать крепкое пиво, наслаждаясь оттенками вкуса

Maxim
Инструктаж от стилиста: как выбрать платье на лето, чтобы спрятать животик Инструктаж от стилиста: как выбрать платье на лето, чтобы спрятать животик

Фасоны платьев, в которых ты будешь чувствовать себя отлично и уверенно

VOICE
Почему негативные эмоции и поступки невозможно скрыть — ни от себя, ни от окружающих Почему негативные эмоции и поступки невозможно скрыть — ни от себя, ни от окружающих

Люди в большинстве своем считывают то, как мы относимся к ним

Psychologies
Большая добыча Большая добыча

Печальные последствия встречи человека с природой Антарктики

Вокруг света
Открыть в приложении