Как пересекаются этика и искусственный интеллект?

ЭкспертHi-Tech

Об этике применения программных средств с элементами искусственного интеллекта

Когда мы говорим об этике ИИ, речь идет, конечно, не о самих машинах, а об их создателях и пользователях, то есть об этике проектирования, конструирования и использования сложных программных алгоритмов, исключающей негативные последствия их применения для личности, общества и государства

Андрей Дубровин, Роман Титов, Александра Баранова*

Отдайте же человеку — человеческое, а вычислительной машине — машинное. Винер Н. «Творец и Будущее».

Этика искусственного интеллекта (ИИ) считается одним из самых важных и актуальных вопросов, которые стоят перед нашим обществом в настоящее время. Одно из определений рассматривает этику ИИ как часть этики технологий, характерную для роботов и других искусственно интеллектуальных «существ». Проблематика этики обычно разделяется на два аспекта:

— этика создателей, которая решает вопросы морального поведения людей при проектировании, конструировании, использовании искусственно разумных существ;

— этика машин, которая затрагивает проблемы морального поведения самих искусственных моральных агентов.

Наибольшее число страхов и вопросов в обществе вызывает второй аспект. Важно отметить, что в настоящее время широко распространено следующее заблуждение: искусственным интеллектом называют любую компьютерную программу, способную в той или иной степени заменить какую-либо умственную деятельность человека, хотя к интеллекту как таковому она не имеет никакого отношения. До создания полноценного ИИ технологии еще не развились. Для этого как минимум необходимо полностью изучить процессы головного мозга — разобрать на кирпичики человеческий разум. А это даже современной науке не по силам.

Что касается официальных формулировок, то сегодня ситуация в России следующая: согласно Федеральному закону «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации…» (№ 123-ФЗ от 24.04.2020), ИИ — это «комплекс технологических решений, позволяющих имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Надо отдать должное нашим законодателям и сказать спасибо за адекватные формулировки: «имитировать» и «сопоставимые». Они отражают реальное положение дел в области развития ИИ. Подавляющая же часть граждан воспринимает современные сложные программные комплексы с элементами ИИ как «копирующие» мыслительные функции человека, как «аналогичные» человеческому разуму.

Однако, к сожалению, ни одна из статей упомянутого закона не затрагивает не только вопросы, касающиеся этических принципов функционирования ИИ, но и аналогичные вопросы в сфере создания и применения сложных программных комплексов, «получающих при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Еще раз: употребляя эффектный термин «искусственный интеллект», надо понимать, что речь сегодня идет не о полноценном аналоге человеческого интеллекта, а о сложных, эффективных, самообучающихся, но все-таки компьютерных программах. А значит, и этика реального искусственного интеллекта пока остается в стороне. Это вопрос будущего, который может рассматриваться учеными, философами и фантастами исключительно гипотетически.

Пока ИИ не будет создан, что называется «во плоти», мы не можем реально оценить его плохие или хорошие стороны. Можно даже допустить, что новое творение человеческого гения окажется обладателем такой неуловимой материи, как душа. Современные же программные средства, хоть и очень эффективные, душой обладать не смогут никогда. Это даже не человекоподобный манекен, а пародии на его части. А где нет души — там нет и этики. Где нет этики — нет места человеку. И именно эта грань духовно-технократического конфликта является сегодня одной из важнейших проблем человечества. Отсутствие реального искусственного интеллекта не избавляет нас от проблем, связанных с программными средствами, пытающимися частично исполнить его функции.

Из вышесказанного следует, что актуальным на сегодня аспектом этики ИИ является не этика самих машин, а этика их создателей и пользователей, то есть этика проектирования, конструирования и использования сложных программных алгоритмов, исключающая негативные последствия их применения для личности, общества и государства. И корректнее было бы назвать это этикой «проектирования и применения программных комплексов, подражающих человеческому разуму». Но для простоты восприятия пускай останется «этика применения элементов ИИ».

Рассмотрим несколько самых очевидных проблем, связанных с этикой применения элементов ИИ.

Безопасен ли ИИ

Проблема безопасности. Многие эксперты считают, что алгоритмы некоторых программ могут представлять угрозу для человечества, если они станут слишком интеллектуальными и начнут действовать вопреки нашим интересам. Это может произойти, например, если алгоритм станет разрабатывать собственные цели и стремиться к их достижению, игнорируя интересы людей. В России уже начали делать первые шаги в направлении регулирования вопросов безопасности в сфере применения элементов ИИ. Так, согласно «Национальной стратегии развития искусственного интеллекта на период до 2030 года», которая утверждена Указом президента Российской Федерации от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федерации», основным принципом развития и использования технологий ИИ является безопасность, которая понимается следующим образом: «недопустимость использования ИИ в целях умышленного причинения вреда гражданам и юридическим лицам, а также предупреждение и минимизация рисков возникновения негативных последствий использования технологий ИИ».

Другой важный аспект этики применения элементов ИИ связан с проблемой автономности. Современные роботизированные системы уже способны действовать без участия человека, и это может приводить к непредсказуемым последствиям. Например, если автономный транспортный беспилотник в процессе движения по своему маршруту примет решение, не согласующееся с реальной ситуацией на пути следования, это может привести к серьезным последствиям, включая гибель людей.

Возможны также ситуации, когда программа с элементами ИИ принимает решения, основанные на статистических данных, которые изначально содержат ошибки или предвзятость, что может привести к несправедливым решениям, которые дискриминируют определенные группы людей. Это серьезная проблема, и она требует особого внимания и разработки механизмов, в том числе законодательных, которые позволят обнаруживать и корректировать подобные ошибки.

Не менее важны и этические вопросы в связи с использованием элементов ИИ в критически важных отраслях, например в медицине. Сложные программные комплексы могут использоваться для диагностики и лечения пациентов, что может привести к повышению качества здравоохранения. Однако потенциально это также может вызвать этические проблемы, например если элемент ИИ будет использоваться для принятия решений о том, какое лечение необходимо пациенту, не учитывая его личных предпочтений и ценностей.

Еще одна важная тема в области этики применения элементов ИИ связана с проблемой прозрачности. Многие программные системы используют массивные и сложные алгоритмы, логика которых обычным людям непонятна. Это может создавать проблемы в том, что люди не смогут объяснить, почему система приняла определенное решение, породит недоверие к использованию элементов ИИ и неприятие их в обществе.

Следующая важная тема, связанная с этикой применения элементов ИИ, — это проблема ответственности. Кто несет ответственность за действия принимающей решения системы, если она причинила вред? Необходимо разработать механизмы, которые позволят четко разграничить ответственность за негативные действия и обеспечить компенсацию пострадавшим в случае необходимости.

Концепция этической архитектуры

Для того чтобы решить все эти проблемы, необходимо развивать принципиально новый подход к созданию и использованию современных, мощных программных систем с элементами ИИ. Этот подход должен основываться на тщательном анализе потенциальных этических рисков и учете интересов всех заинтересованных сторон. Кроме того, нужно разработать этические стандарты и регуляторные механизмы, которые обеспечат соблюдение этих стандартов в различных аспектах искусственного интеллекта: сбор данных, база данных, пределы самостоятельных решений, прозрачность и регулируемость результатов применения и пр.

Один из примеров таких стандартов — концепция «этической архитектуры» для систем искусственного интеллекта. Эта концепция предлагает использовать этические принципы уже в процессе проектирования программных систем, чтобы минимизировать риски, связанные с их использованием. Этическая архитектура может включать в себя, например, использование принципа «безопасности по умолчанию», который предполагает, что система с элементами ИИ должна быть настроена на максимальную безопасность для людей.

Другой пример — разработка кодекса этики для исследователей в области и сможет включать в себя принципы, направленные на защиту прав и интересов пользователей систем с элементами ИИ, а также требования к прозрачности и ответственности за действия таких систем.

Однако все мы взрослые люди и прекрасно понимаем, в какой агрессивно-конкурентной среде мы сегодня живем. Никакие концепции, принципы и кодексы не остановят исследователей, ученых, программистов крупных корпораций, если на горизонте замаячит возможность заполучить непреодолимое конкурентное преимущество. И тут без вмешательства государства никак не обойтись. Регулирование этики применения элементов ИИ — это в первую очередь государственная функция.

Для того чтобы решить этические проблемы, нужны действия правительства. Например, законодательство должно требовать от компаний, ведущих разработки в области ИИ, соблюдения принципов прозрачности и открытости, чтобы пользователи могли понимать, как та или иная система работает и какие данные о пользователе она собирает. Законодательство также может требовать от компаний обеспечивать защиту персональных данных и принимать меры по предотвращению дискриминации при использовании элементов ИИ.

Кроме того, важно развивать и применять методы тестирования и оценки программных систем с элементами ИИ, чтобы выявлять этические проблемы и риски, предотвращать их до введения элементов ИИ в эксплуатацию. Важно также обучать разработчиков и пользователей этическим принципам, чтобы они могли осознавать и минимизировать риски.

Но даже если будут приняты все необходимые меры для обеспечения этичности и безопасности применения элементов ИИ, вопросы этики останутся актуальными и будут требовать дальнейшего обсуждения и развития.

В связи с этим возникает идея создания специальных правительственных агентств или комиссий, которые занимались бы вопросами этики развития сложных программных систем с элементами искусственного интеллекта и ответственности за их действия. Важно учитывать и международный аспект проблематики. Так как современные программные средства с элементами ИИ имеют потенциал стать ключевой технологией для многих стран, необходимо разработать международные стандарты и нормы, которые обеспечат безопасное и этичное их использование во всем мире. Международные организации, такие как ООН или ШОС, могут стать платформами для разработки и внедрения таких международных стандартов и норм.

Острой становится проблема использования элементов ИИ в военном деле. Современные военные конфликты уже доказали, что использование даже простейших программных средств существенно повышает эффективность на поле боя. Нетрудно представить, что произойдет, когда непреодолимая военная сила, основанная на использовании элементов ИИ, попадает в руки «плохих парней». А учитывая нынешнее геополитическое противостояние Востока и Запада, военные риски, связанные с применением программных систем с элементами ИИ, возрастают многократно.

Недружественные нам страны фокусируются на перманентном использовании перспективного ИИ как составляющей концепта гибридной войны. В предисловии к «Стратегии оборонного искусственного интеллекта» министерства обороны Великобритании министр Бен Уоллес указал следующее: «Чтобы справиться с различными вызовами (по контексту имеются в виду вызовы со стороны России. — Авт.), оборона должна уделять приоритетное внимание исследованиям, разработкам и экспериментам, сохраняя стратегическое преимущество за счет использования инновационных концепций и передовых технологических достижений, а искусственный интеллект является одной из технологий, необходимых для модернизации обороны».

В «Комплексной оперативной концепции Великобритании» содержатся еще более ужасающие заявления: «Заглядывая в будущее, в следующее десятилетие, мы видим, что сочетание проверенных технологий, таких как повсеместная доступность данных благодаря расширенному подключению к облачным хранилищам, машинное обучение и искусственный интеллект, а также квантовые вычисления позволят создать не просто новое поколение систем вооружения, но и совершенно новый способ ведения войны».

Как вам такой вариант использования элементов ИИ бывшими «партнерами»? Вероятно, уже в недалеком будущем потребуется ограничение применения элементов ИИ в военном деле, по аналогии с международными договорами об ограничении распространения ядерного вооружения (например, раскрытие кода).

Наряду с военным использованием элементов ИИ не менее важное место занимает и воздействие на социальную среду. Мы все привыкли к ситуации, когда после поиска определенного товара таргетированная реклама сама подкидывает нам подходящие варианты его приобретения. При желании таким же образом можно откорректировать даже свою новостную ленту. А что если это не ваше желание? Что если некая «сущность» на основе статистики исключительно ваших предпочтений из поиска, ваших предпочтений в использовании тех или иных соцсетей, ваших контактов, ваших покупок, ваших регулярных мест посещения, ваших любимых фильмов, книг и т. д., в конце концов, ваших индивидуальных психологических особенностей начнет «скармливать» вам определенный социальный или политический нарратив в подходящей оболочке, который сможет побудить вас к определенным действиям, выгодным этой «сущности»?

Есть такой термин в маркетинге — «омниканальность», означающий дословно «взаимную интеграцию разрозненных каналов коммуникации в единую систему с целью обеспечения бесшовной и непрерывной коммуникации с клиентом». Омниканальность в сфере управления социумом в сочетании с индивидуальным подходом даст такой синергетический эффект, какой никаким пропагандистам и не снился. Однако такой «комплекс мероприятий» очень сложно организовать лишь силами людей. Для воздействия только на одного человека понадобится целый штат сотрудников, начиная с аналитиков данных и заканчивая психологами. А для управления социумом требуется влиять на массы. Эффективно управлять таким массовым «комплексом мероприятий» сможет лишь сложный программный комплекс с элементами ИИ. Различные «цветные революции» можно будет устраивать буквально «в несколько кликов».

Можно ли отдавать столь мощную силу в руки частным корпорациям или позволить подобным образом влиять на сознание российского общества недружественным странам? Соответствует ли такое применение элементов ИИ этическим нормам современного, цивилизованного человека? Ответ очевиден.

Наступили времена, когда программные средства достигли такого развития, что стали играть в жизни человека ключевую роль. Что неудивительно: мир стремительно несется к созреванию пятого технологического уклада и началу формирования шестого. Эти процессы ведут к полной трансформации как хозяйственной деятельности, так и самого человеческого общества. В погоне за технологическим развитием важно не растерять те этические ориентиры, которые были выстраданы в течение двухсот тысяч лет нашей общечеловеческой истории.

Напоследок стоит отметить, что этические вопросы никогда не будут решены раз и навсегда. Они будут требовать постоянного обновления и адаптации в соответствии с развитием технологий. Решение этих вопросов потребует постоянного общения и диалога между различными группами, включая разработчиков, экспертов, общественные организации и, самое главное, государство. Все должны работать сообща, чтобы создать условия, при которых интересы всех членов общества будут учтены, а безопасность использования технологий с элементами ИИ — гарантирована. 

Фото: Taidgh Barron/ZUMA, Piero Nigro/ALTO PRESS

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

«Черный сад» раздора «Черный сад» раздора

Какими рисками для России чреваты мирные соглашения Армении и Азербайджана

Эксперт
Зонотрихии отключили чувствительные к магнитному полю нейроны на время отдыха в период миграции Зонотрихии отключили чувствительные к магнитному полю нейроны на время отдыха в период миграции

Нейроны птиц, реагирующие на магнитное поле, активны только во время миграции

N+1
Лучше дефолт, чем жить по средствам Лучше дефолт, чем жить по средствам

США оказались на пороге технического дефолта, но это не страшно

Эксперт
Серебро для браслетов царицы Хетепхерес добыли на Кикладских островах Серебро для браслетов царицы Хетепхерес добыли на Кикладских островах

Египтологи изучили находки, сделанные почти сто лет назад

N+1
Дискаунтер с элементами шика Дискаунтер с элементами шика

Федеральный ретейлер «Магнит» запускает сеть жестких дискаунтеров «Первый выбор»

Эксперт
Вот почему богатые люди не носят чехлы на телефонах. Интересный факт! Вот почему богатые люди не носят чехлы на телефонах. Интересный факт!

Отказ от чехла для телефона — это, вероятно, последний символ скрытого богатства

ТехИнсайдер
Откровения TikTok Откровения TikTok

Репортаж из дома для тиктокеров Grand House

Эксперт
Застольное многоголосье: как традиция грузинского хорового пения возвышает скромную пирушку до шедевра мировой культуры Застольное многоголосье: как традиция грузинского хорового пения возвышает скромную пирушку до шедевра мировой культуры

Запись одной из застольных песен Грузии бороздит просторы Вселенной

Вокруг света
Писатели новой эры: рожденные соцсетями Писатели новой эры: рожденные соцсетями

Новые технологии литературных дебютов и книжных продаж

Эксперт
Травмпункт на дому. Порезы, ушибы и прочие детские неприятности Травмпункт на дому. Порезы, ушибы и прочие детские неприятности

Если травма произошла, постарайся свести ее последствия к минимуму

Лиза
Пробить номер телефона: законно ли и что можно узнать? Пробить номер телефона: законно ли и что можно узнать?

По номеру телефона можно узнать много интересной информации

CHIP
Майские ставки Майские ставки

Не только крупные, но небольшие компании все активнее выходят на долговой рынок

Эксперт
Синдром «пустого костюма»: почему традиционный карьерный рост подходит не всем Синдром «пустого костюма»: почему традиционный карьерный рост подходит не всем

Почему опасно игнорировать модели современного лидерства?

Forbes
Асия: «Я пока не ощущаю никакой популярности. И не мечтаю о ней» Асия: «Я пока не ощущаю никакой популярности. И не мечтаю о ней»

Асия рассказала, почему побаивается ехать в родной город с концертом

ЖАРА Magazine
Осьминоги и кальмары «пробуют» окружающий мир своими щупальцами — и у них совершенно разные вкусы Осьминоги и кальмары «пробуют» окружающий мир своими щупальцами — и у них совершенно разные вкусы

Ученые исследовали рецепторы на присосках кальмаров и осьминогов

ТехИнсайдер
Что делать, если бросила девушка: 9 советов мужчинам Что делать, если бросила девушка: 9 советов мужчинам

Как справиться, когда любимая уходит и эмоции берут верх?

Psychologies
Физики собрали рекордно большой двумерный ионный кристалл Физики собрали рекордно большой двумерный ионный кристалл

В ловушку Пауля уместилось 105 ионов кальция

N+1
Лучший попутчик. Правила путешествия с собакой Лучший попутчик. Правила путешествия с собакой

Для собаки путешествие – это новый мир!

4x4 Club
Поразительные паразиты Поразительные паразиты

Есть в паразитах и своя пугающая красота: они изящно манипулируют хозяевами

ТехИнсайдер
Станкостроению нужен план Станкостроению нужен план

Станкостроение может выпускать станки, в том числе самые сложные и высокоточные

Эксперт
В лицах латиноамериканцев разглядели наследие неандертальцев В лицах латиноамериканцев разглядели наследие неандертальцев

Новые данные проекта по поиску участков генома в когорте латиноамериканцев

N+1
«Я стала более открытой» «Я стала более открытой»

Она принадлежит к тому типу актрис, которые «взрослеют» довольно долго

OK!
Сергей Вялов: «Поджелудочная железа создана с большим запасом прочности и может многое выдержать, но даже при этом мы умудряемся её угробить» Сергей Вялов: «Поджелудочная железа создана с большим запасом прочности и может многое выдержать, но даже при этом мы умудряемся её угробить»

Всегда ли боль в животе связана с желудком и можно ли вылечить гастрит?

Здоровье
«Не приучайте к самостоятельности»: как вырастить маменькиного сынка — 5 вредных советов «Не приучайте к самостоятельности»: как вырастить маменькиного сынка — 5 вредных советов

Как сделать все, чтобы ваш сын не мог от вас съехать в будущем?

Psychologies
Инженеры сделали полностью мягкий электродвигатель Инженеры сделали полностью мягкий электродвигатель

Этот электродвигатель можно сдавливать и растягивать во время работы

N+1
Шум не мешает пониманию прочитанного, но влияет скорость чтения Шум не мешает пониманию прочитанного, но влияет скорость чтения

Влияние звукового и визуального шума на обработку информации во время чтения

ТехИнсайдер
Не седан и без V8. Первый тест-драйв электрического Cadillac Lyriq Не седан и без V8. Первый тест-драйв электрического Cadillac Lyriq

Первый тест-драйв электромобиля Cadillac Lyriq 2023 года

РБК
«Плейлист волонтера»: почему это один из лучших сериалов о поиске пропавших без вести «Плейлист волонтера»: почему это один из лучших сериалов о поиске пропавших без вести

Зачем смотреть сериал и почему это одна из лучших историй про розыск людей

Forbes
Морской царь юрского океана был вдвое больше косаток Морской царь юрского океана был вдвое больше косаток

Челюсти этого плиозавра были мощнее, чем у ти-рекса

ТехИнсайдер
«Мама пожертвовала собой и привезла меня в Америку»: Мила Йовович опубликовала редкие фото «Мама пожертвовала собой и привезла меня в Америку»: Мила Йовович опубликовала редкие фото

Мила Йовович рассказала, на что решилась ее мать ради будущего дочери

VOICE
Открыть в приложении