Человеческая слабость: как избавить искусственный интеллект от расизма
Если вы считаете искусственный интеллект справедливым и беспристрастным, то ошибаетесь. Он наследует не только лучшие, но и худшие качества человечества
Искусственный интеллект (ИИ), безусловно, может выполнять много важнейших функций, но имеет ли он право быть необъективным и иметь предрассудки, присущие человеку? Например, дискриминировать людей по расовому или половому признаку?
Если в компьютер заложить необъективные данные, то ИИ будет принимать необъективные решения. Например, в системах распознавания лиц от IBM и Microsoft, возникли трудности с правильным определением темнокожих женщин, поскольку программа, используемая судебными системами для прогнозирования преступлений, была ориентирована на темнокожих мужчин. Эксперимент, проведенный в университете Карнеги-Меллон еще в 2015 году, также показал, что в интернет-объявлениях с предложениями о работе с окладом более $200 000 можно увидеть «значительно меньше» фотографий женщин. Все эти системы были оснащены алгоритмом машинного обучения.
В этой ситуации появился риск возникновения «предвзятого отношения» у искусственного интеллекта, поскольку алгоритмы машинного обучения, стали широко доступными в последние несколько лет. Например, Google создал свободную программную библиотеку машинного обучения, называемую TensorFlow, которую разработчики во всем мире могут использовать для построения нейронный сетей для мобильных приложений.
Охотники на рассистов
DeepMind — одна из ведущих мировых компаний в области искусственного интеллекта, которая была приобретена Google в 2014 году и вошла в состав холдинга Alphabet. DeepMind проникли в самую суть того, как ИИ принимает свои решения.