Распознавание лиц

Ранее в этом году The New York Times рассказала эту историю и повысила осведомленность общественности о малоизвестном стартапе

Ранее в этом году The New York Times рассказала эту историю и повысила осведомленность общественности о малоизвестном стартапе по распознаванию лиц Clearview AI, который продает свою спорную технологию более чем 600 правоохранительным органам и полицейским подразделениям по всему миру. Генеральный директор Hon Ton-That говорит, что преимущества этой технологии включают в себя возможность полиции быстро и эффективно идентифицировать преступников, часто по одной фотографии, загруженной в сервис.

Технология распознавания лиц уже используется в различных масштабах по всему миру. По оценкам, 18 000 департаментов США в настоящее время используют этот инструмент, и многие офицеры утверждают, что им удалось раскрыть очень старые неразрешенные дела, начиная от сексуального насилия над детьми и заканчивая нападениями, а также пресечь нелегальный выезд преступников из страны. Существует бесчисленное множество полезных применений этой технологии, но также много скрытых проблем по таким вопросам, как конфиденциальность и предвзятость. Применяемая прозрачно с мудростью, эта технология действительно может революционизировать безопасность в наших сообществах. Но слишком быстро внедренная или без должного понимания ее различных возможностей, она может привести к опасным или даже трагическим последствиям.

Когда вы слышите о технологии распознавания лиц, возможно, вы думаете о Face ID на iPhone или даже о технологии Clear, используемой в крупных аэропортах. Но многие люди боятся технологии распознавания лиц из-за потенциального вторжения в частную жизнь и роста наблюдения со стороны государства. Кто следит за нами, что они знают, и в безопасности ли мои данные? Но еще одной важной этической проблемой этой технологии является потенциальная расовая предвзятость или профилирование, что может привести к дополнительному расовому профилированию и нанести вред нашим цветным братьям и сестрам.

Системы распознавания лиц построены на различных фрагментах данных изображений, они подаются в систему искусственного интеллекта (ИИ), которая может помочь идентифицировать потенциальные совпадения фотографий с различным уровнем точности. Но если присутствуют какие-либо проблемы с качеством данных, количеством входных данных или даже с тем, как система используется, поскольку она продолжает совершенствоваться, это может привести к ложным срабатываниям, которые приведут к разрушительным последствиям в ситуациях с высокими ставками.

Учитывая возможность расовой предвзятости и профилирования, если на эти инструменты чрезмерно полагаются или они используются без разбора полицией или правительственными чиновниками — IBM и Amazon недавно объявили, что либо прекращают всю работу по распознаванию лиц, либо вводят годовой мораторий на инструменты распознавания лиц для полиции. Они присоединяются ко многим штатам и муниципалитетам, которые запретили или жестко регламентировали использование систем распознавания лиц полицией. На федеральном уровне также усиливается давление в отношении всеобъемлющего законопроекта, регулирующего эту технологию в полицейской деятельности.

Учитывая, что доверия в наших сообществах подорвано, и что существуют проблемы расовой предвзятости при использовании технологий распознавания лиц, мы поступили бы мудро и милосердно, если бы замедлили внедрение этих мощных инструментов в наших сообществах. Необходимо потратить время на обсуждение этических вопросов, а также на достаточную проверку технологий и учет предвзятости, прежде чем они будут использоваться в массовом порядке.

В декабре 2019 года Национальный институт стандартов и технологий США опубликовал доклад, демонстрирующий врожденную предвзятость, которую эти системы могут непреднамеренно демонстрировать. Исследователи оценили 189 различных алгоритмов всей отрасли и обнаружили некоторые тревожные тенденции. Команда ученых выявила «повышенные показатели ложных срабатываний в случаях с азиатскими и афроамериканскими лицами по сравнению с изображениями кавказцев», особенно у афроамериканских женщин. Высокие ложные срабатывания были также обнаружены среди коренных американцев, индейцев Аляски, жителей тихоокеанских островов.

Неверная идентификация фотографии человека на Facebook или в приложении для фотографий вашего телефона — это довольно безобидная ошибка распознавания лиц. Но неверная идентификация личности в часто нестабильной полицейской ситуации может привести к гибели, особенно это касается цветных людей. Все технологии, особенно те, которые управляются продвинутыми системами искусственного интеллекта — будут иметь недостатки, ошибки и даже предубеждения, потому что они созданы человеческими существами, которые склонны ошибаться. Но, как пишет профессор этики ИИ Марк Кокельбург «хотя проблемы предвзятости и дискриминации всегда присутствовали в обществе, беспокойство вызывает то, что ИИ может увековечить эти проблемы и увеличить их влияние». Даже если эти предубеждения не являются преднамеренными или злонамеренными, они могут в неправильных или неподготовленных руках привести к гибели людей.

При принятии решений в случаях, когда ставки высоки, мы должны быть осторожны, чтобы не стать чрезмерно зависимыми от ошибочных технологий, подобных этой. Как пишет в своей книге «Инструменты и оружие» президент Microsoft Брэд Смит: «даже в демократическом и свободном обществе наша полиция может чрезмерно полагаться на этот инструмент для идентификации подозреваемого, не понимая, что распознавание лиц, как и любая технология, не всегда работает идеально».

Христианский взгляд

Часто, торопясь внедрить технологические инновации, мы не успеваем остановиться и задуматься о том, как технологии могут привести к непредвиденным последствиям. Эта тенденция стремглав бросаться в инновации без должной этической рефлексии, к счастью, признается компьютерщиками, руководителями корпораций и религиозными лидерами.

Когда мы пытаемся осмыслить эти этические границы, мы не должны замалчивать проблему того, что уникальность и ценность каждой человеческой жизни меняется на некоторую утилитарную пользу в обществе. С христианской точки зрения достоинство человека наиболее ясно проявляется в образе Бога (Быт.1:26-28). Ни одна человеческая жизнь не является более ценной, чем другая; ни одна человеческая жизнь не является расходной. Это достоинство, дарованное Нашим Создателем, должно определять то, как мы используем технологии в эпоху искусственного интеллекта. На карту поставлены реальные человеческие жизни: наши братья, сестры, матери, отцы, дети и друзья. Защита Библейского взгляда на человека может уберечь нас от дегуманизирующих тенденций общества, которое ставит полезность и эффективность выше человеческого достоинства.

Христиане также призваны самим Иисусом Христом к очень простому, но бесконечно глубокому этическому стандарту: «Возлюби ближнего твоего, как самого себя» (от Марка 12:31). Эти рамки заставляют меня жертвовать своими привилегиями, удобством, комфортом и безопасностью, чтобы любить своего ближнего таким образом, чтобы защитить его неотъемлемое достоинство и защитить его от несправедливости, маргинализации и злоупотреблений. Таким образом, мы должны проклинать все, что наносит вред или дискриминирует брата, или сестру другой национальности, независимо от того, происходит ли это намеренно или непреднамеренно.

Использование технологии распознавания лиц в полиции — особенно в обстановке глубокого недоверия — в лучшем случае неразумно и опасно, а в худшем — смертельно опасно. Нам нужно больше публичных дебатов как о том, как мы планируем использовать распознавание лиц, так и об этических вопросах, стоящих на кону. Придет время, когда проверенное использование этой технологии действительно сможет сделать мир более безопасным и справедливым местом. Но это время еще не пришло, поэтому терпение и осторожность—ради ближних, которых мы призваны любить, необходимы.

 

Автор статьи – Джейсон Тайкер


 Источник 

Фото