Распознавание эмоций и лиц: помощь полиции или путь в антиутопию?

  • 17 июля 2018
Чтение лица женщины Правообладатель иллюстрации Affectiva
Image caption Компания Affectiva специализируется на алгоритмах распознавания скрытых эмоций

Технология распознавания лиц все больше усложняется, и некоторые компании заявляют, что алгоритмы уже способны даже читать эмоции и улавливать подозрительное поведение. Но каковы последствия этого для неприкосновенности личной жизни и гражданских свобод?

Распознавание лиц существует уже десятки лет, но скачкообразно эта технология развивается только в последние годы благодаря достижениям в областях компьютерного зрения и искусственного интеллекта.

Теперь эта технология используется для распознания людей на границе, разблокировки телефонов, поимки преступников и подтверждения банковских операций. Но некоторые технологические компании говорят, что алгоритмы распознавания лиц могут анализировать и наше эмоциональное состояние.

С 1970 года психологи способны распознавать скрытые эмоции, изучая "микровыражения" на лицах на фотографих и видео. Алгоритмы и камеры высокой четкости справятся с этим даже лучше и быстрее, говорят в технологических компаниях.

"Мы уже видим, как это используется в коммерческих целях", - поясняет Оливье Филиппу, эксперт по системам видеонаблюдения в IHS Markit.

Правообладатель иллюстрации Apple
Image caption iPhone X можно разблокировать с помощью технологии распознавания лиц

"Супермаркеты могут использовать эту технологию в проходах, не для установления личности, а для анализа публики - в плане возраста, пола, а также их настроения. Это может помочь в целевом маркетинге и при размещении товаров", - рассказывает Филиппу.

Агентство по исследованиям рынка Kantar Millward Brown использует технологию, разработаную американской фирмой Affectiva для измерения реакции зрителей на ТВ-рекламу. Affectiva записывает видео с лицами людей - с их разрешения - и потом "кодирует" их выражения лиц по кадрам, чтобы понять их настроение.

"Мы опрашиваем людей, но намного больше нюансов получаем, если смотрим и на выражения лиц. Можно увидеть, какая точно часть рекламного ролика хорошо работает и вызывает эмоциональный отклик", - говорит Грэхем Пейдж, управляющий директор по предложениям и инновациям в Kantar Millward Brown.

Правообладатель иллюстрации WeSee
Image caption Технология WeSee используется для доступа к эмоциональному состоянию людей во время интервью

Это может показаться сомнительным, но некоторые стартапы предлагают "выявление эмоций" в качестве меры безопасности. Британская компания WeSee, к примеру, утверждает, что искуственный интеллект выявляет подозрительное поведение, "читая" незаметные невооруженному глазу подсказки.

Такие эмоции, как сомнение и злость, могут скрываться под маской и контрастировать с тем, что говорит человек. WeSee утверждает, что работает с "высокопоставленной" правоохранительной организацией, анализируя интервьюируемых людей.

"Используя только видео низкого качества, наша технология может установить настроение человека или его намерения с помощью его выражений, позы, жестов и движений", - заявил Би-би-си исполнительный директор Дэвид Фултон.

"В будущем видеокамеры на платформах станций метро смогут использовать нашу технологию для распознания подозрительного поведения и оповещать власти о потенциальной террористической угрозе".

Image caption Может ли наблюдение за эмоциями заметить человека, который создаст проблемы на публичном мероприятии?

"То же самое можно использовать в толпах на мероприятиях вроде футбола или политических митингах", - говорит Фултон.

Эксперт по системам видеонаблюдения Оливье Филиппу, однако, скептически отзывается о точности определения эмоций по камерам.

"Когда нужно просто распознать лицо, все еще нередко происходят ошибки - даже лучшие компании говорят, что могут распознать людей с точностью 90-92 процента. Когда вы пытаетесь оценить еще и эмоции, вероятность ошибки намного больше", - подчеркивает он.

Это и беспокоит борцов за неприкосновенность личной жизни, которые боятся, что технология распознавания лиц способна на неверные и предвзятые суждения.

"Хотя я понимаю, что есть действительно полезные примеры использования, последствия распознавания лиц для неприкосновенности частной жизни могут быть небывалыми", - говорит Фредерике Кальтеунер из правозащитной организации Privacy International.

Простое распознавание лиц - достаточно спорная тема.

Правообладатель иллюстрации South Wales Police
Image caption Полиция Южного Уэльса сканирует лица используя камеры наблюдения

Посетители фестиваля Би-би-си Biggest Weekend в Суонси в мае, вероятно, не знали, что сканирование их лиц - часть большой системы наблюдения полиции Южного Уэльса.

Полиция использует систему автоматического распознавания лиц (AFR), которая подключена к камерам наблюдения, и программное обеспечение от компании NEC, чтобы идентифицировать "искомых людей" и сравнивать их лица с базой данных по лицам в розыске.

Один человек по ордеру был найден и арестован "в течение 10 минут" с момента, как программа была установлена на фестивале, говорит Скотт Ллойд, глава проекта по автоматическому распознаванию лиц в полиции Южного Уэльса.

Однако правозащитная группа Liberty говорит о и том, что технология дала множество "ложноположительных" результатов на других мероприятиях, таких как финал Лиги Чемпионов в Кардиффе в прошлом году.

В июле житель Кардиффа Эд Бриджес, интересы которого представляет Liberty, подал иск в связи с системами распознавания лиц. Он утверждает, что AFR нарушает тайну частной жизни и за ней отсутствует должный контроль. Иск будет рассматриваться в Высоком суде Лондона.

Технология становится более надежной, говорит Патрик Гротер, глава отдела биометрического тестирования Национального Института стандартов и технологий федерального агентства США, которое руководит исследованиями распознавания лиц.

Правообладатель иллюстрации AFP
Image caption Китайская полиция начала использовать очки с системой распознавания лиц

Он приписывает технологическому прогрессу развитие "сверхточных нейронных сетей" - расширенную форму машинного обучения, которая предполагает более высокий уровень точности.

"Эти алгоритмы позволяют компьютерам анализировать изображения под разными углами и в разных масштабах", - говорит он.

"Можно распознавать лица намного точнее, даже если они частично закрыты очками или шарфами. Коэффициент ошибок снизился в десять раз с 2014 года, хотя любой алгоритм не идеален".

Фултон из WeSee говорит, что технология - это просто инструмент, чтобы помогать людям анализировать видеозаписи более разумно. Он добавляет, что WeSee может распознавать эмоции так же эффективно, как и человек - "с 60-70-процентной точностью".

Больше технологий

Правообладатель иллюстрации Magnum Photos

"Сейчас мы можем распознавать подозрительное поведение, но не намерение, чтобы предотвратить что-либо. Но, думаю, все идет к тому, и мы уже делаем тесты в этой области", - говорит Фултон.

Это выглядит как шаг в сторону "допреступной" концепции, упоминаемой в фантастическом фильме "Особое мнение", где потенциальных преступников арестовывают до того, как они совершили преступление. Не повод ли это еще больше забеспокоиться организациям, защищающим гражданские свободы?

"Ключевой вопрос, который мы себе задаем: кто делает эту технологию и для чего?, - говорит Фредерик Кальтеунер. - Она используется, чтобы помогать или чтобы судить, анализировать и контролировать нас?".

Похожие темы

Новости по теме