Полицейским в Англии будет помогать искусственный интеллект

  • 11 мая 2017
Наручники Правообладатель иллюстрации Getty Images
Image caption Алгоритм тестировался в течение трех лет

Полиция города Дарема на севере Англии запускает компьютерную программу, которая при помощи алгоритма искусственного интеллекта должна помочь полицейским определить, кого следует содержать под стражей, а кого можно отпустить.

Алгоритм классифицирует задержанных по степени риска - с какой вероятностью они могут вновь совершить преступление.

Программа - Harm Assessment Risk Tool (Hart) - "изучала" данные полиции Дарема об арестах за период в пять лет, между 2008 и 2012 годами.

Затем система была протестирована даремской полицией в 2013 году, после чего в течение двух лет изучались результаты этого тестирования - полицейские отслеживали, вернулись ли освобожденные к преступной жизни или нет.

Как выяснилось, алгоритм мог предсказать, что задержанный не представляет опасности в 98% случаев. А находящихся в группе "высокого риска" компьютер правильно выявлял в 88% случаев.

Это отражает настройки алгоритма искусственного интеллекта - он запрограммирован "осторожничать" и классифицировать задержанных людей чаще в группы среднего или высокого риска - чтобы не выпускать на свободу тех, кто может снова совершить преступление.

В ходе испытаний программы полицейские следили за выводами Hart, но вердикт алгоритма не влиял на принятие решения об аресте, говорит Шина Эрвин из даремской полиции.

"Я думаю, что в течение ближайших двух или трех месяцев мы, скорее всего, предоставим эту программу в качестве подспорья полицейским, принимающим решения", - сказала она в интервью Би-би-си.

Шина Эрвин говорит, что подозреваемые, ранее не совершавшие преступлений, с меньшей вероятностью будут записаны алгоритмом искусственного интеллекта в категорию высокого риска. Однако если они арестованы по подозрению в серьезном преступлении, как, например, убийство, то это отразится на оценке программы.

В разработке этой программы принимал участие профессор Лоуренс Шерман из Кембриджского университета.

По его словам, программа может быть хорошим помощником во многих случаях: когда полиции следует решить, держать ли задержанного еще несколько часов; следует ли отпустить его под залог до того, как ему будут предъявлены официальные обвинения, и стоит ли держать его под арестом после предъявления обвинений.

В ходе нового эксперимента полицейские будут использовать систему при рассмотрении лишь ряда дел, выбранных случайным путем.

Вопрос о дискриминации

В 2016 году американский новостной сайт ProPublica опубликовал результаты исследования алгоритма, который использовала полиция для того, чтобы определить шансы рецидивизма среди арестованных.

Исследование показало, что в алгоритм заложена расовая необъективность: программа давала гораздо более негативные прогнозы в отношении чернокожих арестантов по сравнению с белыми задержанными. Компания, создавшая этот алгоритм, отрицает выводы ProPublica.

Правообладатель иллюстрации Getty Images
Image caption Алгоритмы создают люди, и они могут заразить компьютер своими предубеждениями

"В каком-то смысле компьютерные модели наглядно демонстрируют скрытые и подсознательные допущения, к которым прибегают люди", - говорит профессор Пенсильванского университета Кэри Кольянезе, который изучает процессы принятия решений при помощи алгоритмов.

"Довольно сложно определить, насколько именно эти компьютерные модели склонны к дискриминации", - говорит он.

Даремская система учитывает не только информацию о прошлых преступлениях подозреваемого, но также его почтовый индекс и пол.

Рекомендательный характер

В ответ на запрос парламентской комиссии, рассматривавшей возможные проблемы процесса принятия решений на основе выводов алгоритмов, создатели даремской системы заявляют, что они уверены в том, что им удалось ограничить возможность дискриминационного подхода к арестованным.

"Информация о почтовом индексе никак напрямую не отражается на результате - окончательное решение зависит от того, как эта информация увязывается с тысячами других возможных факторов", - говорят они.

Они также подчеркивают, что любой вывод алгоритма носит лишь рекомендательный характер и ни в коем случае не отбирает у полиции прерогативу принимать окончательное решение о судьбе задержанного.

Профессор Шерман также говорит, что этот алгоритм должен сохранять все данные о том, как программа пришла к определенному выводу.

Правообладатель иллюстрации Getty Images
Image caption Программа Hart имеет доступ лишь к данным даремской полиции

По словам Шины Эрван, возможности этой программы ограничены.

Например, на данный момент система оперирует лишь данными даремской полиции, и у нее нет доступа к общенациональным компьютерным системам британских правоохранительных органов.

Это означает, что если полиция Дарема арестует человека, совершавшего тяжкие преступления в других регионах Британии, алгоритм не сможет точно определить, насколько опасен этот человек.

"Это проблема", - признает Хелен Райан из Винчестерского университета. При этом она добавляет, что "даже без этой системы полиция испытывает затруднения в том, что касается доступа к информации".

Однако, по ее словам, даремский эксперимент чрезвычайно интересен. "Потенциально компьютеры - при наличии достаточного количества информации - могут принимать гораздо более точные решения , чем люди", - считает она.

Новости по теме