Когда речь заходит о том, отпустить ли преступника под залог, освободить заключенного досрочно или оставить досиживать свой срок, на помощь судьям часто приходят специальные прогностические программы. Эти программы оценивают, чего ждать от человека, судя по тому, как он вел себя раньше, что совершил, в какой семье рос и т. д. Считается, что машинный алгоритм сработает здесь лучше, чем живой судья, у которого есть свои предубеждения, свои симпатии, который не может все учесть и потому с большей вероятностью может ошибиться.
Исследователи из Дартмутского колледжа решили проверить, действительно ли компьютерный алгоритм предсказывает поведение рецидивистов лучше, чем человек. Для сравнения взяли программу COMPAS, которая рассчитывает вероятность того, что преступник в течение двух лет после освобождения снова совершит что-то криминальное. COMPAS использует некие шесть параметров, но какие это параметры и как именно программа их оценивает, разработчики алгоритма держат в секрете.
С программой соревновались 400 человек, которых набрали по объявлению в интернете и которые в своей жизни с уголовной криминалистикой ни разу или почти ни разу не сталкивались. Их разбили на группы по двадцать человек, и каждой группе дали на изучение личные дела пятидесяти подсудимых – то есть в сумме количество уголовных дело равнялось тысяче. Ту же тысячу должен был проанализировать и компьютер.
В статье в Science Advances говорится, что и алгоритм, и живые участники эксперимента оценили преступников с одинаковой точностью примерно в 65% – то есть в 65% случаев в подсудимом совершенно правильно подозревали рецидивиста. И здесь важна не столько цифра сама по себе, сколько то, что программа предсказывала поведение не лучше обычных людей – в этом смысле компьютер работал вполне по-человечески.
Тут нужно заметить, что подобные программы в некоторых странах используются не год и не два. Вполне понятно, почему они пользуются известной популярностью: если попросить нас выбрать, чему мы доверяем больше – дорогому софту, разработанному в специальной фирме специальными разработчиками, или двадцати посторонним людям из интернета – то мы, очевидно, выберем софт.
Проблема, однако, в том, что программы пишут люди, перенося в алгоритм погрешности собственного мышления. Никто не спорит, что в некоторых случаях компьютер работает лучше человека, но, вероятно, только не в прогнозировании поведения отдельно взятого преступника.
Авторы работы вообще сомневаются в том, что тут нужны компьютерные методы: они сами написали еще несколько алгоритмов, которые предсказывали рецидивистов по разным признакам, числом от двух до семи, и все эти алгоритмы работали ничуть не точнее живых людей. И возможно, что если бы программы соревновались не с обычными людьми со стороны, а с полицейскими или, например, работниками соцслужб, то «человеческая сборная» могла бы даже и выиграть с заметным отрывом.
Мы уже как-то писали о том, что компьютерные программы перенимают наши культурные стереотипы: так, лингвистические роботы вполне могут «заразиться» расизмом, сексизмом и эйджизмом. Тот искусственный интеллект, который мы можем конструировать сейчас, порой выглядит просто продолжением человеческого интеллекта, пусть работающим намного быстрее, но не лишенным специфических человеческих перекосов.
Вероятно, и в предсказании преступлений произошло нечто похожее. Вывод отсюда довольно банальный: компьютер нужен там, где он действительно может сделать работу лучше человека. В частности, в том, что касается криминалистики, как полагают некоторые специалисты, алгоритмы нужно использовать не для предсказаний индивидуального поведения, а для оценки ситуации в целом, для того, чтобы понять, какие преступления в обществе выйдут на первый план в ближайшем будущем.