Искусственный интеллект в Китае научили распознавать потенциальных преступников по лицам

Проанализировав сотни различных типов лица, пара университетских исследователей думают, что они выяснили, как выглядит потенциальный преступник и этому можно научить искусственный интеллект. Но, что делать простому человеку, если компьютер может сказать, что он преступник, только путем сканирования его лица? Это звучит как сюжет из жуткого фильма научной фантастики, передает Jоinfo.ua со ссылкой на Мirror.co.uk.

Пара исследователей в Китае занялась тестированием того , насколько точна их теория распознавания по типам лица. Сяолинь Ву и Си Чжан из шанхайского Jiao Tong University опубликовали исследование под названием «Автоматизированное выведение на преступника с использованием изображений лица».

По информации, которую собрал для ДжоИнфоМир журналист Георгий Полтавчук, исследователи собрали лица 1.856 человек, половина из которых были осуждены за жестокие преступления, в компьютер и принялся анализировать их.

Это были фотографии китайских мужчин в возрасте от 18 до 55 лет, без бороды, шрамов или других отличительных признаков.

Согласно результатам исследования, они обнаружили, что есть некоторые дискриминирующее структурные особенности прогнозирования преступности. Это кривизна губ, внутренний угол глаза, а угол между носом и ртом.

Проведя исследования, китайцы уверенно заявили, что создали едва ли не «судью будущего».

 «Мы показали, что с помощью контролируемого машинного обучения, классификаторы способны сделать надежные выводы о преступности», — заявили экспериментаторы.

То есть, по мнению исследователей, если у вас какой-то не такой изгиб губ — компьютер будет думать, что вы жулик. И компьютер не может быть предвзятым, поскольку не боится угроз и давления.

«В отличие от человека экзаменатора или судьи, алгоритм компьютерного зрения или классификатор не имеет абсолютно никаких субъективных причин, не имеет никаких эмоций, никаких предубеждений из-за прошлого опыта, расы, религии, политической доктрины, пола, возраста и т.д. У машины нет ни умственной усталости из-за плохого сна или еды», — говорят китайские эксперты.

Стоит отметить, что в мире юриспруденции трезво оценили работу исследователей, хотя сразу отметили, что идея предоставить компьютеру решить, кто будет убийцей, вором или грабителем только потому, что так они выглядят – не соответствует моральным и юридическим принципам. Ведь так можно дойти до геноцида и катастрофы человечества, истребляя или сажая людей только по их внешним физиологическим данным.

Понравилась статья? Тогда поделитесь ею в соцсетях.



Это стоит посмотреть! 

В России референдум - экстремизм