Новая компьютерная программа вычисляет террориста по фотографии

Израильские разработчики создали программу, которая может идентифицировать террориста или педофила по снимкам.

Израильские разработчики создали программу, которая может идентифицировать террориста или педофила по снимкам.
Фотография Global Look Press.

Характеристики некоторых новых "архетипов" людей, которые есть в картотеке новой программы.

Характеристики некоторых новых "архетипов" людей, которые есть в картотеке новой программы.
Иллюстрация с сайта faception.com.

Израильские разработчики создали программу, которая может идентифицировать террориста или педофила по снимкам.
Характеристики некоторых новых "архетипов" людей, которые есть в картотеке новой программы.
Учёные создали программу, которая может по одной лишь фотографии вычислить педофила, террориста или другого социально опасного человека. Корреспондент "Вести.Наука" попробовал разобраться, почему столь важную разработку многие эсперты назвали опасной.

Может ли программа выявить сложные черты личности, просто проанализировав лицо человека, например, на фотографии? Сотрудники Faception, компании, основанной в Израиле, инициировали дискуссию вокруг этой темы, заявив, что их техника способна на это.

Более того, по их утверждению, технология позволяет не просто разделить людей по банальным категориям – интроверт, экстраверт. Она может обнаружить террористов, педофилов и других социально опасных людей.

Алгоритм Faception исследует изображения человека, полученные из разных источников, включая загруженные фотографии, видео и снимки из базы данных. Затем хитроумный Faception высчитывает численные параметры черт, включая соотношение ширины и высоты разных частей лица, отмечает для себя другие ключевые параметры. Например, как расположены уголки глаз и рта.

Но всё это, можно сказать, стандартная процедура. "Использование автоматизированной "экстракции" является обычной мерой для распознавания лица и эмоций", — поясняет Райя Хэдселл (Raia Hadsell), инженер машинного зрения в подразделении Google DeepMind.

А вот то, как дальше работает программа, вызывает нарекания у экспертов. Отмечается, что Faception затем классифицирует лица в 15 групп, которые израильские учёные разработали за последние три года. Категории включают в себя террориста, педофила, должностного преступника, игрока в покер, игрока в лотерею и академика.

По словам директора по технологиям Faception Ицика Вильфа (Itzik Wilf), для того чтобы придумать эти нестандартные архетипы, они тренировали систему на общих чертах лиц с тысяч изображений известных людей всех категорий.

Подчеркивается, что программное обеспечение обращает внимание только на черты лица и игнорирует такие особенности, как причёска или украшения.

Характеристики некоторых новых "архетипов" людей, которые есть в картотеке новой программы.

Вильф добавляет, что это привело к заметным успехам в работе: при представлении программе фотографий 11 людей, стоящих за терактами в Париже в 2016 году, алгоритм классифицировал девять из них как террористов. Аналогичным образом он вычислил 25 из 27 игроков в покер по базе данных изображений.

Сотрудники Faception также рассматривают и более прозаичное использование своей новой технологии — в маркетинге и рекрутинге, или подборе персонала. "Кадровые службы могут использовать эту технологию для поиска подходящих кандидатов", — говорит Вильф, отмечая, что алгоритм может классифицировать людей в те или иные категории примерно с 80-процентной точностью.

Но многие исследователи машинного зрения считают это нечестной игрой. Так, по мнению Джея Туркота (Jay Turcot) из компании Affectiva, технология имеет серьёзные недостатки. "Что такая программа скажет о людях, которые имеют тот же возраст, пол, волосы на лице, как и террористы в Париже? Как много ложных утверждений выдаст такой алгоритм?". И действительно, цена ошибки высока — пока спецслужбы разберутся в невиновности человека, его жизнь может радикально измениться. Не говоря уже о том, что может быть потеряно время, и настоящий преступник успеет скрыться.

В ответ на такую критику Вильф замечает, что всегда есть вопросы к точности работы таких алгоритмов. По этой причине программа никогда не будет работать сама по себе и ставить "диагнозы" — окончательный вывод всегда будет за человеком.

В последние годы технология распознавания лиц находится в центре вниманий многих дискуссий. Так, совсем недавно обсуждалась тема вокруг российского приложения FindFace, которое подбирает идентификационные данные из социальной сети ВКонтакте. С её помощью пользователи могут найти людей, которых они встретили на улице, то есть простых прохожих. Понятно, что приложением могут воспользоваться не только спецслужбы, но и преступники.

Впрочем, по словам Вильфа, их компания не собирается сотрудничать с теми, кто намерен использовать технологию для таких целей. "Это новая идея, а новые идеи часто встречают с опаской", — заключает он.

Добавим, что "Вести.Наука" ранее сообщали о другой программе, которая позволяет восстановить черты лица человека по его ДНК.