Разделы
Материалы

Эмодзи вместо лиц: ученые выяснили почему технология распознавания эмоций опасна для людей

Ирина Рефаги
Фото: designboom.com

Исследователи из Кембриджского университета уверены, что технология далека от совершенства, а потому ей не место в сферах маркетинга, безопасности и медицины. И доказать это они намерены на практике.

Технологии распознавания лиц (ТРЛ), работающие на основе алгоритмов машинного обучения и искусственного интеллекта, — огромная отрасль. Разработчики утверждают, что созданные ими продукты могут быть полезными во многих сферах - от безопасности дорожного движения до маркетинговых исследований. Но критики считают, что ТРЛ не только ставят под сомнение конфиденциальность пользовательских данных, но и являются весьма неточными.

Недавно группа исследователей из Леверхалмского Центра по изучению будущих систем искусственного интеллекта при Кембриджскогом университете запустила сайт emojify.info, на котором люди могут опробовать различные системы распознавания эмоций с помощью веб-камер. Об этом сообщает издание theguardian.com. Cуть в том, чтобы обмануть ТРЛ и попытаться ввести их в заблуждение. А в это время другая система будет фиксировать все ошибки, допущенные ими и выявлять слабые места каждой из них.

Авторы проекта, таким образом, надеются повысить осведомленность пользователей о недостатках подобных технологий и спровоцировать волну дискуссий в СМИ и соцсетях. Все дело в том, что ТРЛ, часто используемые для идентификации людей, в последние годы стали предметом пристального внимания правозащитников. Так, в 2020 году Комиссия по равенству и правам человека заявила, что практику использования ТРЛ в ходе массовых проверок следует прекратить. В Комиссии считают, что это может усилить дискриминацию со стороны полиции и нанести ущерб свободе слова. Более того, системы были неточны и даже предвзяты в ходе распознавания эмоций представителей разных рас. Например, при трактовке эмоций темнокожих людей системы намного чаще ошибались, чем при распознавании лиц светлокожих людей.

Ученые уверены, что системы распознавания лиц склонны "эмодзинировать" людей
Фото: designboom.com

Большой брат следит за тобой

Доктор Алекса Хагерти, руководитель проекта emojify.info, говорит, что многие люди даже не подозревают, насколько распространены системы распознавания эмоций. Ученая отметила, что их используют в самых разных ситуациях: во время найма на работу и переговоров с потенциальными партнерами и клиентами, для обеспечения безопасности в аэропортах и ​​даже в ходе онлайн-обучения, чтобы узнать, чем заняты ученики и студенты, выполняют ли они домашние задания. А недавно власти индийского города Лакхнау заявили о том, что планируют использовать систему распознавания лиц, оснащенную ИИ, для предотвращения домагательств, которым женщины подвергаются на улицах или в общественных местах. В заявлении сказано, что когда лицо женщины, которая попадает в радиус действия камеры, будет менять выражение, устройство будет посылать уведомление правоохранителям. Но насколько точно работает система и каков диапазон распознаваемых ею эмоций, неясно. Как бы там ни было, такой шаг был раскритикован организациями, занимающимися защитой прав. Очевидно, что система будет нарушать конфиденциальность граждан. Также неизвестно, где будут храниться собранные ею данные, кто получит к ним доступ и как будет распоряжаться ими. 

Хотя технологии распознавания эмоций обладают некоторыми преимуществами, их все равно следует тестировать на предмет расовой предвзятости, а также на предмет того, является ли технология правильным инструментом для выполнения конкретных задач.

"Нам необходимо широкая общественная дискуссия, мы должны обсудить эти проблемы с людьми", — полагает ученая.

Как работают системы распознавания лиц: ролик от проекта emojify.info

Обмануть систему распознавания лиц

Именно поэтому и был запущен emojify.info. На сайте отмечается, что "никакие личные данные не собираются, и все изображения хранятся на вашем устройстве". В одной игре пользователям предлагается нарисовать серию лиц, чтобы имитировать эмоции, и посмотреть, смогут ли они обмануть систему.

"Разработчики утверждают, что ТРЛ считывает эмоции", — комментирует Хагерти. "Но на самом деле система считывает лишь мимику, то есть движения лица, а затем просто делает предположение, что эти движения связаны с определенными эмоциями. Например, улыбка означает, что кто-то счастлив".

Но ведь в жизни не все так просто — можно симулировать радость или печаль, или любую другую эмоцию. Также эмоции могут быть неоднозначными — человек может улыбаться, но при этом испытывать скорбь. А ТРЛ все это нивелируют и упрощают мимику, а также сужают эмоциональный спектр человека до уровня простых эмодзи. Проект emojify.info призван доказать несовершенство ИИ-систем на практике.

Ранее мы сообщали о том, как корпорации применяют технологию Eye tracking, чтобы узнать о нас все.