Несуществующие люди воспринимаются более реальными, чем настоящие, - исследование
Даже если вы думаете, что хорошо разбираетесь в лицах, исследования показывают, что многие люди не могут легко отличить фотографии реальных лиц от изображений, созданных компьютером.
Недавно фальшивый профиль LinkedIn с созданным компьютером изображением в качестве фотографии попал в новости, потому что он успешно связался, например, с официальными лицами США и другими влиятельными лицами на сетевой платформе, пишет Science Alert. Эксперты контрразведки даже говорят, что шпионы регулярно создают фантомные профили с такими фотографиями, чтобы отслеживать иностранные цели через социальные сети.
В Фокус.Технологии появился свой Telegram-канал. Подписывайтесь, чтобы не пропускать самые свежие и интересные новости из мира науки!
Эти "глубокие фейки" (дипфейки) становятся широко распространенными в повседневной культуре, а это означает, что люди должны лучше знать, как они используются в маркетинге, рекламе и социальных сетях. Изображения также используются в злонамеренных целях, таких как политическая пропаганда, шпионаж и информационная война.
Для их создания используется так называемая глубокая нейронная сеть (нейросеть) — компьютерная система, которая имитирует способ обучения мозга. Это "обучение" происходит, подвергая нейросеть воздействию все более крупных наборов данных реальных лиц.
По сути, две глубокие нейросети настроены друг против друга, соревнуясь в создании наиболее реалистичных изображений. В результате конечные продукты называются образами GAN, где GAN означает Генеративно-состязательная Сеть". Процесс генерирует новые изображения, которые статистически неотличимы от обучающих изображений.
В исследовании, ученые показали, что неспособность отличить эти искусственные лица от настоящих влияет на наше поведение в сети. Их исследование показывает, что поддельные изображения могут подорвать наше доверие к другим людям и коренным образом изменить то, как мы общаемся в Интернете.
Исследователи и их коллеги обнаружили, что люди воспринимали лица GAN как более реалистичные, чем настоящие фотографии лиц реальных людей. Хотя пока неясно, почему это так, это открытие подчеркивает последние достижения в технологии, используемой для создания искусственных изображений.
Ученые также обнаружили интересную связь с привлекательностью: лица, которые были оценены как менее привлекательные, также были оценены как более реальные. Менее привлекательные лица могут считаться более типичными, и типичное лицо может использоваться в качестве эталона, по которому оцениваются все лица. Следовательно, эти лица GAN будут выглядеть более реальными, потому что они больше похожи на ментальные шаблоны, которые люди построили из повседневной жизни.
Но восприятие этих искусственных лиц как подлинных может также иметь последствия для общего уровня доверия, которое люди распространяют на круг незнакомых им людей — концепция, известная как "социальное доверие".
Люди часто слишком много вчитываются в лица, которые видят, и первые впечатления, которые они формируют, определяют их социальные взаимодействия. Во втором эксперименте, который стал частью последнего исследования, ученые увидели, что люди с большей вероятностью доверяют информации, передаваемой лицами, которые они ранее считали реальными, даже если они были созданы искусственно.
Неудивительно, что люди больше доверяют лицам, которые они считают реальными. Но исследователи обнаружили, что доверие было подорвано, как только люди были проинформированы о потенциальном присутствии искусственных лиц в онлайн-взаимодействии. Затем они показали более низкий уровень доверия в целом — независимо от того, были ли лица настоящими или нет.
Этот результат можно считать в некотором смысле полезным, потому что он сделал людей более подозрительными в среде, где могут действовать поддельные пользователи. Однако, с другой точки зрения, это может постепенно подорвать саму природу онлайн общения.
Как правило, мы склонны исходить из предположения по умолчанию, что другие люди в основном реальны, правдивы и заслуживают доверия. Рост количества поддельных профилей и другого искусственного онлайн-контента поднимает вопрос о том, насколько их присутствие и наши знания о них могут изменить это состояние "правды по умолчанию", в конечном итоге подорвав социальное доверие.
Переход к миру, в котором реальное неотличимо от нереального, может также сместить культурный ландшафт с преимущественно правдивого на преимущественно искусственный и обманчивый.
Если мы регулярно подвергаем сомнению правдивость того, что мы видим в сети, это может потребовать от нас перенаправить наши умственные усилия с обработки самих сообщений на обработку личности автора сообщения. Другими словами, широкое использование очень реалистичного, но искусственного онлайн-контента может заставить нас думать по-другому — так, как мы этого не ожидали.
В психологии используют термин "мониторинг реальности" для того, чтобы правильно определить, исходит ли что-то из внешнего мира или из нашего мозга. Развитие технологий, которые могут создавать поддельные, но очень реалистичные лица, изображения и видеозвонки, означает, что мониторинг реальности должен основываться на информации, отличной от наших собственных суждений. Это также призывает к более широкому обсуждению того, может ли человечество все еще позволить себе игнорировать истину по умолчанию.
Ученые заявили, что крайне важно, чтобы люди были более критичны при оценке цифровых лиц. Это может включать использование обратного поиска изображений для проверки подлинности фотографий, осторожность в отношении профилей в социальных сетях с небольшим количеством личной информации или большим количеством подписчиков, а также осведомленность о возможности использования технологии дипфейков в гнусных целях.
Следующим рубежом в этой области должны стать улучшенные алгоритмы обнаружения поддельных цифровых лиц. Затем они могут быть встроены в платформы социальных сетей, чтобы помочь нам отличить настоящее от подделки, когда дело доходит до лиц новых знакомых.
Ранее Фокус писал, что ученые выяснили, какие личные качества не дают людям верить фейковым новостям. Согласно исследованию, проницательность играет решающую роль в способности оценивать точность информации. Люди с умением решать незаурядные проблемы, с меньшей вероятностью поведутся на фейки.