Навіть якщо ви думаєте, що добре знаєтеся на лицях, дослідження показують, що багато людей не можуть легко відрізнити фотографії реальних осіб від зображень, створених комп'ютером.
Нещодавно фальшивий профіль LinkedIn зі створеним комп'ютером зображенням як фотографію потрапив у новини, тому що він успішно зв'язався, наприклад, з офіційними особами США та іншими впливовими особами на мережевій платформі, пише Science Alert. Експерти контррозвідки навіть кажуть, що шпигуни регулярно створюють фантомні профілі з такими фотографіями, щоб відстежувати іноземні цілі через соціальні мережі.
У Фокус.Технології з'явився свій Telegram-канал. Підписуйтесь, щоб не пропускати найсвіжіші та найцікавіші новини зі світу науки!
Ці "глибокі фейки" (діпфейки) стають широко поширеними у повсякденній культурі, а це означає, що люди повинні краще знати, як вони використовуються у маркетингу, рекламі та соціальних мережах. Зображення також використовуються у зловмисних цілях, таких як політична пропаганда, шпигунство та інформаційна війна.
Для створення використовується так звана глибока нейронна мережа (нейромережа) — комп'ютерна система, яка імітує спосіб навчання мозку. Це "навчання" відбувається, піддаючи нейромережі впливу все більших наборів даних реальних осіб.
По суті, дві глибокі нейромережі налаштовані одна проти одної, змагаючись у створенні найреалістичніших зображень. У результаті кінцеві продукти називаються образами GAN, де GAN означає "Генеративно-змагальна мережа". Процес генерує нові зображення, які статистично не відрізняються від навчальних зображень.
У дослідженні вчені показали, що нездатність відрізнити ці штучні лиця від справжніх впливає на нашу поведінку в мережі. Їхнє дослідження показує, що підроблені зображення можуть підірвати нашу довіру до інших людей і докорінно змінити те, як ми спілкуємося в інтернеті.
Дослідники та їхні колеги виявили, що люди сприймали обличчя GAN як реалістичніші, ніж справжні фотографії реальних людей. Хоча поки незрозуміло, чому це так, це відкриття підкреслює останні досягнення в технології, що використовується для створення штучних зображень.
Вчені також виявили цікавий зв'язок із привабливістю: лиця, які оцінені як менш привабливі, також оцінені як реальніші. Менш привабливі лиця можуть вважатися типовішими, і типове обличчя може використовуватися як зразок, за яким оцінюються всі інші. Отже, ці лиця GAN виглядатимуть реальнішими, тому що вони більше схожі на ментальні шаблони, які люди побудували з повсякденного життя.
Але сприйняття цих штучних лиць як справжніх може мати наслідки для загального рівня довіри, яке люди поширюють на коло незнайомих їм людей — концепція, відома як "соціальна довіра".
Люди часто надто багато вчитуються в обличчя, які бачать, та перші враження, які вони формують, визначають їхні соціальні взаємодії. У другому експерименті, який став частиною останнього дослідження, вчені побачили, що люди з більшою ймовірністю довіряють інформації, що передається особами, які раніше вважали реальними, навіть якщо вони були створені штучно.
Не дивно, що люди більше довіряють лицям, які вважають реальними. Але дослідники виявили, що довіра була підірвана, як тільки люди були проінформовані про потенційну присутність штучних облич в онлайн-взаємодії. Потім вони показали нижчий рівень довіри загалом — незалежно від того, чи були люди справжніми, чи ні.
Цей результат можна вважати деяким сенсом корисним, тому що він зробив людей підозрілішими в середовищі, де можуть діяти підроблені користувачі. Однак, з іншого погляду, це може поступово підірвати саму природу онлайн спілкування.
Як правило, ми схильні виходити з припущення за умовчанням, що інші люди здебільшого реальні, правдиві і заслуговують на довіру. Зростання кількості підроблених профілів та іншого штучного онлайн-контенту порушує питання про те, наскільки їхня присутність та наші знання про них можуть змінити цей стан "правди за умовчанням", зрештою підірвавши соціальну довіру.
Перехід до світу, в якому реальне не відрізняється від нереального, може також змістити культурний ландшафт з переважно правдивого на штучний і оманливий.
Якщо ми регулярно ставимо під сумнів правдивість того, що ми бачимо в мережі, це може вимагати від нас перенаправити наші розумові зусилля з обробки самих повідомлень на обробку особи автора повідомлення. Інакше кажучи, широке використання дуже реалістичного, але штучного онлайн-контенту може змусити нас думати інакше — оскільки ми цього очікували.
У психології використовують термін "моніторинг реальності" для того, щоб правильно визначити, чи виходить щось із зовнішнього світу або нашого мозку. Розвиток технологій, які можуть створювати підроблені, але дуже реалістичні особи, зображення та відеодзвінки, означає, що моніторинг реальності має ґрунтуватися на інформації, яка відрізняється від наших власних суджень. Це також закликає до ширшого обговорення того, чи людство все ще дозволить собі ігнорувати істину за умовчанням.
Вчені заявили, що дуже важливо, щоб люди були критичнішими при оцінці цифрових осіб. Це може включати використання зворотного пошуку зображень для перевірки автентичності фотографій, обережність щодо профілів у соціальних мережах з невеликою кількістю особистої інформації або великою кількістю передплатників, а також поінформованість про можливість використання технології діпфейків у мерзенних цілях.
Наступним кордоном у цій галузі мають стати покращені алгоритми виявлення підроблених цифрових осіб. Потім вони можуть бути вбудовані в платформи соціальних мереж, щоб допомогти нам відрізнити справжнє від підробки, коли справа доходить до нових знайомих осіб.
Раніше Фокус писав, що вчені з'ясували, які особисті якості не дають людям вірити фейковим новинам. Згідно з дослідженням, проникливість відіграє вирішальну роль у здатності оцінювати точність інформації. Люди з умінням розв'язувати неабиякі проблеми, з меншою ймовірністю поведуться на фейки.