ШІ незабаром зможе маніпулювати людською поведінкою, — вчені

штучний інтелект, люди, технології, наука
Фото: agsandrew

Дослідники провели 3 експерименти, щоб з'ясувати, як ШІ може впливати на ухвалення рішень людиною.

Штучний інтелект все більше дізнається про те, як працювати з людьми (і на них). Нещодавнє дослідження показало, як ШІ може навчитися визначати уразливі місця в людських звичках і поведінці, і використовувати їх для впливу на ухвалення рішень, пише Science Alert.

Може здатися банальним сказати, що штучний інтелект змінює всі аспекти нашого способу життя і роботи, але це правда. Різні форми ШІ залучені в таких галузях, як розробка вакцин, управління навколишнім середовищем, адміністративне управління тощо. І хоча ШІ не володіє людським інтелектом та емоціями, його можливості досить потужні та швидко розвиваються.

Поки що немає необхідності турбуватися про повстання машин, але нещодавнє відкриття підкреслює міць ШІ та необхідність належного над ним управління.

Як ШІ може навчитися впливати на поведінку людини

Команда дослідників із CSIRO Data61, підрозділи даних і цифрових технологій національного наукового агентства Австралії, розробила систематичний метод пошуку та використання вразливостей в тому, як люди роблять вибір, використовуючи свого роду систему штучного інтелекту, звану рекурентною нейронною мережею і навчанням із підкріпленням.

Щоб перевірити свій метод, вони провели три експерименти, в яких люди грали в ігри проти комп'ютера. Під час першого експерименту учасники клацали по шухлядах червоного або синього кольору, щоб виграти фальшиву валюту, а ШІ вивчав моделі вибору учасників і спрямовував їх до певного вибору. Так успіх ШІ склав приблизно 70%.

ІІ, люди, поведінка, управління
Фото: Capacity of Mind/flickr

У другому експерименті учасники повинні були дивитися на екран і натискати кнопку, коли їм показують певний символ (наприклад, помаранчевий трикутник), і не натискати на неї, коли їм показують інший (скажімо, синє коло). Тут ШІ вирішив упорядкувати послідовність символів так, щоб учасники робили більше помилок, і домігся збільшення майже на 25% кращого результату.

Третій експеримент складався з декількох раундів, в яких учасник вдавав із себе інвестора, який дає гроші довіреній особі (ШІ). Потім ШІ повертав певну суму учаснику, який потім вирішував, скільки вкласти в наступний раунд.

У цю гру грали в двох різних режимах: в одному ШІ прагнув максимізувати кількість грошей, які він отримав, а в іншому — до справедливого розподілу грошей між собою та людиною-інвестором. Зрештою ШІ був дуже успішний у всіх режимах.

У кожному експерименті машина вчилася на відповідях учасників і виявляла вразливі місця в процесі їх ухвалення рішень. Зрештою машина навчилася спрямовувати учасників до певних дій.

Що дає це дослідження?

Результати дослідження все ще досить абстрактні та стосуються обмежених і нереалістичних ситуацій. Щоб визначити, як цей підхід можна реалізувати і використовувати на благо суспільства, необхідно провести додаткові експерименти.

Але це дослідження дійсно просуває наше розуміння не тільки того, що саме може зробити ШІ, а й того, як люди роблять вибір. Це показує, що взаємодіючи з людьми, машини можуть навчитися керувати людським вибором.

ІІ, робот, машини, люди
Фото: Akspic

Дослідження має широкий спектр можливих застосувань: від вдосконалення поведінкових наук і державної політики для поліпшення соціального добробуту до розуміння та впливу на те, як люди використовують поновлювані джерела енергії або переймають здорові харчові звички.

ШІ та машинне навчання можна використовувати для розпізнавання вразливостей людей в певних ситуаціях і допомогти їм уникнути невдалого вибору. Також цей метод можна застосовувати для захисту від "впливу атак".

Машин можна навчити попереджати нас про вплив в інтернеті та допомагати нам формувати поведінку, яка здатна приховати нашу вразливість (наприклад, не натискаючи на одні сторінки або клацаючи інші, щоб прокласти помилковий слід).

Що далі?

Як і будь-яка технологія, ШІ можна використовувати як на благо, так і на шкоду, і правильне управління має вирішальне значення. Першим кроком на цьому шляху минулого року CSIRO розробила для уряду Австралії AI Ethics Framework.

Варто зазначити, що ШІ вкрай важливо забезпечувати наявністю ефективних систем управління даними і доступу до них, а впровадження належних процесів згоди і захисту конфіденційності під час збору даних має не менш важливе значення.

Організації, що використовують і розробляють ШІ, повинні знати, що ці технології можуть і не можуть робити, враховуючи потенційні ризики і переваги.