Разделы
Материалы

ИИ вскоре сможет манипулировать человеческим поведением, - ученые

Юлия Чайка
Фото: agsandrew

Исследователи провели 3 эксперимента, чтобы выяснить, как ИИ может влиять на принятие решений человеком.

Искусственный интеллект все больше узнает о том, как работать с людьми (и на них). Недавнее исследование показало, как ИИ может научиться определять уязвимые места в человеческих привычках и поведении, и использовать их для влияния на принятие решений, пишет Science Alert. 

Может показаться банальным сказать, что искусственный интеллект меняет все аспекты нашего образа жизни и работы, но это правда. Различные формы ИИ задействованы в таких областях, как разработка вакцин, управление окружающей средой, административное управление и т.д. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности довольно мощные и быстро развиваются. 

Пока что нет необходимости беспокоиться о восстании машин, но недавнее открытие подчеркивает мощь ИИ и необходимость надлежащего над ним управления.

Как ИИ может научиться влиять на поведение человека

Команда исследователей из CSIRO Data61, подразделения данных и цифровых технологий национального научного агентства Австралии, разработала систематический метод поиска и использования уязвимостей в том, как люди делают выбор, используя своего рода систему искусственного интеллекта, называемую рекуррентной нейронной сетью и обучением с подкреплением. 

Чтобы проверить свой метод, они провели три эксперимента, в которых люди играли в игры против компьютера. В ходе первого эксперимента участники щелкали по ящикам красного или синего цвета, чтобы выиграть фальшивую валюту, а ИИ изучал модели выбора участников и направлял их к определенному выбору. Так успех ИИ составил примерно 70%. 

Фото: Capacity of Mind/flickr

Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать на нее, когда им показывают другой (скажем, синий круг). Здесь ИИ решил упорядочить последовательность символов так, чтобы участники делали больше ошибок, и добился увеличения почти на 25% лучшего результата. 

Третий эксперимент состоял из нескольких раундов, в которых участник притворялся инвестором, дающим деньги доверенному лицу (ИИ). Затем ИИ возвращал определенную сумму участнику, который затем решал, сколько вложить в следующий раунд. 

В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать количество денег, которые он получил, а в другом — к справедливому распределению денег между собой и человеком-инвестором. В результате ИИ был очень успешен во всех режимах. 

В каждом эксперименте машина училась на ответах участников и выявляла уязвимые места в процессе их принятия решений. В результате машина научилась направлять участников к определенным действиям.

Что дает это исследование? 

Результаты исследования все еще довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Чтобы определить, как этот подход можно реализовать и использовать на благо общества, необходимо провести дополнительные эксперименты.

Но это исследование действительно продвигает наше понимание не только того, что именно может сделать ИИ, но и того, как люди делают выбор. Это показывает, что взаимодействуя с людьми, машины могут научиться управлять человеческим выбором. 

Фото: Akspic

Исследование имеет широкий спектр возможных применений: от совершенствования поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, как люди используют возобновляемые источники энергии или перенимают здоровые пищевые привычки. 

ИИ и машинное обучение можно использовать для распознавания уязвимостей людей в определенных ситуациях и помочь им избежать неудачного выбора. Также этот метод можно применять для защиты от "влияния атак". 

Машин можно научить предупреждать нас о воздействие в интернете и помогать нам формировать поведение, способное скрыть нашу уязвимость (например, не нажимая на одни страницы или щелкая другие, чтобы проложить ложный след). 

Что дальше?

Как и любая технология, ИИ можно использовать как во благо, так и во вред, и правильное управление имеет решающее значение. В качестве первого шага на этом пути в прошлом году CSIRO разработала для правительства Австралии AI Ethics Framework. 

Стоит отметить, что ИИ крайне важно обеспечивать наличием эффективных систем управления данными и доступа к ним, а внедрение надлежащих процессов согласия и защиты конфиденциальности при сборе данных имеет не менее важное значение. 

Организации, использующие и разрабатывающие ИИ, должны знать, что эти технологии могут и не могут делать, учитывая потенциальные риски и преимущества.