Исследователи провели 3 эксперимента, чтобы выяснить, как ИИ может влиять на принятие решений человеком.
Искусственный интеллект все больше узнает о том, как работать с людьми (и на них). Недавнее исследование показало, как ИИ может научиться определять уязвимые места в человеческих привычках и поведении, и использовать их для влияния на принятие решений, пишет Science Alert.
Может показаться банальным сказать, что искусственный интеллект меняет все аспекты нашего образа жизни и работы, но это правда. Различные формы ИИ задействованы в таких областях, как разработка вакцин, управление окружающей средой, административное управление и т.д. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности довольно мощные и быстро развиваются.
Пока что нет необходимости беспокоиться о восстании машин, но недавнее открытие подчеркивает мощь ИИ и необходимость надлежащего над ним управления.
Как ИИ может научиться влиять на поведение человека
Команда исследователей из CSIRO Data61, подразделения данных и цифровых технологий национального научного агентства Австралии, разработала систематический метод поиска и использования уязвимостей в том, как люди делают выбор, используя своего рода систему искусственного интеллекта, называемую рекуррентной нейронной сетью и обучением с подкреплением.
Чтобы проверить свой метод, они провели три эксперимента, в которых люди играли в игры против компьютера. В ходе первого эксперимента участники щелкали по ящикам красного или синего цвета, чтобы выиграть фальшивую валюту, а ИИ изучал модели выбора участников и направлял их к определенному выбору. Так успех ИИ составил примерно 70%.
Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать на нее, когда им показывают другой (скажем, синий круг). Здесь ИИ решил упорядочить последовательность символов так, чтобы участники делали больше ошибок, и добился увеличения почти на 25% лучшего результата.
Третий эксперимент состоял из нескольких раундов, в которых участник притворялся инвестором, дающим деньги доверенному лицу (ИИ). Затем ИИ возвращал определенную сумму участнику, который затем решал, сколько вложить в следующий раунд.
В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать количество денег, которые он получил, а в другом — к справедливому распределению денег между собой и человеком-инвестором. В результате ИИ был очень успешен во всех режимах.
В каждом эксперименте машина училась на ответах участников и выявляла уязвимые места в процессе их принятия решений. В результате машина научилась направлять участников к определенным действиям.
Что дает это исследование?
Результаты исследования все еще довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Чтобы определить, как этот подход можно реализовать и использовать на благо общества, необходимо провести дополнительные эксперименты.
Но это исследование действительно продвигает наше понимание не только того, что именно может сделать ИИ, но и того, как люди делают выбор. Это показывает, что взаимодействуя с людьми, машины могут научиться управлять человеческим выбором.
Исследование имеет широкий спектр возможных применений: от совершенствования поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, как люди используют возобновляемые источники энергии или перенимают здоровые пищевые привычки.
ИИ и машинное обучение можно использовать для распознавания уязвимостей людей в определенных ситуациях и помочь им избежать неудачного выбора. Также этот метод можно применять для защиты от "влияния атак".
Машин можно научить предупреждать нас о воздействие в интернете и помогать нам формировать поведение, способное скрыть нашу уязвимость (например, не нажимая на одни страницы или щелкая другие, чтобы проложить ложный след).
Что дальше?
Как и любая технология, ИИ можно использовать как во благо, так и во вред, и правильное управление имеет решающее значение. В качестве первого шага на этом пути в прошлом году CSIRO разработала для правительства Австралии AI Ethics Framework.
Стоит отметить, что ИИ крайне важно обеспечивать наличием эффективных систем управления данными и доступа к ним, а внедрение надлежащих процессов согласия и защиты конфиденциальности при сборе данных имеет не менее важное значение.
Организации, использующие и разрабатывающие ИИ, должны знать, что эти технологии могут и не могут делать, учитывая потенциальные риски и преимущества.