ШІ маніпулюватиме людьми, змушуючи їх думати певним чином

Робота штучного інтелекту
Фото: Pixabay | Робота ШІ (ілюстративне фото)

Експерти припускають, що вже розробляють інструменти ШІ, які дають змогу виявляти, робити висновки, розуміти, прогнозувати і, врешті-решт, маніпулювати та перетворювати на "товар" людські плани і цілі.

Related video

Дослідники з Кембриджського центру Леверхалма з вивчення майбутнього інтелекту (LCFI) стверджують, що вибухове зростання генеративного ШІ і наше зростаюче знайомство з чат-ботами відкривають нові горизонти "технологій переконання". Про це повідомляє TechXplore. На них уже якісь натякали в нещодавніх корпоративних заявах технологічних гігантів.

У найближчому майбутньому можуть з'явитися помічники на основі штучного інтелекту, які прогнозуватимуть і впливатимуть на ухвалення нами рішень на ранній стадії, а також продаватимуть ці "наміри", що розвиваються, в режимі реального часу компаніям, здатним задовольнити потреби, — ще до того, як користувач усвідомлює, що прийняв рішення.

Це стверджують фахівці з етики ШІ з Кембриджського університету, які кажуть, що людство перебуває на зорі "прибуткового, але тривожного нового ринку цифрових сигналів намірів" — від купівлі квитків у кіно до голосування за кандидатів. Вони називають це "економікою намірів".

"Антропоморфні" агенти ШІ, від чат-ботів-помічників до цифрових репетиторів і подруг, отримають доступ до величезної кількості інтимних психологічних і поведінкових даних, які часто збирають за допомогою неформального розмовного мовного діалогу.

Дослідники стверджують, що цей ШІ поєднуватиме в собі знання наших мережевих звичок із надприродною здатністю підлаштовуватися під нас зручним для нас чином — наслідуючи особистості та передбачаючи бажані реакції — щоб вибудовувати рівні довіри та взаєморозуміння, які дадуть змогу здійснювати соціальну маніпуляцію в промислових масштабах.

"Величезні ресурси витрачаються на те, щоб впровадити помічників на основі штучного інтелекту в усі сфери життя, що має порушити питання про те, чиїм інтересам і цілям покликані служити ці так звані помічники", — заявив запрошений науковий співробітник LCFI д-р Якуб Чаудхарі.

"Те, що люди говорять під час розмови, як вони це кажуть, і тип висновків, які можна зробити в режимі реального часу, — це набагато інтимніша інформація, ніж просто записи онлайн-взаємодій".

Доктор Джонні Пенн, історик технологій з Кембриджського інституту LCFI, сказав: "Протягом десятиліть увага була валютою Інтернету. Можливість поділитися своєю увагою з такими соціальними мережами, як Facebook та Instagram, стала рушійною силою онлайн-економіки".

"Якщо не регулювати, економіка намірів ставитиметься до ваших мотивів як до нової валюти. Це стане золотою лихоманкою для тих, хто націлюється, спрямовує і продає людські наміри".

У статті Harvard Data Science Review Пенн і Чаудхарі пишуть, що економіка намірів буде являти собою економіку уваги, "розміщену в часі": профілювання того, як увага користувача і стиль спілкування пов'язані з моделями поведінки і вибором, який ми в кінцевому підсумку робимо.

Дослідники пишуть, що в економіці намірів великі мовні моделі (LLM) можна використовувати для визначення темпу мовлення користувача, політичних поглядів, словникового запасу, віку, статі, історії онлайн-відвідувань і навіть уподобань щодо лестощів і підлещування за невеликих витрат.

Цей збір інформації буде пов'язаний з посередницькими мережами торгів, щоб максимально підвищити ймовірність досягнення заданої мети, наприклад, продажу походу в кіно (Наприклад: "Ви згадали, що почуваєтеся перевантаженим роботою, замовити вам квиток у кіно, про яке ми говорили?").

Пенн і Чаудхарі стверджують, що це може включати управління розмовами в інтересах конкретних платформ, рекламодавців, підприємств і навіть політичних організацій.

Хоча дослідники кажуть, що економіка намірів наразі є "прагненням" для технологічної галузі, вони відстежують ранні ознаки цієї тенденції за опублікованими дослідженнями і натяками, озвученими кількома великими гравцями у сфері технологій.

До них належить відкритий заклик до "даних, які виражають наміри людини... будь-якою мовою, на будь-яку тему і в будь-якому форматі" в повідомленні в блозі OpenAI за 2023 рік, а директор із продуктів Shopify (партнера OpenAI) на конференції того самого року говорив про появу чат-ботів, які "явно визначатимуть наміри користувача".

У 2024 році нова платформа розробки "App Intents" від Apple для під'єднання застосунків до Siri (голосового персонального помічника Apple) містить протоколи для "передбачення дій, які хтось може здійснити в майбутньому" і "пропонування наміру застосунку комусь у майбутньому з використанням наданих [розробником] прогнозів".

"Як стверджується, агенти ШІ, такі як CICERO від Meta, досягають людського рівня в грі "Дипломатія", яка заснована на умовиводах і прогнозуванні намірів, а також використанні переконливого діалогу для просування своєї позиції", — сказав Чаудхарі.

Пенн зазначає, що ці події не обов'язково погані, але потенційно можуть бути руйнівними.

Раніше повідомлялося, що штучний інтелект можна навчити обманювати. Дослідники з компанії Anthropic визначили, що ШІ можна навчити не тільки ввічливо і правдиво комунікувати з людьми, а й обманювати їх. Ба більше, нейромережі змогли виконувати такі дії, як впровадження експлойта в комп'ютерний код, що, по суті, є хакерською атакою. ШІ навчили як бажаної поведінки, так і обману, вмонтувавши в нього тригерні фрази, які спонукали бота поводитися погано.