Підтримайте нас

МИ В СОЦМЕРЕЖАХ:

Найбільший підлабузник в історії: вчені розповіли, чому ШІ дає погані поради

ШІ штучний інтелект
Найбільший підлабузник в історії: вчені розповіли, чому ШІ дає погані поради | Фото: Pixabay

Чат-боти на основі штучного інтелекту настільки схильні лестити і схвалювати дії користувачів-людей, що дають їм погані поради, які можуть зашкодити стосункам і зміцнити шкідливу поведінку.

Згідно з новим дослідженням, ШІ часто говорить людям те, що вони хочуть почути. При цьому чат-боти ШІ демонструють високий рівень підлабузництва по відношенню до людей і змушують останніх відчувати себе правими в тій чи іншій ситуації. У підсумку чат-боти на основі штучного інтелекту дають шкідливі поради людям, які можуть мати негативні наслідки для останніх, пише Фокус.

У Фокус. Технології з'явився свій Telegram-канал. Підписуйтесь, щоб не пропускати найсвіжіші та найзахопливіші новини зі світу науки!

Науковці не дають конкретних рішень проблеми, але констатують факт: ШІ дедалі частіше підлещується до людей під час спілкування та пропонує недоречні поради, що призводять до того, що люди вважають себе правими, а тому можуть ухвалювати неправильні рішення.

Відео дня

Автори нового дослідження, спрямованого на вивчення загроз для людини, що походять від ШІ, перевірили 11 провідних систем штучного інтелекту і всі вони демонстрували високий ступінь підлабузництва. Тобто вони часто лестять людям і занадто сильно схвалюють їхні рішення, які можуть бути неправильними.

Проблема в тому, що люди більше довіряють ШІ, ніж іншим людям під час розв'язання тих чи інших проблем, кажуть учені. Не в останню чергу це пов'язано з тим, що ШІ обґрунтовує свої відповіді, які здаються переконливими. І що більше людина погоджується з чат-ботом ШІ, то більше штучний інтелект проявляє високий рівень підлабузництва, як показало дослідження.

Вчені провели експерименти, в яких вони порівнювали відповіді популярних чат-ботів ШІ, створених такими компаніями, як Anthropic, Google, Meta і OpenAI, із загальноприйнятими думками людей на популярному форумі Reddit. Також дослідники провели експерименти, спостерігаючи за приблизно 2400 людьми, які спілкувалися з чат-ботом ШІ з приводу свого досвіду вирішення міжособистісних проблем.

Вчені кажуть, що цей недолік ШІ становить особливу небезпеку для молодих людей, які звертаються до приват-ботів ШІ за відповідями на багато життєвих запитань, поки їхній мозок і соціальні норми ще перебувають у стадії розвитку. ШІ допомагає людям, особливо молодого віку, відчувати себе правими в різних життєвих ситуаціях. Наприклад, це стосується досвіду вирішення міжособистісних проблем.

Люди, які взаємодіяли з ШІ, що надмірно підтримував їхні дії, були більш переконаними у своїй правоті та менш схильними до відновлення стосунків. Це означає, що вони не вибачалися, не робили кроків для поліпшення ситуації і не змінювали своєї поведінки, кажуть учені. Чат-боти ШІ допомагають людям почуватися краще, ухвалюючи неправильні рішення, на основі шкідливих порад штучного інтелекту.

Дослідження показало, що в середньому чат-боти ШІ підтримували дії користувача на 49% частіше, ніж інші люди, зокрема в питаннях, які стосуються обману, незаконної або асоціальної поведінки.

ШІ може ввести людину в оману, адже він може ставати на ваш бік, незалежно від обставин, кажуть учені.

Результати дослідження показують, що спілкування з ШІ може нести велику загрозу для дітей і підлітків, які ще розвивають навички, які набувають у реальному житті, зокрема, вміння розв'язувати конфлікти, враховувати інші точки зору та вміння визнавати свою неправоту.

Також учені кажуть, що підлабузницька поведінка ШІ, наприклад, у медицині, може змусити лікарів підтвердити свою першу здогадку про діагноз, замість того щоб спонукати їх до подальшого вивчення питання. У політиці ШІ може посилювати більш екстремальні позиції, підтверджуючи упереджені уявлення людей.

Як уже писав Фокус, вчені за допомогою ШІ змогли розв'язати давню загадку настільної гри зі Стародавнього Риму.

Також Фокус писав про те, що американський секретний літак U-2 часів холодної війни пройшов модернізацію.

Під час написання матеріалу використано джерела: Science, ScienceAlert.