Чат-бот GPT-4 обдурив майже половину співрозмовників: скоро пройде тест "на людяність"
Під час експерименту за концепцією Алана Тюрінга 41% випробовуваних повірив, що вів бесіду не з машиною, а з живою людиною. Це насторожує вчених.
Дослідники з Каліфорнійського університету в Сан-Дієго провели дослід і з'ясували, що нова велика мовна модель GPT-4 штучного інтелекту значно покращила свої можливості в проходженні тесту Тюрінга та зуміла обдурити 41% випробовуваних, переконавши їх у тому, що він — людина. Про це повідомляє сайт TechXplore.
Ще в 1950-му Алан Тьюринг, який зламав код німецької шифрувальної машини "Енігма", написав свою знамениту статтю "Чи може машина мислити?". Саме в ній він сформулював тест, стандартна інтерпретація якого звучить так: "Людина взаємодіє з одним комп'ютером і однією людиною. На підставі відповідей на запитання вона має визначити, з ким вона розмовляє — з людиною чи комп'ютерною програмою. Завдання комп'ютерної програми — ввести людину в оману, змусивши зробити неправильний вибір".
Алан Тьюринг, на якого попри всі заслуги перед Великою Британією, чекала трагічна доля, вже тоді передбачав появу штучного інтелекту. Тому сьогодні розробники ШІ орієнтуються саме на його тест.
У своїй опублікованій науковій роботі вчені з Каліфорнійського університету в Сан-Дієго наголошують, що нова версія ChatGPT-4 може бути розумною, швидкою та вражаючою. Чат-бот добре демонструє очевидний інтелект. У розмові з людьми він звучить по-людськи та навіть може проявляти гумор.
Кемерон Джонс, який спеціалізується на мові, семантиці та машинному навчанні, і Бенджамін Берген, професор когнітивних наук, зібрали 650 учасників і створили 1400 "ігор", у яких між учасниками проводилися короткі бесіди з іншою людиною або моделлю GPT. Учасникам пропонувалося визначити, з ким вони розмовляють.
Дослідники виявили, що моделі на основі GPT-4 ошукали учасників у 41% випадків, тоді як моделі на основі GPT-3.5 ошукали людей лише у 5-14% випадків. Цікаво, що людям вдалося переконати інших учасників, що вони не машини, тільки в 63% випадках. Дослідники дійшли висновку: "Ми поки що не знаходимо доказів того, що GPT-4 проходить тест Тюрінга, але тенденція насторожує".
На думку дослідників, рівень успіху в 41% передбачає, що обман за допомогою моделей ШІ вже цілком імовірний, особливо в контекстах, де співрозмовники-люди менш уважні до можливості того, що вони розмовляють не з людиною. Це означає, що моделі штучного інтелекту видаючи себе за людей можуть вносити "широкомасштабні соціальні та економічні наслідки для соціуму".
Вчені зазначили, що тест Тюрінга, як і раніше, зберігає цінність як міра ефективності машинного діалогу. Тест, на їхню думку, має постійну актуальність як основа для вимірювання вільної соціальної взаємодії та обману, а також для розуміння людських стратегій і соціальної адаптації.
Дослідники припустили, що буде важливо відстежувати моделі ШІ, оскільки вони стають більш гнучкими. У результаті в майбутньому нам доведеться докладати дедалі більше зусиль, щоб відрізнити ШІ від людини, а отже, необхідно вже зараз розробляти стратегії для пом'якшення цього ефекту, зазначають дослідники.
Раніше Фокус повідомляв, що Велика Британія створить суперкомп'ютер для ШІ на 5448 чипах Nvidia GH200. Країна хоче наздогнати США і Китай у сфері штучного інтелекту.