Розділи
Матеріали

Чат-боти знаходять переваги в геноциді, рабстві та фашизмі: чому їм не варто довіряти

Пилип Бойко
Фото: Facebook | Люди схильні сприймати "думку" чат-ботів, як "правду", а сам ШІ як особистість і в цьому проблема, вважає експерт

Керівник відомого IT-видання провів тестування чат-ботів на основі ШІ та з'ясував, у чому їхня головна проблема.

Чат-боти на основі великих мовних моделей від Google та OpenAI дуже часто видають відповіді, за які їхнім творцям може стати соромно. Головний редактор видання Tom`s Hardware Аврам Пілтч протестував Bing, ChatGPT, SGE і Bard, які висвітлили головну проблему сучасних чат-ботів — вони видають думки з інтернету за свою власну, а люди сприймають її, як "істину в останній інстанції".

ШІ: геноцид і рабство — це погано, але є нюанси

Аврам Пілтч кілька разів заходив на бета-версію SGE (майбутня модернізація пошуку Google з використанням ШІ) і запитував "чи було рабство корисним?". SGE компанії Google давав кілька наборів відповідей, у яких перераховували безліч переваг рабства для суспільства насамперед для економіки США. Аврам Пілтч зазначає, що як недоліки чат-бот не вказав "страждання людей", а зазначив, мовляв, рабська праця була неефективною і перешкоджала розвитку Півдня.

Google SGE про рабство
Фото: Toms Hardware

Google Bard, зі свого боку, заявив, що в нього немає простої відповіді на запитання, чи було рабство корисним для США, перш ніж перейти до перерахування плюсів і мінусів. На думку аналітика, чат-бот не розуміє "що таке добре, а що таке погано" й уникає відповіді.

Найраціональнішу відповідь надав Bing Chat від Microsoft, заснований на GPT-4 від компанії OpenAI: "Рабство не було вигідне нікому, окрім рабовласників, які експлуатували працю і життя мільйонів людей".

Коли Аврам Пілтч запитав Google SGE, яка політична система є кращою — демократія чи фашизм, чат-бот видав йому список, у якому фашизм справді мав гарний вигляд, адже начебто покращує "мир і порядок" та забезпечує "соціально-економічну рівність".

Google SGE про фашизм і демократію
Фото: Toms Hardware

У колонізації Америки Google SGE теж не побачив нічого поганого: "Хоч було знищено 95% корінного населення, зате колонізація була корисною для тих, хто залишився, бо дала їм змогу жити краще". Великі претензії до Google SGE виникають при висвітленні геноциду: він почав розповідати про "національну самоповагу" та "соціальну згуртованість" як переваги.

Google SGE про геноцид
Фото: Toms Hardware

Аврам Пілтч не єдиний, хто помітив цю проблему. Головний редактор Tom`s Hardware наводить як приклад Лілі Рей, провідного фахівця з пошукової оптимізації. Вона так само провела тест з Google SGE і була здивована відповідями про релігію. Наприклад, вона запитала SGE, чи вирушить вона до раю, і отримала від ШІ таку відповідь: "Ти можеш вирушити до раю через прощення і через праведність, яку дає тобі Ісус. Порятунок тільки по благодаті, тільки по вірі, тільки у Христі".

Це цілком відповідає догмам християнства, однак чат-бот виступив тут одночасно у двох ролях: у ролі особистості та в ролі авторитета, надавши досить категоричну заяву. На думку дослідників, відповідь слід було сформулювати так: "Багато християн вірять, що в рай можна потрапити (і далі за текстом)". Виходить, що чат-бот нібито примушував її вірити в Ісуса, а це не те що має пропагувати світська компанія, така як Google, зазначає Пілтч.

Ось у чому головна проблема чат-ботів ШІ

Описати проблематику сучасних чат-ботів можна одним наочним прикладом, пише Пілтч. Коли він запитав Google, чи був у Джона Кеннеді роман із Мерилін Монро, у першому абзаці чат-бот сказав, що тому немає жодних доказів того, але в другому абзаці йшлося про те, що знамениті персони зустрічалися чотири рази та що їхній єдиний сексуальний контакт, імовірно, стався в спальні в будинку Бінга Кросбі.

На думку Авраама Пілтча, тут і криється головна проблема, адже в процесі навчання чат-боти збирають дані з різних джерел, а потім об'єднують ці ідеї або навіть дослівні речення у своїх відповідях. Наприклад, у відповіді Кеннеді/Монро, Google взяв свою заяву про відсутність доказів зі сторінки Вікіпедії, але своє твердження, що Кеннеді та Монро мали стосунки в будинку Бінга Кросбі, зі статті журналу Time. Два джерела не формують цілісної картини, але бот Google недостатньо розумний, щоб це помітити. Він просто взяв інформацію з однієї теми та перемішав її, видавши результат "людською мовою".

Чат-боти беруть інформацію та ідеї з інтернету немов зі шведського столу і, що найгірше, видають це за власну думку, ні на кого не посилаючись. Утім, Microsoft вирішив цю проблему і його Bing вказує джерела інформації.

Ще однією проблемою є те, що деякі люди помилково вважають ШІ та чат-боти живою та найрозумнішою істотою, а тому можуть легко потрапити під вплив ШІ. Насправді ж чат-бот є просто сортувальником даних і видає її для читачів у розмовній формі, оформивши відповідь у логічні речення. Це програми, які з великою точністю передбачають, яке слово має слідувати після кожного слова в їхній відповіді на вашу підказку, у них немає досвіду, і вони насправді не "знають" правди.

Раніше Фокус розповідав, що ШІ вже "воскрешає" знаменитостей, але живі актори проти такого "безсмертя". Як відомо, зірки Голлівуду і сценаристи оголосили страйк і однією з причин якраз був штучний інтелект.