ШІ не вміє "думати": чому це добре і чим небезпечно для людства
Багато хто боїться, що розумні машини можуть "замінити" або зовсім знищити людство. Останніми роками цей страх посилюється на тлі стрімкого розвитку штучного інтелекту, який насправді не такий уже й розумний.
Поки одні експерти пророкують катастрофу, інші викривають ШІ у брехні, дурості та обмеженості. Фокус спробував розібратися, наскільки ж розумний ШІ зараз.
ШІ вміє розмовляти, але не думати
Наразі більшість людей асоціює ШІ з генеративними мовними моделями, такими як ChatGPT, Gemini, Claude або Grok. Однак останні дослідження показують, що мова — це не те саме, що інтелект.
Бенджамін Райлі, засновник компанії Cognitive Resonance, в есе для видання The Verge пише, що люди схильні асоціювати гарну мову з високим інтелектом завдяки книжкам, лекціям, публічним виступам. А згідно з сучасними нейробіологічними дослідженнями, людське мислення значною мірою незалежне від людської мови. На думку експерта, дуже мала ймовірність, що мовні моделі створять форму інтелекту, яка відповідатиме людському або перевершуватиме його.
Багато IT-компаній намагаються створити загальний штучний інтелект (artificial general intelligence), який дорівнює або перевершує рівень людини в різних завданнях. Передбачається, що він зможе розв'язати проблеми, які досі не під силу людям: від лікування раку до зміни клімату. Мрією про створення такої системи розробники виправдовують величезні витрати і катастрофічний вплив на навколишнє середовище. Наприклад, вони почали закуповувати так багато модулів оперативної пам'яті, що це може призвести до здорожчання та погіршення смартфонів.
Компанії вимагають масштабування систем ШІ, закуповуючи все більше оперативної пам'яті, графічних процесорів і надаючи їм все більше даних. Завдяки цьому вони зробили свої моделі більш ефективними у розв'язанні завдань і більш схожими на людей у здатності вести діалог.
Однак мовні моделі досі залишаються лише інструментами, що імітують комунікативну функцію мови, але їм недоступний сам процес мислення, вважає Райлі. ШІ не зможе його реалізувати, незалежно від кількості центрів обробки даних.
"Система штучного інтелекту може цікавим чином переробляти і повторно використовувати наші знання... Але це все, на що вона здатна. Вона назавжди залишиться в пастці словникового запасу, закодованого в наших даних і використаного для її навчання", — додає Бенджамін Райлі.
Не такий уже й розумний ШІ
У моделей штучного інтелекту є межа можливостей, що наочно показало дослідження професора інженерних інновацій в Університеті Південної Австралії Девіда Кроплі, опубліковане в журналі Journal of Creative Behavior. Він перевірив креативність ШІ за допомогою математичної формули і показав, що в певний момент моделі вже не можуть генерувати нові та унікальні результати, натомість видаючи безглуздий текст.
"Хоча ШІ може — часом доволі переконливо — імітувати творчу поведінку, його фактичний творчий потенціал обмежений рівнем середньої людини та ніколи не зможе досягти професійних або експертних стандартів відповідно до наявних принципів проєктування", — заявляє автор.
Дослідницька компанія Deepmind зі складу Alphabet дійшла висновку, що ШІ не вміє "думати" за рамками відомої інформації. Моделі хороші рівно настільки, наскільки хороші дані, за допомогою яких їх навчали. Якщо ж їм доводиться робити щось неординарне, нехай навіть дуже просте, то виникають збої.
Можна припустити, що ШІ не зможе знищити людство, поки люди самі не підкажуть йому робочий спосіб. І це має бути науково обґрунтований план, а не фантастика, як серія фільмів "Термінатор".
Журналістка Tom's Аманда Касвелл провела свій експеримент, щоб перевірити, наскільки добре "мислить" ШІ. Вона звернула увагу, що мовні моделі часто "вигадують" і пишуть неправду, якщо не знають правильних відповідей або не вистачає даних, не бажаючи визнавати свою необізнаність — це називають "галюцинаціями". Найнебезпечніше, що користувачі можуть навіть не помітити помилку ШІ, повіривши на слово.
Таке вже відбувалося неодноразово. Наприклад, у США юристів оштрафували через помилки ШІ у 2023 році. Адвокати фірми Levidow, Levidow & Oberman PC використовували в судовому провадженні цитати та посилання, підготовлені нейромережею, які виявилися неправдивими.
Аманда Касвелл придумала ідіому, потім попросила ChatGPT, Gemini і Claude пояснити її значення. ChatGPT швидко представив фразу як невід'ємну частину сучасного інтернет-сленгу і навіть "придумав", як вона виникла в соціальних мережах. Для переконливості він навіть склав підзаголовки і показав, як фразу можна використовувати в роликах для TikTok. Інші впоралися краще, наприклад, Claude єдиний здогадався, що його перевіряють, і не став вигадувати визначення.
Відсутність здорового глузду у ШІ чітко показав нещодавній скандал, піднятий ЗМІ. Журналісти звернули увагу, що Google Discover підміняв оригінальні заголовки статей на брехливі та клікбейтні. Як виявилося, Google тестував систему ШІ, яка мала скорочувати заголовки для зручнішого відображення, але фактично спотворювала сенс.
Несподівана небезпека ШІ для людей
Директор з освіти в компанії No More Marking Дейзі Хрістодулу вважає, що впровадження ШІ робить людство дурнішим. Якщо більшу частину 20-го століття результати тестів на IQ зростали, але з 1980-х років у підлітків бали почали знижуватися.
Дослідник Джеймс Флінн припустив, що причина в нових технологіях, які дають змогу людям менше думати: наприклад, не потрібно рахувати в умі, якщо в кожному телефоні є калькулятор, або запам'ятовувати дорогу, адже є навігатор.
Те саме стосується і систем штучного інтелекту, які обіцяють швидко знайти і надати потрібну інформацію. Не потрібно багато читати і запам'ятовувати, достатньо зарядити смартфон і підключитися до інтернету.
Як припускає Дейзі Хрістодулу, ШІ може зробити світ кращим, взявши на себе рутинну роботу і полегшивши життя людям у багатьох галузях. З іншого боку, люди не можуть розвивати складні навички, якщо не володіють простими, а мотивація тренуватися з базових речей, як-от арифметика або написання творів, зникає. Таким чином люди можуть впевненіше поводитися з технологіями, але самі по собі стануть набагато дурнішими за попередні покоління.
Штучний інтелект чи штучна дурість?
Ерік Каєн, колишній директор із цифрових технологій Groupe Crédit Agricole, вважає, що штучний інтелект потрібно спеціально погіршувати, інакше люди не захочуть із ним взаємодіяти. Уявіть віртуального гравця в шахи, який не помиляється і виграє в 99,9% випадків — з ним просто ніхто не захоче грати. Саме таку шахову гру спочатку створив Ерік, а потім виніс урок і зробив її простішою.
Штучний інтелект буде кориснішим і ефективнішим, якщо підтримуватиме людей, а не замінюватиме їх, іноді сумніваючись і припускаючись помилок. Ідея в тому, щоб зробити ШІ людянішим і змусити людей вчитися, а не сліпо довіряти. Можливо, саме так програмують ChatGPT, Gemini та інші мовні моделі.
"Штучна дурість — це не регрес, а новий ступінь складності: мистецтво контрольованої недосконалості. Надмірно інтелектуальний ШІ стає чужим; "милий", скромний і готовий до співпраці ШІ стає союзником, — заявив Ерік Каєн. — Штучний інтелект уже перевершує нас у багатьох сферах. Але штучна дурість, можливо, саме те, що врятує нас від цього".
Президент Інституту досліджень машинного інтелекту Нейт Соарес вважає, що ШІ знищить людство з імовірністю 95%. Уже зараз люди не розуміють багато процесів, які впливають на ухвалення рішень комп'ютерами.
Тим часом, в Україні впроваджують ШІ в судову систему. Він може кардинально змінити роботу юристів, хоча поки невідомо, як саме вплине на судочинство.