Ставка людства на штучний інтелект стає дедалі помітнішою, але поки важко передбачити, чи призведе це до виграшу або до катастрофи.
Після смерті від COVID-19 Луанн Даген, пацієнтки будинку престарілих у Сідар-Спрінгс, штат Мічиган, її сестра знайшла записи понад сорок голосових команд, адресованих віртуальному асистентові Amazon Alexa.
"Алекса, допоможи мені, — благала 66-річна Луанн. — Мені боляче. Я повинна знайти спосіб полегшити це". У якийсь момент вона запитала: "Як мені дістатися до поліції?" У відповідь пристрій підказав їй дорогу до найближчого поліцейського відділку. Після чотирьох болісних днів рівень кисню і кров'яний тиск у Даген впали, і з будинку престарілих її відправили у відділення невідкладної допомоги. Незабаром вона померла. Не заперечують, що трагедії можна було уникнути, якби Alexa могла безпосередньо звернутися до служби 911, але таке не було передбачено, оскільки цей вид інтелектуальних колонок, на відміну від телефону, недостатньо надійно передає дані про місцезнаходження.
На казус Даген, який трапився півтора роки тому, посилаються автори другої доповіді Стенфордського проєкту AI100, випущеного у вересні поточного року. У тому місці, де задаються питанням, чи не слугують технології штучного інтелекту в галузі охорони здоров'я і соціального забезпечення головним чином для того, щоб зняти з нас обов'язки щодо нужденних людей. Але це лише крихітна частка з того, про що замислюються експерти.
Штучний інтелект: на шляху в Стенфорд
Моніторингом у галузі штучного інтелекту група AI100 почала займатися в 2015-му. Уже через рік вона випустила перший звіт, простеживши шлях, який пройшов ШІ з тих пір, як Алан Тюрінг у 1950-му написав свою знамениту статтю "Чи може машина мислити?" (у першій редакції був заголовок "Обчислювальні машини й розум"). Саме в ній він сформулював тест, стандартна інтерпретація якого звучить так: "Людина взаємодіє з одним комп'ютером та однією людиною. На підставі відповідей на питання він повинен визначити, з ким він розмовляє — з людиною або комп'ютерною програмою. Завдання комп'ютерної програми — ввести людину в оману, змусивши зробити неправильний вибір". Голосу немає, є тільки текст, що набирається на клавіатурі та висвічується на екрані. Тимчасові проміжки листування контролюються, щоб швидкість реакції не стала ключем до розгадки.
Тюрінг був дотепний. Він процитував думку професора Джефферсона: "Доти, доки машина не зможе написати сонет або скласти музичний твір, спонукувана до того власними думками й емоціями, а не за рахунок випадкового збігу символів, ми не можемо погодитися з тим, що вона рівносильна мозку, тобто, що вона може не тільки написати ці речі, але й зрозуміти те, що нею написано". І тут же піддав м'якій посмішці і його, і категоричний погляд, згідно з яким єдиний спосіб, за допомогою якого можна пересвідчитися, що машина може мислити, полягає в тому, щоб стати машиною та усвідомлювати процес власного мислення. "Я впевнений, що професор Джефферсон аж ніяк не бажає стояти на цій крайній соліпсистській точці зору. Ймовірно, він вельми охоче прийняв би як критерій "гру в імітацію", — пише Тюрінг.
Учені сперечаються, чи здатний ШІ обдурити людину, з 1950 року, коли Алан Тюрінг написав статтю "Чи може машина мислити?" і запропонував свій знаменитий тест
У нього знайшлися і більш пізні опоненти. Наприклад, американський філософ Джон Серль у 1980-му запропонував уявний експеримент "Китайська кімната". У ньому він спробував уподібнити роботу комп'ютера людині, яка зовсім не розуміла ієрогліфи, але має інструкції, як їх поєднувати, щоб її відповіді на питання, задані за допомогою тих же ієрогліфів, були правильними. Виходить, алгоритм існує, а мислення, подібного до людського, немає. Такий його висновок-спростування.
Суперечки про мислення машин тривають досі. Голлівуд очевидно на боці Тюрінга. Тут-то нічого дивного. Але найцікавіше у нього виходить, коли він намагається схрестити Тюрінга з Джефферсоном, тобто ввести в спілкування між людиною і ШІ коефіцієнт чуттєвості. У фільмі 2014 року Ex machina молодий програміст Калеб тестує інтелект андроїда Ави, яку створив Нейтан, який запросив його погостювати у себе в горах. Калеб закохується. Ава теж начебто проявляє почуття. Але що, якщо вона просто зображує їх? — сіє сумніви Нейтан. Так і виявляється: так, витончена "гра в імітацію". Нейтон убитий. Обдурений Калеб замкнений Авою в лабораторії. Сама вона відлітає на вертольоті в світ людей.
Усе наочно і сповнено іронії. Утім, справжній ШІ, що розвивається семимильними кроками, схоже, має ніжні почуття до побудов свого батька-прабатька Тюрінга, а заодно — і до іронії.
Чотири роки тому керівництво Facebook змушене було відключити свою систему штучного інтелекту, після того як машини почали спілкуватися власною, мовою, якої не існує і котру люди не розуміли. Видання Digital Journal пояснило вчинок норовливої системи так. ШІ спирається на принцип "заохочення", тобто продовжує дії за умови, що це принесе йому певну "користь". У момент, коли оператори не дали позитивного сигналу на використання англійської мови, система вирішила створити свою "новомову".
Дії ШІ були близькі якщо не до людських, то до тих, що демонстрували тварини, яких поміщали в "ящик Скіннера", керуючи їхньою поведінкою через систему заохочень.
Як би там не було, сьогодні ШІ — це те, що обговорюється найбільше, варто лише зійти трохи в сторону з натоптаних стежок політичних скандалів та обговорень, у чому "були роздягнені" селебріті. На відстані лічених днів можна без зусиль знайти цілу купу новин за цією темою. Ось найсвіжіші.
- Штучний інтелект визнав картину Рубенса "Самсон і Даліла", що зберігається в Національній галереї в Лондоні, підробкою.
- Формація Nova Opera презентувала в Києві нову філософську оперу "Про що мовчить Заратустра", написану за допомогою штучного інтелекту.
- Корейська компанія Samsung спільно з вченими Гарвардського університету представила концепт імітації людського мозку за допомогою напівпровідникових чіпів; інженерам вдалося привести його до копіювання і перенесення структури роботи мозку в нейроморфний чіп.
- Міністерство науки і технологій Китаю вперше опублікувало набір етичних принципів для регулювання ШІ. Головна мета документа — забезпечити гарантію, що "творіння Франкенштейна" наших днів завжди буде знаходитися під контролем людей.
- І навіть ось таке. У фільмі "Не час вмирати", який виходить на великі екрани, Девід Крейг востаннє втілить образ Джеймса Бонда. У минулому році ШІ як ідеального наступника Крейга в цій ролі назвав Генрі Кевілла, котрий зіграв Супермена в геройській франшизі Зака Снайдера.
То як же мислять машини? Висновки від групи AI100
Власне назва групи двоскладна. AI — artificial intelligence, штучний інтелект. 100 — кількість років, яку експерти планують відстежувати тут тенденції, кожні п'ять років випускаючи відповідні індекси — "вичерпне джерело даних та аналізу для політиків, дослідників, керівників, журналістів і широкої громадськості, щоб розвинути інтуїцію в складній галузі ШІ". 16 вересня цього року AI100 опублікувала відразу два документи: і сам індекс, і вже згадуваний загальний звіт.
У 2017-му Facebook відключив свою систему ШІ, після того як машини почали спілкуватися власною мовою, якої не існує і котру люди не розуміли
В індексі один із дев'яти головних висновків присвячений етиці ШІ. На думку експертів, їй не вистачає критеріїв і контрольних показників, які можна було б використовувати для вимірювання. Крім того, дослідники і громадянське суспільство вважають етику ШІ важливішою, ніж промислові організації.
Що стосується звіту, який має красномовну назву "Набираючи силу, збираючи бурю", то тут група зосередилася на двох сторонах однієї медалі: можливості та загрози.
Можливості штучного інтелекту
Можливості ШІ розділені на дві категорії. В одній розглядається ШІ, який розширює людські можливості. Аналітики бачать його сильні сторони в здатності синтезувати великі обсяги даних, скажімо, клінічних, які б допомагали підібрати методи лікування для пацієнта з урахуванням можливих побічних ефектів. "Друга категорія враховує ситуації, в яких програмне забезпечення ШІ може працювати автономно, — сказано в доповіді. — Наприклад, система ШІ може автоматично перетворювати записи з рукописних форм на структуровані поля і текст у базі даних". Обидва напрямки вважаються перспективними.
Ризики і загрози штучного інтелекту
Від погроз експерти теж не відвертаються. На їхню думку, "особливо помітна небезпека полягає в тому, що ШІ може спростити створення машин, які можуть шпигувати і навіть вбивати у великих масштабах. Але наразі існує багато інших важливих і більш тонких небезпек". Багато — означає чотири.
Технорішення. Вони можуть принести чимало шкоди, якщо в ШІ почнуть бачити не інструмент, а панацею. Наприклад, системи, що оптимізують та автоматизують застосування соціальних послуг, можуть швидко стати жорсткими і відмовляти в доступі мігрантам або іншим особам, які опинилися в скрутному становищі. Автори дають посилання на книгу Вірджинії Юбенкс "Автоматизація нерівності", де серед іншого наводиться приклад штату Індіана в США. Там протягом трьох років відхилили один мільйон заяв на отримання медичних послуг, продуктових талонів та грошової допомоги, тому що нова комп'ютерна система інтерпретує будь-яку помилку як "відмова від співпраці".
Статистична точка зору на правосуддя. Рішення про винесення вироку все частіше ухвалюються запатентованими алгоритмами, які намагаються оцінити, чи буде обвинувачений скоювати злочини в майбутньому.
"Ухвалення ймовірності за визначеність означає, що минуле завжди буде визначати майбутнє, — вважають автори доповіді. — У деяких куточках суспільної свідомості з ухваленням рішень ШІ асоціюється аура нейтральності та неупередженості, внаслідок чого системи приймаються як об'єктивні, навіть якщо вони можуть бути результатом упереджених історичних рішень або очевидної дискримінації".
Дезінформація і загроза демократії. Системи штучного інтелекту використовуються для дезінформації в інтернеті, що дає їм можливість стати загрозою демократії та інструментом фашизму — від діпфейк-відео до онлайн-ботів, що маніпулюють громадським дискурсом. Цим можуть скористатися злочинці, ідеологічні екстремісти або держави-вигнанці. Дезінформація є серйозною загрозою для суспільства, оскільки вона ефективно маніпулює доказами, щоб створити петлі соціального зворотного зв'язку, які підривають будь-яке почуття об'єктивної істини.
Дискримінація і ризик у медичній установі. Хоча точні довгострокові ефекти алгоритмів в охороні здоров'я невідомі, їхній потенціал для реплікації упередженості означає, що будь-яке поліпшення, яке вони виробляють для населення в цілому, може відбуватися за рахунок найбільш вразливих. Як приклад автори наводять історію із системою Optum, що стала відомою в 2019 році. Її розробники виключили з розгляду расову приналежність, проте попросили врахувати витрати на пацієнта для охорони здоров'я. І тут процеси розмежування відразу набули своїх прав, оскільки в США догляд за пацієнтами з чорною шкірою здебільшого коштує на рік на $1 800 менше.
Принаймні в одному пункті (фейкові відео, що маніпулюють свідомістю) висновки AI100 збіглися з тим, про що було сказано в іншому звіті, "Шкідливе використання штучного інтелекту", випущеному на початку 2018-го за участю 26 авторів із 14 організацій, котрі представляють академічні кола, громадянське суспільство і промисловість. Двома іншими загрозами в тому документі називалися дрони, перетворені на снаряди, й автоматизований комп'ютерний злом.
Євангеліє від Тегмарка
Обидва звіти знаходяться на тій точці спектру думок, яку зазвичай позначають як рух за дружній ШІ. Його представники погоджуються, що заклопотаність доречна і продуктивна, тому що дослідження в галузі ШІ-безпеки та публічні обговорення пов'язаних із нею питань підвищують ймовірність успішного результату. Їм, якщо прийняти класифікацію Макса Тегмарка — професора Массачусетського технологічного інституту, фізика і космолога, — представлену в його книзі "Життя 3.0. Бути людиною в епоху штучного інтелекту", протистоять, з одного боку, "луддити" — вони переконані в поганому результаті прогресу і протестують проти штучного інтелекту. А з іншого — техноскептики і цифроутопісти. І ті й інші, пише Тегмарк, "погоджуються, що приводів для занепокоєння в нас немає, але за зовсім різних причин: перші переконані, що універсальний штучний інтелект людського рівня в доступному для огляду майбутньому не з'явиться, другі не сумніваються в його появі, але переконані, що воно практично гарантовано буде сприятливим для людства".
На думку філософа Ніка Бострома, ШІ може почати вбивати людей просто тому, що їхні атоми знадобляться йому для виконання завдання з виробництва скріпок
Типовим цифроутопістом, на думку Тегмарка, є Ларрі Пейдж, один із засновників Google. Він каже, що цифрове життя — природний і бажаний новий етап космічної еволюції, і, якщо дати їй свободу, не намагаючись задушити або поневолити її, це принесе безумовну користь всім. Він навіть звинувачує Ілона Маска, який невпинно б'є на сполох із приводу ШІ (у 2017-му він написав у "Твіттері", що його розвиток небезпечніше конфлікту з Північною Кореєю, а трьома роками пізніше в інтерв'ю The New York Times заявив, що стартап DeepMind, який належить Google, наразі турбує його найбільше), у "відошовінізмі" — прагненні приписати нижчий статус одним формам життя порівняно з іншими на тій підставі, що головний хімічний елемент в їхніх молекулах — кремній, а не вуглець.
Маск не єдиний аларміст, з яким Пейджу доводиться схрещувати шпаги і який вважає, що ШІ, який досяг інтелектуального рівня людини, здатний знищити людство. Філософ Нік Бострем, який написав книгу "Штучний інтелект. Етапи. Загрози. Стратегії", ще в 2003 році вигадав приклад зі скріпками.
Якщо перед штучним інтелектом поставили завдання робити скріпки, він буде робити їх якомога більше і краще, каже Бостром. Він буде перетворювати на скріпку максимально можливу кількість атомів, що знаходяться на Землі. Навіть якщо він не буде мати нічого проти людей, він буде вбивати їх просто через потребу в атомах для своїх скріпок.
Усе це може здатися безглуздою фантазією, але Тегмарк із цього приводу зауважує: "Ми не можемо заперечити, що цивілізація, створена машинами, що перемогли, поставить перед собою цілі, які ми вважали б дуже гідними, цікавими і глибоко продуманими, але ми не можемо заперечити і того, що вони виявляться і наприпустимо банальними — наприклад, налагодити оптимальне виробництво дешевих скріпок для паперу".
Хоч сам Тегмарк є прихильником руху за дружній ШІ, в своїй книзі він накидає й апокаліптичні картини знищення людини розумом, який його перевершив. Чому? Можливо, йому не сподобається, як люди справляються з планетою. Або ж вважатиме, що вони занадто противляться його влади, яка народжується. Це важко передбачити. Як і те, яким саме способом він здійснюватиме свою "місію". І все ж книгу Тегмарк закінчує гімном оптимізму. Але не безумовному, а тому, що один з його колег назвав розумним, — коли людина вірить, "що хороші речі траплятимуться, якщо ти добре все сплануєш і добре заради них потрудишся".