Розділи
Матеріали

Еволюція ШІ: чи зможуть роботи стати рівними людині

Ірина Рефагі
Фото: Скриншот/фильм "Дитя робота"

Чи зможемо ми конкурувати з ШІ і чи матимемо право припинити його діяльність, якщо він навчиться самостійно мислити.

Штучний інтелект сьогодні не використовує хіба що ледачий: він допомагає ставити діагнози, вчитися, знайомитися і заводити стосунки, забезпечувати безпеку, надавати різні послуги, писати картини і навіть пʼєси. Але найголовніше — у багатьох сферах він здатний замінити нас з вами. І ось тут виникає етичне питання: якщо ШІ зможе розвинутися до людського рівня, чи варто нам У майбутньому сприймати його як рівного, наділивши правами і свободами?

ШІ стає більш "людяним"

Чому ми любимо ШІ? Тому що олюднюємо: інженери і дизайнери наділяють роботів, віртуальних і реальних, нашими рисами, роблячи їх віддалено або максимально схожими на нас. Навіщо так чинити? Відповідь проста: людині легше взаємодіяти з чимось знайомим і зрозумілим, ніж з чимось екстравагантним, а тому неправдоподібним. Ось і виходить, що робототехніка, створена для безпосередньої комунікації з людьми, має голову, обличчя, а іноді тулуб, руки і ноги.

Наявність "людського фактора", безумовно, робить людей прихильними до ботів, і навіть впливає на виникнення таких почуттів, як привʼязаність, симпатія. Діючи через емоції, андроїди мають цілу армію шанувальників, якій у майбутньому належить відстоювати їх права і інтереси. А дехто з ботів вже має права — андроїд Софія, яка отримала громадянство, паспорт і стала підданою Саудівської Аравії, а отже і володаркою тих самих прав, що й інші громадяни цієї країни. Так, поки вона одна така, але розгляд питання етики стосовно ШІ — це вкрай важливе завдання, вирішити яке намагаються не один десяток років.

Робот Софія має паспорт і громадянство
Фото: Hanson Robotics

Хто краще: робот чи людина?

Кажуть, що боти нам сильно програють у тих сферах, де потрібно проявляти креативність, нестандартність і критичність мислення, брати до уваги людський фактор або задіяти емпатію. Наприклад, системи розпізнавання осіб погано показують себе при аналізі зображень людей негроїдної раси. Також медичні роботи можуть використовуватися як помічники, але проводити операції самостійно, без контролю та управління з боку хірургів, — ні. Помиляються боти і тоді, коли мова заходить про культуру поведінки: скільки смарт-дзеркал і чат-ботів було відключено власниками магазинів і брендів, після того, як відвідувачі навчили їх лаятися.

Найнеймовірніші функції AI сьогодні

Дуже часто звучать висловлювання, що людям творчих професій взагалі боятися нічого. Однак саме у сфері ентертейменту роботів розвивають найшвидше. Згадайте хоча б віртуальну співачку Хацуне Міку, що збирає стадіони глядачів, робота-художницю Ai-Da, що відкриває виставки у Лондоні, віртуальних телеведучих, які працюють на телеканалах КНР, Південної Кореї та Казахстану. Поки що вони сприймаються нами, як якийсь експеримент, але тільки подумайте: вони завжди добре виглядають, не хворіють, не старіють, чітко виконують роботу, на яку запрограмовані. І зарплату їм платити не потрібно. Ми їм, у цьому плані, взагалі не конкуренти тоді. Є роботи, без яких не обійтися сьогодні: смарт-протези, екзоскелети, промислові роботи, що застосовуються на заводах, фабриках, в аграрному секторі, правоохоронній системі. Їх за борт не викинеш, та й змагатися з ними важко — всі вже звикли, що вони виконують важку роботу.

Sogou — віртуальний телеведучий

Що буде, якщо у ШІ зʼявиться свідомість?

Компанії-розробники роблять все можливе, щоб ШІ навчився мислити або імітувати розумовий процес. З одного боку, це добре, адже виконання багатьох завдань можна буде просто делегувати, що не спостерігаючи за ботом цілодобово, щоб коригувати його діяльність. З іншого боку, це може привести до неприємних наслідків. Неприємних для людей, звичайно.

Що якщо роботи зможуть вийти з-під контролю програмістів? Вже сьогодні існують ШІ-системи, що створюють чіпи для ШІ-систем і програми. Тобто роботів навчили створювати собі подібних. І якщо трапиться так, що бот усвідомлює себе, він заявить про автономність, зажадає прав, зарплати, житла, загалом всього того, з чого складається людське життя. Що тоді доведеться зробити — дати йому все необхідне, чи він зможе взяти це сам? А якщо ви з такою постановкою речей не згодні? Або він вас шантажує зібраними заздалегідь компрометуючими даними? Як доведеться розцінювати все те, що він зробив, як фейк або ж як істину? Експерти кажуть, що якщо бот буде розуміти, що він бот, у цьому разі вся інтерпритована та відтворена ним інформація повинна сприйматися як правдива, але якщо він обернеться кимось іншим, — як фейкова. Але як бути, якщо в будь-якому разі ви захочете відключити його? Хто отримає це право — компанія-розробник, компанія (приватна особа)-власник, держава? Розуміючи всі ризики, ШІ заявить про право на захист. І повірте, його відразу ж оточить армія адвокатів, які за сумісництвом будуть або шанувальниками його творчості, або просто тими, хто хоче прославитися. А розплатитися з ними він зможе за допомогою криптовалюти, наприклад, — або намайнить сам, або прикупить на криптобіржі, або подарує щось з NFT на додачу, доповнивши свій код кодом спеціальних програмок.

Кому належать права на ШІ?

Перш за все, тим компаніям, які займаються його розробкою. А в другу чергу — всім нам. Саме тому регулювати взаємовідносини громадян з ШІ і його дії повинні і приватні компанії, і держави. BigTech вже робить кроки у цьому напрямку, уклавши партнерство не тільки у сфері розробки, а й інтеграції ШІ в життя світової спільноти. Коло партнерів складають такі компанії, як IBM, Microsoft, Google, Facebook, Amazon. Їх завдання — проводити дослідження, задовольняти запити громадськості, будь-якими доступними способами сприяти розумінню технології.

Питаннями етики також займається Інститут інженерів електротехніки та електроніки (IEEE), який запропонував своє бачення етики автономних та інтелектуальних систем, щоб допомогти державам врегулювати застосування ШІ, ще у 1979 році.

Власну групу експертів, що займаються подібною проблемою, організувала і Європейська комісія — вищий орган виконавчої влади Європейського союзу, відповідальний за підготовку законопроектів. Однією з важливих ініціатив цієї групи — High-Level Expert Group on Artificial Intelligence (AI HLEG), — стало визнання неетичною роботу систем розпізнавання осіб та стеження за кожним громадянином з їх допомогою. З 2019 року Європейські політики намагаються знайти компроміс у питанні, адже на кону стоїть ще й забезпечення безпеки.

У США кілька років тому була розроблена "дорожня карта" для політики в галузі ШІ. Проект курувався офісом президента Обами.

Однак у всіх цих випадках, здебільшого, йдеться про непорушення прав людини. І це правильно — починати завжди потрібно з себе, тим паче, що це ми створили роботів, а не вони нас. Принаймні, зворотне поки не доведено.