Врятує чи вб'є? Вчений розвінчав три найпопулярніші міфи про штучний інтелект

Фото: кадр из фильма "Робот по имени Чаппи"

Для того, щоб знищити людство, AI не обов'язково мати "тіло" у вигляді роботів або бути злим. Директор Інституту майбутнього людства пояснює, чим насправді є небезпечною нейромережа.

Штучний інтелект застосовується в багатьох сферах — від голосових помічників і до безпілотних автомобілів, від пошукових алгоритмів Google і до автономної зброї. У фантастичних фільмах його зображують як всемогутніх роботів або сутностей, що володіють надлюдськими здібностями. Насправді, сучасні нейромережі в науковому співтоваристві прийнято класифікувати як "слабкі", оскільки призначені вони для виконання вузького пулу завдань (наприклад, тільки для розпізнавання осіб або тільки для пошуку в Інтернеті, або тільки для водіння автомобіля). Однак багато вчених ставлять за мету створити "сильний" ШІ. Чи варто нам вже сьогодні побоюватися таких технологій?

На це питання у своїй колонці відповідає президент Інституту майбутнього людства (FLI) Макс Тегмарк.

чіп, ШІ, процесор
ШІ перебуває в зародковому стані, але люди вже його бояться

На що буде здатний суперінтелект

Що станеться, якщо пошуки сильного ШІ увінчаються успіхом і система стане кращою за людей у плані виконання всіх когнітивних завдань? Потенційно суперсистема зможе до нескінченності самовдосконалюватися, залишивши людський інтелект далеко позаду. Винаходячи революційні нові технології, такий суперінтелект може допомогти нам викорінити війни, хвороби та бідність, і тому створення сильного ШІ може стати найбільшою подією в історії людства. Однак деякі експерти стурбовані тим, що це може призвести до краху, якщо ми не навчимося узгоджувати цілі ШІ з нашими, перш ніж він стане надрозумним.

"У FLI ми визнаємо обидві ці можливості, але також усвідомлюємо, що система штучного інтелекту навмисно або ненавмисно може завдати великої шкоди. Ми вважаємо, що сьогоднішні дослідження допоможуть нам краще підготуватися до таких потенційно негативних наслідків у майбутньому та запобігти їм.

Більшість дослідників згодні з тим, що надрозумний ШІ навряд чи буде проявляти людські емоції, такі як любов чи ненависть, і що немає ніяких підстав очікувати, що нейромережа стане навмисно доброзичливою або злісною", — пише вчений.

Експерти вважають, що найбільш вірогідні два сценарії.

ШІ запрограмований на руйнування

Автономна зброя — це AI-системи, які запрограмовані на вбивство. Попадання цієї зброї в руки не тій людині може привести до масових жертв. Більш того, гонка "розумних" озброєнь може ненавмисно призвести до війни. Ризик у тому, що смарт-зброя могла б бути спроектована таким чином, щоб її було надзвичайно важко просто "вимкнути". У такому випадку люди втратять контроль над ситуацією. Цей ризик присутній навіть сьогодні та збільшується в міру підвищення рівня інтелекту й автономності нейромереж.

ШІ запрограмований на корисні справи

У такому випадку дуже важливо вміти повністю узгоджувати цілі ШІ з нашими, що вельми складно. Наприклад, якщо ви попросите слухняну "розумну" машину доставити вас в аеропорт якомога швидше, вона розженеться до такої міри, що вас як мінімум закачає — з усіма наслідками, що випливають. Тобто вона зробить не те, що ви хотіли, а буквально те, про що ви просили.

Як показують ці приклади, просунутий ШІ зовсім не злий, а просто занадто компетентний. "Надрозумний ШІ буде надзвичайно гарний у досягненні своїх цілей, і якщо ці цілі не збігаються з нашими, у нас виникнуть проблеми", — робить висновок Тегмарк.

інфографіка, міфи про ШІ, ШІ
Найпопулярніші міфи про штучний інтелект
Фото: futureoflife.org

Міфи про штучний інтелект

Ілон Маск, Стів Возняк, Білл Гейтс і багато інших авторитетних особистостей у галузі науки та технологій все частіше говорять про ризики, пов'язані зі ШІ. На тлі цих публікацій з'явилося безліч міфів про можливості нейромереж. А недавнє дослідження показало, що близько 3 млн американців просто бояться ШІ. Але чи варто?

У XXI столітті ШІ перевершить/не перевищить людський інтелект

Це дуже поширена помилка. "Де ті термоядерні електростанції та літаючі машини, які нам обіцяли фантасти до теперішнього часу?" — іронізує автор. Він вважає, що можливості AI сильно перебільшені. І, як говорилося вище, нейромережі поки можуть бути заточені на одну вузьку задачу — не більше.

З іншого боку, популярний контрміф полягає в тому, що ми точно знаємо: в цьому столітті ми не отримаємо надлюдський розум.

"Звичайно, не можемо з великою впевненістю стверджувати, що ймовірність дорівнює нулю. Деякі дослідники вважають, що надлюдський ШІ ніколи не з'явиться, тому що це фізично неможливо, — міркує Макс. — Було проведено низку опитувань, у яких дослідників запитували, через скільки років, на їхню думку, у нас буде AI людського рівня з ймовірністю не менше 50%. Висновки усіх цих опитувань один: провідні світові експерти не змогли відповісти на це питання, тому що відповіді вони просто не знають. Наприклад, на конференції, що проходила в Пуерто-Ріко в 2015 році, деякі вчені зійшлися в думці, що "середній" ШІ з'явиться до 2045 року, а деякі дослідники припускали, що це буде через сотні років або більше" .

Проблема надрозумних машин хвилює тільки ламерів

Прийнято вважати, що розвитку нейромереж бояться тільки ті люди, які про ці самі мережі мало що знають. Але це далеко не так. Сьогодні в світі проводиться безліч досліджень, присвячених питанням безпеки систем, що працюють на алгоритмах машинного навчання. Можливо, досліджень не так вже й багато, як хотілося б, але не варто забувати, що це — дороге задоволення.

"Можливо, ЗМІ зробили обговорення безпеки ШІ більш суперечливим, ніж воно є насправді. Зрештою, страх продається, а статті, в яких використовуються цитати поза контекстом, що проголошують неминучу загибель людства, можуть генерувати більше трафіку, ніж вдумливі оглядові матеріали", — резюмує автор.

робот, термінатор
Багато людей бояться, що розумні роботи стануть злими
Фото: Getty Images

Штучний інтелект буде мати свідомість, і він обов'язково буде злим

Щодня медіа публікують матеріали про злісний Скайнет і термінаторів, які обов'язково будуть налаштовані проти людей. Чомусь прийнято вважати, що ШІ, як тільки порозумнішає, то обов'язково розлютиться на людство.

"Коли ви їдете в авто і розглядаєте все навколо, то сприйняття кольорів, звуків, запахів суб'єктивне. Але чи є у безпілотного автомобіля суб'єктивний досвід? Як взагалі бути безпілотним автомобілем? Хоча ця загадка свідомості цікава сама по собі, вона не має стосунку до ризику, що ШІ почне усвідомлювати себе та все навколо. Якщо когось збиває безпілотний автомобіль, що він "відчуває" в цей момент? І чи відчуває? На людей вплине те, що робить надрозумний ШІ, а не його суб'єктивні відчуття", — наводить приклад учений.

Ще один міф — машини обов'язково стануть злими. "Справжнє занепокоєння викликає не злоба, а надкомпетентність. Надрозумна система за визначенням дуже хороша в досягненні своїх цілей, якими б вони не були, тому нам потрібно переконатися, що її цілі збігаються з нашими. Зазвичай люди не ненавидять мурах, але ми розумніші за них — тому, якщо ми хочемо побудувати греблю гідроелектростанції там, де є мурашник, для мурашок це дуже погано, але для нас — ні. Не варто думати, що штучний інтелект хоче поставити людство в положення цих мурах", — пояснює автор.

Цей міф виник внаслідок помилки, що в машин не може бути цілей. "Очевидно, що машини можуть мати цілі у вузькому сенсі, тобто вони можуть демонструвати цілеспрямованість поведінки. Це видно на прикладі самонавідних ракет. Якщо ви відчуваєте загрозу з боку машини, цілі якої не збігаються з вашими, то саме її мета в цьому вузькому сенсі турбує вас, а не те, чи усвідомлює машина, що вона робить, і чи відчуває вона, що досягла/не досягнула мети. Якби за вами гналася самонавідна ракета, ви, ймовірно, не подумали б: "Я не хвилююся, тому що у машин не може бути цілей!" — пише Макс Тегмарк.

Також учений зазначає, "щоб доставити нам проблеми, надлюдському розуму не потрібно ніякого "тіла" у вигляді робота, а тільки підключення до Інтернету — це дозволить маніпулювати фінансами, інфраструктурами, світовими лідерами та дасть можливість розробити зброю, яку ми навіть не зможемо зрозуміти і, отже, оцінити його небезпеку".

Міф про те, що ШІ обов'язково потрібна оболонка, пов'язаний із тим, що ми схильні порівнювати його з собою — раз у нас є тіло, то й у нього має бути. "Люди керують тиграми не тому, що сильніші за них, а тому, що розумніші. Це означає, що якщо ми поступимося позицією найрозумніших на нашій планеті, можливо, ми також поступимося контролем", — підсумовує автор.

Рекомендуємо наш матеріал про те, чому нейромережі вже сьогодні є конкурентами для людей, особливо на ринку праці.