"Зможе і вбивати, і керувати вашим життям": колишній топменеджер Google розкрив головні загрози ШІ

робот
Фото: ca.finance.yahoo.com

Машини вже зараз приймають доленосні рішення, наслідки яких не можуть ні передбачити, ні пояснити.

Related video

Колишній співробітник компаній Google, Apple і Microsoft Кай-Фу Лі виділив чотири основні загрози, які штучний інтелект представляє для людства.

Експерт розповів про них у інтерв'ю Yahoo! Finance.

Найголовнішою небезпекою Кай-Фу Лі вважає "розумну" автономну зброю, яку можна навчити вбивати людей. За словами Лі, такі технології назавжди змінять війни через свою доступність, точність, швидкість програмування — буде практично неможливо встановити винуватців воєнних злочинів. Вже зараз будь-який ентузіаст може створити машину-вбивцю, яка літає, витративши $1 тис. Він закликав якщо не заборонити зброю з ШІ, то навчитися правильно регулювати її обіг.

"Уявіть собі дрон, який може знаходити конкретних людей за допомогою системи розпізнавання осіб або чогось ще, — зазначив експерт. — Я думаю, що це змінює майбутнє тероризму, тому що терористи більше не зобов'язані будуть жертвувати своїми життями, здійснюючи напади на мирних громадян. Будь-яка терористична група зможе використовувати 10 тис. таких дронів для звершення чогось настільки ж жахливого, як геноцид" .

За словами Кай-Фу, другий ризик полягає в ненавмисних негативних наслідках, які виникають, коли ШІ зосереджується на одному завданні, ігноруючи інші. Як приклад топменеджер навів алгоритми рекомендацій YouTube, які пропонують відео, здатні негативно впливати на мислення користувачів.

Кай-Фу Лі раніше працював у Google, Apple і Microsoft Fullscreen
Кай-Фу Лі раніше працював у Google, Apple і Microsoft
Фото: Скриншот

Саме ця проблема спливла в нещодавньому розслідуванні The Wall Street Journal — видання виявило, що Instagram негативно впливає на те, як дівчатка-підлітки сприймають свою зовнішність. Крім того, молоді люди пов'язують соцмережу з підвищеним рівнем тривожності і виникненням депресій.

Ще однією загрозою є збір конфіденційної інформації про людей. З одного боку, машинні алгоритми можуть спостерігати за активністю користувача в мережі, ставати розумнішими і краще виконувати свою роботу, наприклад, пропонувати музику відповідно до особистих смаків кожного. З іншого боку, вони збирають дані, які можуть допомогти скомпрометувати людину.

Рішення, які приймає ШІ, особливо важливі в ситуаціях, від яких залежить людське життя. Як правило, машина не може пояснити, чому прийняла те чи інше рішення, але її програмують так, щоб вона приймала завідомо вигідніші рішення, однак і вони бувають дуже непростими. Кай-Фу Лі навів такий приклад: по рейках їде пасажирський поїзд, і ви бачите, що вони обриваються. Однак ви можете перевести поїзд на інші шляхи, щоб врятувати пасажирів, але тоді загинуть троє робітників, які ремонтують запасний шлях. Чи можна прийняте рішення звернути на запасні шляхи вважати "вигідним"?

"Чи може ШІ пояснити нам, чому він обрав ті чи інші рішення, коли йдеться про автоматичне управління автономними транспортними засобами, або про прийняття рішень при проведенні хірургічних операцій? Це стає серйозною проблемою", — зазначив фахівець.

Кай-Фу Лі займався розробкою штучного інтелекту протягом десятиліть, з тих пір, як він брав участь у створенні технології розпізнавання мови і автоматизованої мови в якості докторанта в Університеті Карнегі-Меллона. З 2009 року він обіймав посаду генерального директора Sinovation Ventures з активами понад $2,5 млрд.

Раніше Фокус писав, коли зітреться різниця між людиною і машиною. На думку футурологів, через лічені роки відбудеться "технологічна сингулярність" — стрімкий стрибок у розвитку технологій, який назавжди змінить існуючу цивілізацію.

Тим часом, у США суд заборонив визнавати штучний інтелект автором винаходів у патентній документації. Приводом для суперечки стала "творча машина" DABUS, яка розробила контейнер для напоїв і пристрій для залучення уваги.