Розділи
Матеріали

Досконалий ШІ дуже небезпечний для людей: експерт розповів чому

Фото: Getty Images | Ілюстративне фото: штучний інтелект

У найближчому майбутньому з'являться машини, здатні передбачати дії людини, проте їхній спосіб мислення буде абсолютно іншим.

У найближчі десятиліття з'явиться просунутий штучний інтелект, який буде несхожим на людський. Експерт у галузі ШІ Луї Розенберг представив свій прогноз у колонці для видання Venture Beat.

Зараз багато розробників намагаються створити так званий "загальний штучний інтелект" (artificial general intelligence), який буде дійсно "розумним" і зможе самостійно мислити, а не лише виконувати специфічні завдання, для яких створений. На думку Луї Розенберга, ШІ з таким рівнем пізнання мислитиме зовсім не так, як люди.

"Якщо він поводитиметься як будь-який інший відомий нам розумний вид, він поставить свої власні інтереси на перше місце, прагнучи максимізувати свої шанси на виживання", — наголосив експерт.

Вкрай малоймовірно, що розробники зможуть змусити машини відчувати й чинити подібно до людей. Програмісти не прописують програми зі старанно продуманими правилами, які визначають спосіб мислення ШІ, але завантажують у них величезні набори даних. На думку Луї Розенберга, ШІ вчитиметься на цих даних і налаштовуватиме власні параметри, поступово вносячи мільйони дрібних змін, поки його структура не стане надто складною для розуміння творцями.

"Згодовування йому даних про людей не змусить його думати, як люди. Це поширена помилка — помилкове переконання, що, навчаючи ШІ на даних, що описують людську поведінку, ми досягнемо того, щоб він думав, відчував і діяв так само як ми", — зауважив аналітик.

Експерт додав, що водночас ШІ зможе добре вивчити людей, розуміти їхні жести та міміку, передбачати дії, зрозуміють, як приймаються логічні та нелогічні рішення. Машини будуть пов'язані з мільярдами датчиків по всій планеті — людині просто не дано сприймати всю Земну кулю і бачити загальну картину того, що відбувається, на відміну від такого високорозвиненого ШІ.

Інженери спробують помістити ШІ у роботів, які максимально нагадують людські тіла, щоб люди їх не боялися, але на їхнє мислення оболонка ніяк не вплине. Небезпека полягає в тому, що багато алгоритмів розробляють спеціально для того, щоб перемагати людей: в іграх, у війнах; а також для рекламування товарів.

Деякі вчені працюють над безпековими заходами, але вони не зможуть повністю усунути загрозу ШІ. Опитування Pew Research показує, що лише деякі розробники вірять, що до 2030 року галузь впровадить робочі стандарти "етичного ШІ". Луї Розенберг закликав усвідомити небезпеку інтелекту, який згодом зможе контролювати та маніпулювати людьми, використовуючи знання про людську поведінку, а також менше покладатися на штучні алгоритми.

Луї Розенберг є доктором філософії та одним з перших розробників віртуальної реальності та штучного інтелекту. У 1992 році він розробив першу систему доповненої реальності для ВПС США, роком пізніше заснував першу компанію віртуальної реальності Immersion Corp (Nasdaq IMMR) у 1993 році, у 2004-му заснував компанію Outland Research, що займалася розробкою доповненої реальності, а зараз є генеральним директором Unanimous AI, яка розробляє ШІ, здатний пророкувати відповіді людського суспільства на різні питання.

Раніше писали, що штучний інтелект "зливає" ключі від гаманців із криптовалютою. Як виявилося, інструмент Copilot на базі моделі OpenAI знаходить у коді адреси в чужому коді та випадково вставляє їх у свій власний. Програмісти помітили це, змогли отримати доступ до гаманців і навіть зробити перекази.

Писали також, що у США вчені створили ШІ, здатний точно передбачати майбутнє. Головна особливість системи полягає у простоті, що дозволяє навіть нефахівцям отримувати прогнози у різних галузях, зокрема щодо погоди, зміни цін та медицини.