Розділи
Матеріали

"ШІ — великий ризик для людства": вчений пошкодував про те, що створював нейромережі

Фото: Кадр із фильму | Кадр із фільму "З машини"

Професор Джеффрі Хінтон не знає, як ми маємо вчинити, якщо ШІ раптом "постане" проти нас.

Видатний вчений та піонер у галузі штучного інтелекту, Джеффрі Хінтон, нещодавно заявив, — нейромережі, що розвиваються, являють собою більший ризик для людства, ніж, наприклад, кліматичні зміни, повідомляє nypost.com.

"Хрещений батько ШІ", 75-річний професор Джеффрі Хінтон, нещодавно залишив компанію Google, якій допомагав розробляти технології штучного інтелекту та машинного навчання. Після того, як вчений залишив своє місце роботи, він дав інтерв'ю, в якому пояснив свою позицію, а також роль BigTech-компаній у просуванні нейромереж.

"Я не хотів би знецінювати проблему зміни клімату. Це теж величезний ризик", — сказав Хінтон в інтерв'ю агентству Reuters. "Але я думаю, що проблема із ШІ може виявитися набагато серйознішою".

Хінтон вважає, що вирішити кліматичну проблему дещо простіше, ніж ту, до якої можуть призвести нейромережі.

"В умовах зміни клімату дуже легко порекомендувати, що вам слід робити: просто припиніть спалювати вуглець. Якщо ви зробите це, зрештою все буде добре. Але щодо ШІ, то взагалі не ясно, що вам слід робити", — наголосив експерт.

Хінтон приєднався до групи вчених, бізнесменів і лідерів думок, куди входить Ілон Маск, яка б'є на сполох з приводу штучного інтелекту, що безконтрольно розвивається. Критика посилилася після успіху чат-бота ChatGPT, розробленого OpenAI за підтримки Microsoft. Критики стверджують, що "нерегульований" ШІ може сприяти поширенню дезінформації, призвести до великих втрат на ринку праці та надати зловмисникам нові інструменти для кіберзлочинів.

Професор Джеффрі Хінтон нещодавно зізнався у тому, що шкодує про роботу над розвитком нейромереж, які тепер, на його думку, несуть у собі ризики для людства, пише ЗМІ. Він висловив побоювання, що просунутий ШІ зможе вийти з-під контролю людей у тому випадку, якщо розвине здатність створювати та запускати свій власний комп'ютерний код. Він також сказав, що системи озброєнь, керовані за допомогою ШІ, є "лякаючими".

Цікаво, що вчений не підтримує заклик Маска, та понад 1000 інших експертів, запровадити шестимісячну паузу у розробці просунутого ШІ, щоб зарегулювати процеси. Хінтон назвав саму концепцію такої паузи "цілком нереалістичною".

"Я належу до табору тих, хто вважає, що ШІ несе в собі екзистенційний ризик, і вважаю, що просто зараз ми маємо старанно працювати і вкладати багато ресурсів, щоб з'ясувати, як нам розвивати технологію далі", — сказав Хінтон.

Раніше ми повідомляли про те, що вчені з Європейського товариства Макса Планка вважають, що ШІ може повстати проти людей.