"Якщо ШІ захоче, він нас знищить за дві секунди": вчені оцінили небезпеку нейромереж

штучний інтелект, людство, небезпека
Фото: Ілюстративне фото | Учені впевнені, що ми не зможемо протистояти надінтелектуальним нейромережам

Надінтелектуальний ШІ не може бути контрольований, попереджає звіт учених із Європейського товариства Макса Планка.

Related video

Дослідники цієї однієї з найповажніших міжнародних організацій зробили оцінку можливостей людства щодо контролю над надінтелектуальним штучним інтелектом, повідомляє Interesting Engineering. Відповідну статтю вони опублікували в Журналі досліджень штучного інтелекту.

У цьому дослідженні вчені з Європейського товариства Макса Планка сфокусувалися на здатності людства протистояти гіпотетичному сценарію, в якому ШІ вирішує покінчити з людьми. І висновок, якого дійшли експерти, не втішний: із нашими сучасними технологіями ми практично безсилі перед таким ШІ.

Тому вчені пропонують розробити так званий "алгоритм змісту", який імітує небезпечну поведінку надінтелектуального ШІ та запобігає його руйнівним діям.

"Надінтелектуальна машина, яка контролює світ, звучить як наукова фантастика, — каже співавтор дослідження Мануель Себріан, керівник групи цифрової мобілізації в Центрі людей і машин товариства Макса Планка. — Але вже існують машини, які виконують певні важливі завдання самостійно, без того, щоб програмісти повністю розуміли, як вони цього навчилися. Тому постає питання, чи не може це в якийсь момент стати неконтрольованим і небезпечним для людства", — продовжує Себріан.

Звичайно, все це теоретично, оскільки ми ще далекі від створення штучного інтелекту з такими можливостями. Проте нова стаття додає важливий аргумент до дискусії, яку веде кампанія Stop Killer Robots, яку підтримують такі люди як Ілон Маск і Ноам Хомскі.

Раніше Фокус розповідав, що армія США вивчає, як захистити дані для навчання ШІ: чому це важливо.