"Я вас попереджав 40 років тому": режисер "Термінатора" висловився про загрози ШІ (відео)

Термінатор, Джеймс Кемерон
Фото: Getty Images | Джемс Кемерон і його Термінатор

Джеймс Кемерон порівняв розробку нейромереж із винаходом ядерної зброї та припустив, що рано чи пізно машини вийдуть з-під контролю.

Оскароносний канадський режисер Джеймс Кемерон приїхав на відкриття виставки, присвяченої океанічним дослідженням, і дав інтерв'ю канадському CTV News на гарячу тему нейромереж і розвитку штучного інтелекту. Автор кіношедеврів "Титанік" і "Аватар" згоден з тим, що досягнення в галузі технологій становлять серйозну небезпеку для людства.

"Друзі, я попереджав вас про цю небезпеку ще 1984 року, коли зняв першу частину "Термінатора", але ви мене не послухали", — сміється Кемерон.

Чого боїться Джеймс Кемерон

На думку режисера, найбільша небезпека ШІ полягає в неконтрольованому поширенні та впровадженні штучного інтелекту у військові системи. Щойно армія почне активно використовувати ШІ, то це перетвориться на гонку озброєнь, як за часів Холодної війни.

Зі свого боку, це буде набагато небезпечніше, адже ядерну зброю контролюють люди, а що буде, якщо ШІ розвинеться до такої міри, коли сам вирішуватиме, як йому вести бойові дії, і відмовиться йти на деескалацію конфлікту. ШІ не бачитиме меж і продовжить бойові дії незважаючи ні на що, до останньої людини або робота.

роботи, штучний інтелект, заборона ШІ Fullscreen
У США вже діє організація, яка виступає проти застосування ШІ та роботів в армії
Фото: Stop Killer Robots

Що пропонує режисер

На думку Джеймса Кемерона, дослідження в галузі штучного інтелекту необхідно продовжувати, але не тільки для отримання нових можливостей, а ще й для того, щоб зрозуміти всі тонкощі його небезпеки. Кемерон сказав, що важливо оцінити, хто саме розробляє нейромережі та ШІ, а також для яких цілей ведеться така розробка. Багато хто з так званих хрещених батьків ШІ нещодавно виступив із попередженнями про необхідність регулювання штучного інтелекту, що швидко розвивається, перш ніж технологія стане становити велику загрозу для людства.

ШІ як письменник і сценарист

Звісно, в інтерв'ю Кемерон торкнувся теми генеративних ШІ, які дедалі краще можуть створювати контент, зокрема й текстовий (сценарії, книги). Це стало однією з причин страйку сценаристів і акторів у Голлівуді, які побоюються залишитися без роботи, якщо нейромережі й надалі вдосконалюватимуться в цьому напрямку. Профспілки стверджують, що акторам потрібен захист від того, щоб їхні образи використовували ШІ без згоди, а сценаристи кажуть, що студіям не слід дозволяти замінювати їх ШІ для написання сценаріїв.

Актори та сценаристи оголосили страйк проти впровадження ШІ в Голлівуді

Але Кемерон не вірить у ШІ-сценариста або ШІ-письменника. Він підтримує страйкарів, але на цьому етапі не бачить загроз від нейромереж у цьому сегменті. На думку режисера, "питання полягає не в тому, хто написав книжку або сценарій, а в тому, чи хороша це історія". Навряд чи штучний інтелект зможе запропонувати щось настільки захопливо, що може бути створено творчою людиною.

"ШІ просто збирає докупи все, що він узяв з інтернету про кохання, про брехню, про страх, про смертність — і просто складає все це разом у словесний салат. Навряд чи подібне може називатися творчістю і привабити аудиторію", — сказав оскароносний режисер. Особисто він "не зацікавлений", щоб для його фільмів сценарій писав ШІ, але "можна почекати років 20 і якщо ШІ отримає "Оскар" за свій сценарій, то тоді можна буде ставитися до цієї проблеми серйозно", — зазначає Джеймс Кемерон.

Джеймс Кемерон говорить про свої побоювання щодо ШІ

Раніше Фокус розповідав, що ШІ вже "воскрешає" знаменитостей, але живі актори проти такого "безсмертя". Вони побоюються, що їх просто замінять алгоритми штучного інтелекту, залишивши акторів без роботи.