"Вторгнення інопланетян": вчений передбачив, як і коли ШІ може знищити людство

штучний інтелект, ШІ, небезпека штучного інтелекту, ШІ загроза
Фото: wallha.com | Один із ризиків пов'язаний з тим, що перед потужним ШІ ставлять мету, але він самостійно обирає метод її досягнення

Можливо, головна небезпека ШІ полягає в тому, що він сам обирає засоби досягнення поставленої мети, і люди поки що не можуть це контролювати.

Related video

Інструменти зі штучним інтелектом, такі як чат-бот ChatGPT, зможуть передбачити інопланетне вторгнення, яке загрожує знищенням людства. Такого висновку дійшов професор Каліфорнійського університету Стюарт Рассел, який стояв біля витоків цієї технології, передає The Times.

Можливості ChatGPT перевершили всі його очікування – бот навчився писати комп'ютерний код і твори на задану тему, а одного разу навіть склав іспит замість студента. Проте вчений побоюється, що подібна система може стати частиною надрозумної машини, яка чинитиме опір будь-яким спробам контролю з боку людей.

Стюарт Рассел вважає, що один із ризиків пов'язаний з тим, що перед потужним ШІ ставлять мету, але він самостійно обирає метод її досягнення. Іноді може бути пов'язані з непередбаченими побічними ефектами, руйнівними для людства. Вчений навів приклад світу, в якому перед ШІ стоїть завдання виправити зміну клімату, і він вирішує, що найкращий спосіб — позбавити Землю людей.

Стюарт Рассел також порівняв появу надпотужного ШІ із вторгненням більш розвиненої інопланетної цивілізації. Раніше він думав, що такі системи з'являться лише через десятки років, але тепер, дивлячись на Chat GPT, він скоротив свій прогноз до найближчого десятиліття, хоча це все ще малоймовірно.

"У нас є європейці, які закликають до екстреного глобального саміту, є Китай, який фактично забороняє великі мовні моделі. У нас є Білий дім, який скликає всіх керівників технологічної галузі на екстрену нараду. Як ви собі уявляєте, може статися, якщо ми справді зіткнемося з інопланетною цивілізацією", — зазначив Стюарт Рассел.

Стюарт Рассел розчарований тим, що політики виступають за слабке регулювання сфери штучного інтелекту, попри те, що багато чиновників бачать потенційну загрозу цій технології. Нещодавно він разом з Ілоном Маском та Стівом Возняком підписав відкритий лист із пропозицією зупинити розвиток ШІ, щоб навчитися спочатку його контролювати.

Рассел – професор комп'ютерних наук у Каліфорнійському університеті в Берклі та член Уодхем-коледжу в Оксфорді. Він працював в ООН над створенням нової системи контролю за виконанням договору про заборону ядерних випробувань і є співавтором університетського підручника зі штучного інтелекту, що найбільш широко використовується.

Раніше вчений Джеффрі Хінтон пошкодував, що створив технологію нейромереж. За його словами, зараз ШІ небезпечніша для людства, ніж глобальні зміни клімату.