"ИИ — большой риск для человечества": ученый пожалел о том, что создавал нейросети

робот, роботы, ИИ, фильм Из машины
Кадр из фильма "Из машины" | Фото: Кадр из фильма

Профессор Джеффри Хинтон не знает, что нам нужно будет предпринять, если ИИ вдруг "взбунтуется".

Выдающийся ученый и пионер в области искусственного интеллекта, Джеффри Хинтон недавно заявил, что развивающиеся нейросети несут в себе больше рисков для человечества, чем, к примеру, климатические изменения, сообщает nypost.com.

"Крестный отец ИИ", 75-летний профессор Джеффри Хинтон, недавно покинул компанию Google, которой помогал разрабатывать технологии искусственного интеллекта и машинного обучения. После того, как ученый оставил свое место работы он дал интервью, в котором пояснил свою позицию, а также роль BigTech-компаний в продвижении нейросетей.

"Я бы не хотел обесценивать проблему изменения климата. Это тоже огромный риск", — сказал Хинтон в интервью агентству Reuters. "Но я думаю, что проблема с ИИ может оказаться более серьезной".

Відео дня

Хинтон считает, что решить климатическую проблему намного проще, чем ту, которую могут создать нейросети.

"В условиях изменения климата очень легко порекомендовать, что вам следует делать: просто перестаньте сжигать углерод. Если вы сделаете это, в конце концов все будет хорошо. Но что касается ИИ, то вообще не ясно, что вам следует делать", — подчеркнул эксперт.

Хинтон присоединился к группе ученых, бизнесменов и лидеров мнений, куда входит и Илон Маск, которая бьет тревогу по поводу бесконтрольно развивающегося искусственного интеллекта. Критика усилилась после успеха чат-бота ChatGPT, разработанного OpenAI при поддержке Microsoft. Критики утверждают, что "нерегулируемый" ИИ может способствовать распространению дезинформации, привести к крупным потерям на рынке труда и предоставить злоумышленникам новые инструменты для совершения киберпреступлений.

Профессор Джеффри Хинтон недавно признался в том, что сожалеет о работе над развитием нейросетей, которые теперь, по его мнению, несут риски для человечества, пишет СМИ. Он выразил опасение, что продвинутый ИИ сможет выйти из-под контроля людей в том случае, если разовьет способность создавать и запускать свой собственный компьютерный код. Он также сказал, что системы вооружений, управляемые при помощи ИИ, являются "пугающими".

Интересно, что ученый не поддерживает призыв Маска, и более 1000 других экспертов, ввести шестимесячную паузу в разработке продвинутого ИИ, чтобы зарегулировать процессы. Хинтон назвал саму концепцию такой паузы "совершенно нереалистичной".

"Я принадлежу к лагерю тех, кто считает, что ИИ несет в себе экзистенциальный риск, и считаю, что прямо сейчас мы должны усердно работать и вкладывать много ресурсов, чтобы выяснить, как нам развивать технологию дальше", — сказал Хинтон.

Ранее мы сообщали о том, что ученые из Европейского общества Макса Планка полагают, что ИИ может восстать против людей.