Профессор Джеффри Хинтон не знает, что нам нужно будет предпринять, если ИИ вдруг "взбунтуется".
Выдающийся ученый и пионер в области искусственного интеллекта, Джеффри Хинтон недавно заявил, что развивающиеся нейросети несут в себе больше рисков для человечества, чем, к примеру, климатические изменения, сообщает nypost.com.
"Крестный отец ИИ", 75-летний профессор Джеффри Хинтон, недавно покинул компанию Google, которой помогал разрабатывать технологии искусственного интеллекта и машинного обучения. После того, как ученый оставил свое место работы он дал интервью, в котором пояснил свою позицию, а также роль BigTech-компаний в продвижении нейросетей.
"Я бы не хотел обесценивать проблему изменения климата. Это тоже огромный риск", — сказал Хинтон в интервью агентству Reuters. "Но я думаю, что проблема с ИИ может оказаться более серьезной".
Хинтон считает, что решить климатическую проблему намного проще, чем ту, которую могут создать нейросети.
"В условиях изменения климата очень легко порекомендовать, что вам следует делать: просто перестаньте сжигать углерод. Если вы сделаете это, в конце концов все будет хорошо. Но что касается ИИ, то вообще не ясно, что вам следует делать", — подчеркнул эксперт.
Хинтон присоединился к группе ученых, бизнесменов и лидеров мнений, куда входит и Илон Маск, которая бьет тревогу по поводу бесконтрольно развивающегося искусственного интеллекта. Критика усилилась после успеха чат-бота ChatGPT, разработанного OpenAI при поддержке Microsoft. Критики утверждают, что "нерегулируемый" ИИ может способствовать распространению дезинформации, привести к крупным потерям на рынке труда и предоставить злоумышленникам новые инструменты для совершения киберпреступлений.
Профессор Джеффри Хинтон недавно признался в том, что сожалеет о работе над развитием нейросетей, которые теперь, по его мнению, несут риски для человечества, пишет СМИ. Он выразил опасение, что продвинутый ИИ сможет выйти из-под контроля людей в том случае, если разовьет способность создавать и запускать свой собственный компьютерный код. Он также сказал, что системы вооружений, управляемые при помощи ИИ, являются "пугающими".
Интересно, что ученый не поддерживает призыв Маска, и более 1000 других экспертов, ввести шестимесячную паузу в разработке продвинутого ИИ, чтобы зарегулировать процессы. Хинтон назвал саму концепцию такой паузы "совершенно нереалистичной".
"Я принадлежу к лагерю тех, кто считает, что ИИ несет в себе экзистенциальный риск, и считаю, что прямо сейчас мы должны усердно работать и вкладывать много ресурсов, чтобы выяснить, как нам развивать технологию дальше", — сказал Хинтон.
Ранее мы сообщали о том, что ученые из Европейского общества Макса Планка полагают, что ИИ может восстать против людей.