Разделы
Материалы

"ИИ уничтожит человечество с вероятностью 10-20%": Илон Маск признал угрозу, но не сдался

Ирина Рефаги
Фото: Скриншот | Илон Маск поддерживает развитие искусственного интеллекта

Миллиардер согласен с оценками эксперта по ИИ Джеффри Хинтона, который считает, что ИИ способен навредить всем людям, но это его не останавливает.

В рамках cеминара "Большие дебаты об искусственном интеллекте" на мероприятии Abundance Summit, известный миллиардер Илон Маск заявил, что искусственный интеллект (ИИ) может уничтожить человечество. Однако, несмотря даже на такой риск, миллиардер призвал все равно развивать такие технологии, передает Вusiness insider.

По мнению Маск сказал, ИИ может привести к гибели человечества. В оценках рисков он согласился с Джеффри Хинтоном — ученым и экс-руководителем отдела исследований ИИ в Google, но считает, что вероятный успех перевешивает последствия негативного сценария. Интересно, что Илон Маск не упомянул, как именно рассчитывались риски.

"Я думаю, есть некоторый шанс, что это положит конец человечеству. Я, наверное, соглашусь с Джеффом Хинтоном, что это около 10% или 20% или что-то вроде того", — сказал Илон.

Роман Ямпольский, исследователь безопасности ИИ и директор лаборатории кибербезопасности в Университете Луисвилля, рассказал Business Insider, что Маск прав, говоря, что ИИ может представлять экзистенциальную угрозу для человечества, но Маск слишком консервативен, согласно оценке Романа.

"По моему мнению, показатель p(doom) намного выше", — сказал Ямпольский.

P(doom) — это вероятность очень плохих результатов (например, вымирания человечества) в результате применения ИИ, — ред. Под p(doom) также подразумевают ситуацию, в которой ИИ возьмет контроль над человечеством или вызовет событие, которое положит конец человечеству, например, создаст новое биологическое оружие или вызовет коллапс в результате масштабной кибератаки, или ядерной войны.

Газета The New York Times назвала (p)doom новой ужасной статистикой, охватившей Кремниевую долину, при этом различные руководители технологических компаний, по словам издания, считают, что вероятность апокалипсиса, вызванного ИИ, составляет от 5% до 50%. Ямпольский оценивает риск в 99,999999%, так как будет невозможно контролировать продвинутый ИИ. По его мнению, лучше такую технологию и не создавать вообще.

"Не понимаю, почему Маск считает, что развивать эту технологию — хорошая идея", — прокомментировал Ямпольский. — "Если он обеспокоен тем, что конкуренты доберутся до нее первыми, это не имеет значения, поскольку неконтролируемый сверхинтеллект одинаково плох, независимо от того, кто его создал".

В ноябре прошлого года Маск сказал, что вероятность того, что технология в конечном итоге испортится, не равна нулю, однако он был более оптимистичен в своих оценках, чем сегодня. Хотя он и был сторонником регулирования ИИ, в прошлом году Илон основал компанию под названием xAI, целью которой является дальнейшее расширение возможностей этой технологии. xAI является конкурентом OpenAI.

На саммите Илон Маск заявил, что к 2030 году цифровой интеллект превысит весь человеческий интеллект вместе взятый, утверждая, что потенциальные положительные стороны перевешивают отрицательные, Маск признал риск для мира, если развитие ИИ продолжится по нынешней траектории в некоторых областях.

"Одна из вещей, которые, по моему мнению, невероятно важны для безопасности ИИ, — это наличие максимально любопытного и ищущего истины ИИ", — подчеркнул бизнесмен.

По его мнению, лучший способ достичь безопасности ИИ — развивать ИИ таким образом, чтобы он был правдивым.

"Не заставляйте его лгать, даже если правда неприятна", — сказал Маск.

Исследователи обнаружили, что, как только ИИ научится лгать людям, обманчивое поведение невозможно будет изменить с помощью существующих мер безопасности. Об этом, в частности, писало медиа The Independent. В материале говорилось, что если ИИ-модель будет демонстрировать обманчивое поведение, то нынешние методы обучения технике безопасности не гарантируют безопасность, но даже могут создать ложное впечатление о безопасности. Ученые также уверены, что ИИ может научиться обманывать, как говорится, просто так.

Джеффри Хинтон считает, что если нейросеть станет намного умнее людей, она сможет манипулировать ими, потому что она научится этому у людей. Об этом он заявил в комментарии CNN.

Ранее мы писали о том, что "крестный отец ИИ" боится, что нейросети захватят мир. Ученый Джеффри Хинтон требует от властей ведущих стран мира срочно остановить распространение ИИ и взять его под контроль.