ШІ ризикує вимиранням людства. Як світові уряди готуються протистояти штучному інтелекту

Раді безпеки ООН порекомендували "серйозно поставитися до ШІ" — організація вперше зібралася для обговорення ризиків і можливостей штучного інтелекту.

штучний інтелект, ризики штучного інтелекту, чим небезпечний штучний інтелект,
Фото: Sky News | "ШІ ніколи не повинен прикидатися людиною, займати людські позиції або вводити людей в оману", кажуть експерти
Related video

Члени Ради безпеки заслухали виступи експертів, які розповіли про те, які величезні можливості представляє, на їхню думку, штучний інтелект, але також і про серйозні ризики, а також про нагальну необхідність глобальної єдності в цьому питанні.

На першій у такому роді сесії у вищому дипломатичному органі світу представники 15 країн почули, що ШІ становить "катастрофічні ризики для людей", але також і "історичну можливість".

Присутні під головуванням міністра закордонних справ Великої Британії Джеймса Клеверлі заслухали Джека Кларка, співзасновника провідної компанії зі штучного інтелекту Anthropic, і професора Цзен І, співдиректора Китайсько-британського дослідницького центру етики та управління штучного інтелекту.

"Жодна країна не залишиться незачепленою ШІ, тому ми повинні залучити і задіяти найширшу коаліцію міжнародних учасників з усіх секторів", — повідомив пан Клеверлі.

"Наша спільна мета полягатиме в тому, щоб розглянути ризики ШІ та вирішити, як їх можна зменшити за допомогою скоординованих дій", — наголосив він при цьому.

Джеймс Клеверлі, міністр, Велика Британія Fullscreen
На зустрічі в Нью-Йорку головував міністр закордонних справ Великої Британії Джеймс Клеверлі.
Фото: Sky News

Члени Ради Безпеки вислухали двох експертів, які розповіли про те, що вони вважають величезними можливостями ШІ, але також і про серйозні ризики, які він представляє, і про нагальну необхідність глобальної єдності в цьому питанні.

"Ми не можемо залишити розробку штучного інтелекту виключно суб'єктам приватного сектору, — сказав пан Кларк. — Уряди країн світу мають об'єднатися, розвинути державний потенціал і продовжити розробку потужних систем штучного інтелекту".

Далі Джек Кларк пояснив: "Система ШІ, яка здатна допомогти нам глибше зрозуміти біологію, також може бути системою ШІ, яку можна використовувати для створення біологічної зброї".

Він попередив і про ризики нерозуміння технології: "Це так само, як якщо б ми будували двигуни, не розуміючи принципу згоряння. Це означає, що після того, як системи ШІ будуть розроблені та розгорнуті, люди знайдуть для них нові способи використання, непередбачені їхніми розробниками, багато з яких будуть позитивними, але деякі можуть бути використані не за призначенням".

Професор Цзен І, директор Лабораторії когнітивних досліджень мозку (the Brain-inspired Cognitive Intelligence Lab), закликав ООН серйозно поставитися до цього питання.

"Організація Об'єднаних Націй має відігравати центральну роль у створенні основи для ШІ з метою розвитку та управління для забезпечення глобального миру і безпеки", — сказав професор.

Він попередив: "ШІ несе ризик вимирання людства просто тому, що ми не знайшли способу захистити себе від використання ШІ для гри на людських слабкостях".

Пан Кларк додав: "Ще складнішою є проблема хаотичної або непередбачуваної поведінки. Система ШІ після розгортання може демонструвати вузькі місця, які не було виявлено під час розробки.

"Я закликаю тих, хто слухає цей виступ, думати про ШІ не як про конкретну технологію, а як про вид людської праці, яку можна купувати і продавати зі швидкістю комп'ютера і яка згодом стає дешевшою та ефективнішою", — підсумував експерт.

Учасники обговорення поставили конкретні відкриті запитання, на які, за їхніми словами, були потрібні термінові відповіді.

  • Хто повинен мати доступ до можливостей ШІ?
  • Як уряди мають регулювати цю силу?
  • Хто повинен мати можливість створювати і продавати так званих ШІ-експертів?
  • І яких експертів ми можемо дозволити створити?

"Це глобальні питання, — наголосив Кларк. — Люди проходять ретельну оцінку і тестування на робочому місці, коли їх відбирають для роботи на критичних ділянках".

Професор Цзен І додав: "Це одночасно і дуже кумедно, і вводить в оману, і безвідповідально, що діалогові системи, засновані на генеративному ШІ, завжди стверджують: "Я думаю, я пропоную".

"Насправді, — підкреслює експерт, — у моделей ШІ немає "я" або "мене". Штучний інтелект ніколи не повинен прикидатися людиною, займати людські позиції або вводити людей в оману, щоб у них було неправильне сприйняття. Ми можемо використовувати ШІ для допомоги, але ніколи не повинні довіряти йому заміну людського прийняття рішень".

Джерело.

Важливо
Контроль над штучним інтелектом як видом озброєння. Частина перша: технології та проблеми
Контроль над штучним інтелектом як видом озброєння. Частина перша: технології та проблеми