На межі нірвани та загибелі. Як врятувати людство від штучного інтелекту
Штучний інтелект може спрацювати на шкоду людині, попереджає в колонці для The Wall Street Journal лікар Девід Шейвіц. Тому потрібно придумати механізми, що гарантують безпеку цих технологій.
1837 року коваль із Гранд-Детура, штат Іллінойс, натрапив на млині на зламану сталеву пилку; він узяв лезо додому — на той час сталі було мало — і перетворив його на плуг, що ідеально пасував для щільного ґрунту цього регіону. Він почав масове виробництво цього інструменту, і незабаром ім'я John Deere стало синонімом сільськогосподарської продукції. Сьогодні компанія дедалі частіше виробляє автономні трактори та комбайни, безпілотні машини, які збирають і обробляють дані для оптимізації врожайності. "Сільськогосподарські роботи не просто приходять", — захоплюється Мустафа Сулейман. — "Вони тут".
Пан Сулейман знає дещо про нові технології. У 2010 році разом із Демісом Хассабісом і Шейном Леггом він заснував DeepMind із нескромною метою: "вирішити проблему інтелекту" — тобто відтворити людське пізнання за допомогою комп'ютерів — і "зробити світ кращим". Компанія DeepMind, придбана Google у 2014 році за розробку типу штучного інтелекту, званого глибоким навчанням, домоглася низки приголомшливих досягнень. Одна з її програм, AlphaFold, змогла передбачити тривимірну структуру білків на основі їхньої амінокислотної послідовності, що стало науковим проривом. Не дивно, що пан Сулейман глибоко вірить у можливості штучного інтелекту. Але дещо в майбутньому, яке він так добре уявляє собі після багатьох годин роздумів і роботи над його створенням, шокувало його. У книзi "The Coming Wave" він сподівається і нас засмутити.
Хороша новина, каже нам пан Сулейман, полягає в тому, що ШІ — разом із синтетичною біологією, технологією, спрямованою на створення організмів — готовий "відкрити новий світанок для людства". Він передбачає всесвіт сприятливих перспектив. За його словами, ШІ перебуває на правильному шляху, щоб "допомагати керувати нашим бізнесом, лікувати наші недуги і вести наші битви". "Здається, не існує очевидної верхньої межі можливого".
Але він наляканий тим, що поширення цих технологій дасть можливість "безлічі зловмисників спровокувати руйнування, нестабільність і навіть катастрофу неймовірного масштабу". Його страх викликаний переконанням, що технології мають тенденцію ставати "дешевшими і простішими у використанні, і в кінцевому підсумку вони поширюються всюди". (Один приклад — автомобіль, інший — смартфон.) Нові технології, за словами пана Сулеймана, є "підсилювачами крихкості", потенційно даючи "важіль із глобальними наслідками" в чужі руки. Він пише, що діпфейки — маніпулятивна імітація зображення або голосу — вже швидко поширюються, отруюючи місцеві вибори в Індії і створюючи можливості для банківського шахрайства в Гонконзі. Незабаром, побоюється він, можливість синтезувати біологічну зброю або використовувати озброєні дрони буде широко розповсюдженою — і це лише деякі з-поміж інших тривожних сценаріїв.
Крім неприборканої природи самої технології, існує складність з'ясування того, як найкраще модулювати наше прагнення до її розширення і використання. Будь-якому подібному зусиллю протидіє об'єднання потужних сил: наприклад, країни, що люто конкурують за стратегічну перевагу або відчайдушно розв'язують загальні проблеми, як-от постачання продовольства, зміна клімату і хвороби. Сулейман допускає, що технологія сама по собі не може бути відповіддю на подібні побоювання, але це, як і раніше, "найпотужніший" інструмент, який у нас є. Стримування ускладнюється також прагненням до прибутку, особливо з огляду на те, що "хвиля" технологій, що наближається, являє собою "найбільшу економічну нагороду в історії".
Але технології важко стримати з іншої причини: наша власна нестабільна суміш цікавості та его, наша запрограмована нездатність "залишати плоди на дереві", як висловився пан Сулейман. Він визнає у своїх колегах (і в собі) властивість, висловлену Дж. Робертом Оппенгеймером, директором із досліджень атомної бомби в Лос-Аламосі, штат Нью-Мексико: "Коли ви бачите щось технічно гарне, ви йдете вперед і робите це, і ви сперечатиметеся про те, що з цим робити, лише після того, як досягнете технічного успіху".
То що ж робити? Для початку, пропонує пан Сулейман, ми маємо подолати наші перші рефлексивні реакції: заперечувати наявність проблеми або негайно звернутися до регулювання. За його словами, масштаб проблеми може викликати реакцію, яку він називає "пасткою відрази до песимізму": охоплені страхом, ми дивимося в інший бік. Або ми можемо вимагати законодавчих виправлень. Однак для розробки ефективного регулювання потрібно багато часу, а технологія просто розвивається занадто швидко.
Наша мета, стверджує пан Сулейман, має полягати не стільки в тому, щоб зупинити появу нових технологій, скільки в тому, щоб "виліпити" їх і забезпечити їх адаптацію до наших потреб. Він пропонує зробити їх об'єктом нагляду і забезпечити дотримання правил, включно з аудитом і зовнішньою перевіркою, і виступає за "більш ліцензоване середовище", в якому найскладніші системи штучного інтелекту вироблятимуться "тільки відповідальними сертифікованими розробниками". Він виступає за тиск на критично важливі точки — наприклад, обмеження експорту передових комп'ютерних чипів або обмеження передавання даних оптоволоконними кабелями великого обсягу — щоб стримати швидкість розвитку. Однак він визнає, що навіть якщо його довгий список побажань буде прийнято, цього може виявитися недостатньо.
Футурист Рой Амара одного разу сказав, що "ми схильні переоцінювати ефект технології в короткостроковій перспективі та недооцінювати ефект у довгостроковій перспективі", і точка зору Сулеймана про те, що ми балансуємо на межі нірвани і загибелі, здається, підтверджує цю тенденцію. ШІ і синтетична біологія, можливо, розвиваються швидше, ніж багато хто з нас думає, але не так швидко, як він думає. Зокрема, описуючи прогрес у біології, він схильний стрибати від ранніх успіхів (наприклад, створення синтетичного бактеріального геному) до того, що він вважає неминучим кінцевим станом: скажімо, "світу дешевих персоналізованих ліків" або продуктів харчування, вироблених на вимогу. Насправді це майбутнє набагато далі, ніж він собі уявляє.
Але навіть якщо час пана Сулеймана хибний, його бачення майбутнього видається правильним: штучний інтелект і синтетична біологія створюють можливості для перетворень і екзистенціальні небезпеки. Як він жалібно стверджує, зараз саме час рахуватися з обома можливостями. Як ми можемо керувати технологією таким чином, щоб ми могли отримати вигоду з її незвичайних перспектив, не руйнуючись при цьому її винятковою міццю?
Автор висловлює особисту думку, яка може не збігатися з позицією редакції. Відповідальність за опубліковані дані в рубриці "Думки" несе автор.