Ерік Шмідт вважає, що Китаю і США варто укласти договір про взаємне стримування.
Колишній генеральний директор компанії Google Ерік Шмідт порівняв штучний інтелект з ядерною зброєю за потужністю і попередив про можливу катастрофу. Його виступ на безпековому форумі в Аспені цитує видання Vice.
На думку Еріка Шмідта, найближчим часом через проблеми з безпекою Китаю і США доведеться укласти договір про стримування в галузі штучного інтелекту, подібно до того, як раніше заборонили випробування ядерних бомб і підписали інші важливі договори в цій сфері. У 1960-х роках країни створили світ, у якому унеможливили "несподіванки" та досягли балансу довіри. Зараз ніхто не працює над подібними обмеженнями для штучного інтелекту, хоча він "настільки ж потужний".
"Я дуже стурбований тим, що ставлення США до Китаю як до корумпованої, комуністичної чи ще якоїсь країни, а китайське ставлення до Америки як до невдахи, дозволить людям сказати: "Боже мій, вони щось замишляють", а потім запустити щось на зразок головоломки. Починаючи робити щось для озброєння чи підготовки, ви викликаєте занепокоєння іншої сторони", — зазначив Ерік Шмідт.
За словами Шмідта, він не до кінця усвідомлював силу інформації, коли очолив Google. Тепер він бачить потенційну шкоду технологій, тому закликає створювати їх з урахуванням етичних норм і моральних цінностей людства.
Хіросіма та Нагасакі — це два японські міста, які США зруйнували наприкінці Другої світової війни, скинувши ядерні бомби. Ця атака забрала життя десятків тисяч людей і показала, наскільки потужною і страшною є ядерна зброя. Після цього СРСР та Китай також освоїли технологію, і людство живе під загрозою гарантованого взаємного знищення. Теорія стримування передбачає, що якщо одна країна запустить ядерні боєголовки, то їй дадуть відповідь тим же, і відбудеться глобальна катастрофа.
Vice зазначає, що ШІ та машинне навчання є разючими технологіями, які часто розуміють неправильно. Здебільшого машини не такі розумні, як думають люди, але цілком здатні створювати шедевральні витвори мистецтва, перемагати у відеоіграх або здійснювати спілкування з клієнтами по телефону. Деякі розробники намагаються змусити штучний інтелект керувати автомобілем по великих містах без участі людини, але поки що виникають казуси. Інші пропонували передати ШІ контроль над ядерною зброєю, вірячи, що він не припуститься помилок і допоможе уникнути катастрофи.
"ШІ далеко не такий руйнівний, як ядерна зброя. Але люди, які перебувають при владі, бояться цієї нової технології і, як правило, з абсолютно неправильних причин", — вважають аналітики.
Вони пояснюють, що головною проблемою штучного інтелекту є не потенціал, який можна порівняти з ядерною зброєю, а недоліки розробників. Машинні алгоритми хороші настільки ж, наскільки люди, що їх створюють. Наприклад, расисти, усвідомлено чи ні, передають свої погляди на чат-ботів, які потім допускають расистські висловлювання.
Про це в нещодавньому подкасті розповів генеральний директор DeepMind Деміс Хасабіс, який створив ШІ, здатний перемагати людей у комп'ютерній грі Starcraft II:
"ШІ — це дуже масштабна штука. Важливо, хто створює ШІ, з яких культур вони походять і які цінності у них, у творців систем ШІ. Системи штучного інтелекту будуть вчитися самі, але залишиться залишок культури та цінностей творців цієї системи".
Раніше Google звільнила інженера Блейка Леймона, який заявив про створення "розумного" чат-бота LaMDA. Айтишник розповів членам американського уряду, ніби ШІ має "самосвідомість", подібну до людського. Учені вивчили алгоритми LaMDA та не підтвердили слова інженера.