На світ обрушиться чума. Колишній керівник Google попереджає, ШІ може знищити людство
Передбачається, що експерименти із синтетичними патогенами, контрольованими штучним інтелектом, можуть призвести до загибелі всіх людей на Землі.
Піонер штучного інтелекту й колишній керівник Google Мустафа Сулейман виступив із різким попередженням про технологію, яку він сам допоміг презентувати світу. Співзасновник DeepMind вважає, що ця технологія неминуче стане вірусною, а в якийсь момент і зовсім може знищити людство, пише Futurism.
Найпохмуріший сценарій передбачає, що люди експериментуватимуть зі штучно створеними, синтетичними патогенами, які випадково або навмисно можуть виявитися набагато заразнішими. Про це Мустафа Сулейман розповів у нещодавньому випуску подкасту The Diary of a CEO.
У Фокус. Технології з'явився свій Telegram-канал. Підписуйтесь, щоб не пропускати найсвіжіші та найзахопливіші новини зі світу науки!
Вважається, що віруси, керовані ШІ, можуть бути значно смертоноснішими, а також поширюватися набагато швидше. Зрештою, як припускає Сулейман, використання цієї технології призведе до значно "більшої шкоди", не виключено, що в цьому сценарії також постраждають люди — на світ нагряне "синтетична пандемія".
Сулейман зазначає, вони з колегами працюють із "небезпечними речами". Саме тому, як вважає дослідник, важливо не допустити, щоб доступ до технології отримав будь-хто. Сулейман зазначає, що одним із головних кроків є запровадження обмеження для кола осіб, які можуть використовувати програмне забезпечення штучного інтелекту, хмарні системи, а також деякі біологічні матеріали.
Сьогодні все більше людей вчаться використовувати цю технологію. А тому дослідники побоюються, що це дасть змогу комусь створити генно-інженерний вірусний патоген — найгірший із усього, що коли-небудь бачили вчені. Саме тому Сулейман виступає за стратегію "стримування ШІ", аналогічну тій, яку НАТО застосовує щодо ядерної зброї.
Зазначимо, наразі Мустафа Сулейман є генеральним директором і співзасновником Inflection AI. Наприкінці цього місяця він планує взяти участь у саміті зі штучного інтелекту у Вашингтоні — там він та інші лідери галузі вкотре обговорять усі небезпеки використання та розвитку ШІ.
Раніше Фокус писав про те, що вчений пошкодував про те, що створював нейромережі.