"ШІ, як атомна бомба. Він може змінити хід історії": колишній інженер Google

Штучний інтелект, ІІ, чат-бот
Фото: msoe.edu | Штучний інтелект: ілюстративне фото

Ексінженер Google вважає, що нейромережі необхідно стримувати у розвитку.

Related video

Блейк Лемуан, колишній співробітник Google, звільнений за порушення політики конфіденційності компанії, вважає, що ШІ несе великі ризики. За його словами, останні моделі нейромереж є найпотужнішим технологічним досягненням із часів винаходу атомної бомби, і можуть докорінно змінити хід історії, пише interestingengineering.com.

Лемуан побоюється, що чат-боти та інструменти на кшталт Bing AI від Microsoft можуть бути використані для поширення хибної інформації, політичної пропаганди, міжрасової або релігійної ворожнечі. Він був тестувальником ШІ-системи LaMDA від Google, і після закінчення тестів опублікував свою думку, сказавши, що нейромережа має "почуття" і її можна вважати "розумною". Інженер вважає, що ШІ повинен проходити більш ретельне тестування для виявлення таких ризиків, як маніпулювання користувачами.

"Я відчуваю, що ця технологія є неймовірно експериментальною, і випускати її прямо зараз небезпечно", — заявив він.

Однак такі гуру ІТ-індустрії, як Білл Гейтс, вважають, що жодної небезпеки для людини і людства загалом чат-боти та подібні інструменти не несуть. Гейтс назвав новітні моделі штучного інтелекту "старими технологіями" в інтерв'ю Financial Times.

"Технології, з якими "грає" більшість людей, застаріли на ціле покоління", — сказав він.

Гейтс також підкреслив, що люди самі навчають чат-боти провокаційних речей, намагаються знайти способи обдурити ШІ-модель або змусити її припуститися помилки. Тож розумніше повинні поводитися, перш за все, люди і не "провокувати" нейромережі на непристойні, образливі висловлювання.

Раніше ми повідомляли про те, що ШІ-модель взяла участь у повітряному бою, виступивши проти людини-пілота. Останньому перемогти нейромережу не вдалося.