На думку вчених, розвиток штучного інтелекту досяг критичної точки, тому час задуматися про ризики його використання.
Група експертів Браунівського університету дішла до висновку, що за останні роки розвиток технологій штучного інтелекту дійшов до критичної точки. Відповідно до нового звіту про досягнення в цій галузі, ШІ "покинув лабораторію і увійшов у життя людей".
Про це повідомляє сайт університету.
Той прогрес, який показує ШІ в обробці мов, розпізнаванні образів і комп'ютерному зорі, говорить про те, що ШІ вже зараз зачіпає життя багатьох людей, — починаючи від допомоги у виборі музики або фільму і закінчуючи медичною діагностикою. Такі успіхи в еволюції ШІ говорять про те, що вже зараз виникає необхідність взяти під контроль деякі сфери його застосування. Йдеться про ризики, пов'язані з алгоритмічною дискримінацією або з використанням ШІ з метою навмисного обману.
"Ця технологія робить дивовижні речі, про які ми могли тільки мріяти 5 або 10 років тому. Тепер важливо зрозуміти, як отримати максимум вигоди від роботи ШІ при мінімізації ризиків", — сказав професор інформатики Майкл Браун.
На думку фахівця, урядам і науковому співтовариству необхідно взяти відповідальність за те, щоб ШІ розвивався на благо людства, а не проти нього.
На сьогодні можна визначити 5 основних ризиків, пов'язаних із безконтрольним застосуванням ШІ.
Перша небезпека полягає у використанні ШІ в розробці автономного озброєння. Експерти вважають, що якщо розгорнеться гонка автономного озброєння, то згорнути її буде вкрай складно.
Друга небезпека пов'язана із застосуванням ШІ у сфері маніпулювання громадською думкою. Соціальні мережі, завдяки автоматичним алгоритмам, дуже ефективні в цільовому маркетингу. Тому штучний інтелект може бути задіяний в поширенні пропаганди, найбільш переконливої для певного кола осіб, в незалежності від того, наскільки правдивою буде інформація.
Третя небезпека — втручання в приватне життя. Наразі можна відстежити та проаналізувати кожен крок людини в її приватному та суспільному житті. Механізми контролю з використанням ШІ може завдати величезної шкоди безпеці та конфіденційності приватного життя людей.
Четверта небезпека пов'язана з розбіжністю цілей людини та розумної машини. Якщо людиною не будуть озвучені умови тих чи інших команд, ШІ може сприймати їх буквально.
П'ята небезпека — дискримінація. Оскільки машини можуть збирати, відслідковувати й аналізувати всі дані про людину, то цілком імовірно, що ці машини використовуватимуть ці дані проти людини.
Майлз Брандідж, науковий співробітник Інституту майбутнього людства Оксфордського університету ще у 2018 році озвучив проблему контролю ШІ. "Дуже часто так буває, що системи ШІ не просто досягають людського рівня продуктивності, але набагато його перевершують. Це дуже сумно, проте необхідно розглянути ті наслідки, до яких можуть призвести надлюдського рівня хакерство, стеження, методи переконання і розпізнавання фізичної цілі", — зазначив він.
Раніше ми повідомляли про інтерв'ю колишнього топменеджера Google Кай-Фу Лі, в якому він вказав на основні загрози для людства, пов'язані з іноземними інвестиціями.
Модель пилососа Roomba j7 + від американської компанії iRobot може стежити за людьми за допомогою вбудованої камери. Однак розробники закликають не боятися цього.