Штучний інтелект спростить створення машин, здатних шпигувати та вбивати, – група AI100
Автори доповіді Стенфордського проекту AI100 вважають, що ШІ може сприяти шпигунству та масовому вбивству людей.
У випущеній нещодавно доповіді "Набираючи чинності, збираючи бурю" експерти зі Стенфорда назвали "особливо помітною небезпекою" той факт, що ШІ може стати каталізатором процесу створення машин-шпигунів і машин-убивць. Однак при цьому наголосили, що "нині існує багато інших важливих і тонших небезпек". Зокрема, вони визначили чотири напрями використання алгоритмів, які вже сьогодні створюють суспільні ризики.
Техно-рішення можуть призвести до підвищення жорстокості щодо людей, які опинилися в скрутній життєвій ситуації, – наприклад, до вимушених мігрантів. Винесення судового вердикту – ще один крок, який за зовнішньої об'єктивності здатний призвести до дискримінації. Дезінформація за допомогою діпфейк-відео або онлайн-ботів загрожує підірвати будь-яке почуття об'єктивної істини. А ШІ, що використовується в охороні здоров'я, може сприяти тому, що будь-яке покращення станеться за рахунок найуразливіших.
Про те, як мислять машини і що не можна довірити штучному інтелекту, читайте в матеріалі Фокусу.
Нагадаємо, що вбивством провідного іранського фізика-ядерника Мохсена Фахрізаде в листопаді минулого року керував штучний інтелект.