Розділи
Матеріали

Бунт машин відкладається. Як Євросоюз намагається боротися зі штучним інтелектом

Євросоюз погодив перший в історії закон про контроль над розвитком штучного інтелекту. Але для його успішної реалізації, зазначає в колонці для The Guardian експерт із комп'ютерних технологій Девід Еван Гарріс, потрібно, щоб до нього долучився весь інший світ

Фото: Ілюстративне фото | Штучний інтелект — під контроль

Закони Європейського Союзу про штучний інтелект, про які лідери нарешті оголосили, були узгоджені й перебувають на шляху до того, щоб повністю затьмарити британську декларацію Блетчлі шеститижневої давності про штучний інтелект. Текст угоди про комплекс всеосяжних законів, що регулюють ШІ, ще не доопрацьовано, і в деталях можна виявити безліч дияволів, але її майбутня поява сигналізує про кардинальні зміни в тому, як демократія може спрямовувати ШІ в інтересах суспільства.

Декларація Блетчлі стала величезним досягненням, особливо для того, щоб спонукати такі країни, як Китай, Саудівська Аравія і ОАЕ, узгодити офіційну заяву про регулювання ШІ. Проблема в тому, що це була всього лише заява, яка не має юридичної сили або механізму виконання. Тепер ЄС вживає заходів щодо встановлення жорстких юридичних вимог до розробників штучного інтелекту, й інші країни повинні активізуватися і вирішити цю головоломку.

Останньою перешкодою, яку учасники переговорів подолали на минулих вихідних, було питання про те, які види використання ШІ будуть повністю заборонені. До заборонених практик належать "когнітивно-поведінкові маніпуляції" — широкий термін для технологій, які інтерпретують поведінку та вподобання з метою вплинути на наші рішення. Вони також охоплюють "нецільове вилучення зображень осіб з інтернету або записів із камер відеоспостереження" — практику, яка вже використовується деякими компаніями, що продають бази даних, які використовують для спостереження; "розпізнавання емоцій на робочому місці та в навчальних закладах", яке компанії можуть використовувати для дисциплінування, ранжування або мікроменеджменту працівників; "соціальний рейтинг", антиутопічний інструмент спостереження, який використовують у Китаї для оцінювання повсякденної діяльності людей та виокремлення (чи утримання) їм "соціальних рейтингів", а також "соціальних рейтингів".

Але поки що не зітхайте з полегшенням. Так само, як кліматична криза є глобальною проблемою і може бути розв'язана тільки в тому разі, якщо всі країни скоротять викиди, ШІ має глобальний характер і може контролюватися тільки спільними зусиллями багатьох країн. Потужні системи "ШІ загального призначення" (GPAI), подібні до тієї, що лежить в основі ChatGPT, можуть створювати персоналізовані кампанії з дезінформації та маніпулювання, створювати інтимні образи без згоди (NCII, іноді звані дипфейковою порнографією) та навіть розробляти проєкти біологічної зброї.

Якщо одна частина світу регулює їх, а потім інша випускає незахищені версії цих інструментів з "відкритим вихідним кодом", які зловмисники можуть використовувати як зброю за своїм бажанням, увесь світ все одно може постраждати від наслідків. До переліку цих зловмисників можуть входити російська військова розвідка ГРУ або цифрові найманці (наймані трольські ферми), які можуть не мати коштів або технологій для створення власних моделей світового класу, але можуть роздобути потужні інструменти штучного інтелекту, створені без цих гарантій, і використати їх, щоб спробувати маніпулювати виборами в усьому світі.

Запланований закон ЄС про штучний інтелект, на жаль, не ідеальний. Незважаючи на те, що він встановлює похвально суворі правила для GPAI, включно із системами з "відкритим вихідним кодом", усе ще існують прогалини. За словами одного чиновника Європейської комісії, з яким я розмовляв, якщо для створення NCII використовуються інструменти ШІ, такі, як додатки "роздягання", відповідальність може покладатися тільки на окремого користувача, який створює цей контент, а не на розробника системи ШІ, яка його створила. Я б вважав за краще, щоб розробникам було заборонено поширювати інструменти, здатні завдати такої потенційно непоправної шкоди, особливо коли діти можуть бути як злочинцями, так і жертвами.

Ще одне занепокоєння викликає те, що закон ЄС про штучний інтелект не набуде повної чинності щонайменше до 2026 року. Велика ймовірність, що технологія обжене законодавство. Ще більший ризик, якщо ЄС залишиться на самоті в питанні законодавчого регулювання ШІ.

Декларація Блетчлі, ухвалена на першому саміті з безпеки ШІ, стала важливою частиною серії паралельних зусиль, яких докладають у межах "Великої сімки", "Великої двадцятки", ООН та Організації економічного співробітництва та розвитку. Наступні саміти з безпеки ШІ заплановано в Південній Кореї та Франції 2024 року.

Ось найважливіші обов'язкові правила, які мають бути встановлені на цих самітах і паралельних процесах управління.

  1. Підтвердити умови заборони на використання, описані вище.
  2. Жорстко регулювати системи штучного інтелекту з високим рівнем ризику, включно з GPAI, вимагаючи ретельної оцінки ризиків, тестування і заходів для їх зниження.
  3. Вимагати від компаній гарантувати безпеку своїх систем GPAI з високим рівнем ризику і не випускати їх за ліцензіями з "відкритим вихідним кодом", якщо незалежні експерти не вважатимуть їх безпечними.
  4. Чітко покласти відповідальність на розробників систем GPAI, а також на їхніх користувачів за заподіяну ними шкоду.
  5. Вимагати, щоб контент, створений ШІ, мав "водяні знаки" так, щоб його могли легко виявити непрофесіонали, а також експерти.
  6. Поважати авторські права авторів під час навчання систем ШІ.
  7. Оподатковувати компанії, що працюють зі ШІ, і використовувати доходи для захисту суспільства від будь-якої шкоди, заподіяної ШІ, від дезінформації до втрати робочих місць.

Забезпечення того, щоб ШІ розвивався так, щоб служити суспільним інтересам, — це гігантське завдання, що потребуватиме участі громадян і урядів у всьому світі. Зараз настав час для всіх і всюди отримати інформацію про ризики та переваги ШІ і вимагати, щоб ваші обрані представники серйозно ставилися до його загроз. ЄС поклав добрий початок; тепер решті світу необхідно ухвалити обов'язкове законодавство, щоб ШІ служив вам і вашій спільноті.

Автор висловлює особисту думку, яка може не збігатися з позицією редакції. Відповідальність за опубліковані дані в рубриці "Думки" несе автор.

Джерело