Скандальна Clearview AI оцифрує українців: у Мінцифри вже домовилися про співпрацю
Міністерство цифрової трансформації України збирається за допомогою компанії-розробника програми розпізнавання облич розвивати інновації в країні. Clearview AI допомагає Україні впізнавати військових злочинців, але з нею також пов'язана велика кількість скандалів.
Провідні спеціалісти Мінцифри зустрілися з виконавчим директором компанії Clearview AI Хоаном Тон-Тхатом, повідомляється у Телеграм-каналі відомства. Сторони домовилися будувати цифрову інфраструктуру України, в основі якої будуть новітні технології, зокрема штучний інтелект.
Під час переговорів активно обговорювалася можливість відкриття офісу компанії Clearview AI в Україні, що дозволить залучити до нових проєктів цифровізації України вітчизняні таланти у галузі ІТ та штучного інтелекту.
Що відомо про Clearview AI
Це американська компанія, яка займається розпізнаванням облич та надає своє програмне забезпечення правоохоронним органам. Алгоритм компанії зіставляє обличчя з базою даних понад 20 мільярдів проіндексованих зображень з Інтернету, включаючи соцмережі.
Компанія була заснована Хоаном Тон-Тхатом та Річардом Шварцем і довгий час тримала свою діяльність у секреті, поки наприкінці 2019 року не стало відомо про її співпрацю з правоохоронними органами.
Clearview AI продає доступ до своєї бази даних правоохоронним органам та має 3100 активних користувачів, включаючи Федеральне бюро розслідувань та Міністерство внутрішньої безпеки США.
Крім того, після нападу Росії на Україну Clearview AI почала активно допомагати нашій країні надавши своє ПЗ та бази даних для ідентифікації військових злочинців, упізнання тіл окупантів та контролю на блокпостах.
Скандали з Clearview AI
Попри твердження Clearview AI про те, що її послуга продається тільки правоохоронним органам, злом даних на початку 2020 року показав, що в списку клієнтів Clearview AI є багато комерційних організацій. Наприклад, у списку фігурують оператори мобільного зв'язку, фітнес-центри, кредитні спілки та навіть бейсбольна команда Chicago Cubs.
Оскільки компанія використовує, зокрема, і фото із соцмереж, то Twitter ще у 2020 році зажадав у Clearview AI видалити всі фото своїх користувачів. Те ж саме вимагали зробити YouTube та Facebook.
Досі невідомо, чи виконала вимогу цих ІТ-гігантів Clearview AI, адже її виконавчий директор (і один із засновників) Хоан Тон-Тхат посилається на Першу поправку до Конституції США, яка дозволяє збір публічних фотографій.
Однак в інших країнах Конституція США не діє, тому в березні 2022 року Clearview AI була оштрафована на $20 мільйонів італійським регулятором захисту персональних даних за порушення GDPR і була зобов'язана видалити всі італійські записи зі своєї бази даних. Подібні штрафи та накази про видалення запровадили в Канаді, Австралії, Франції та Великобританії.
Критика з боку правозахисників
Правозахисні організації, такі як Amnesty International та Electronic Frontier Foundation критикують використання ЗСУ продуктів Clearview AI. Правозахисники визнають, що в умовах війни використання такого ПЗ є виправданим, але все ж таки воно несе ризики порушення прав людини, навіть мертвої.
Ці ризики, на думку правозахисників, полягають у тому, що, попри всі запевнення Clearview AI про точність розпізнавання, немає 100% гарантії того, що система не дасть збій. До того ж криміналісти, опитані правозахисниками, стверджують, що вплив розкладання на тіла знищених окупантів ніяк не сприяє точному впізнанню в такий спосіб.
За словами правозахисників, рідні російських солдатів можуть побачити повідомлення на сайтах і в Телеграм-каналах про загибель їхнього родича, а пізніше з'ясовується, що він живий, адже система неправильно ідентифікувала обличчя загиблого. Це завдає родичам "психологічної травми", кажуть правозахисники. З моральної точки зору, порушенням прав і живих і мертвих є те, що дані про особу загиблих знаходяться у вільному доступі в інтернеті, кажуть вони.
Раніше Фокус розповідав, що розробники Clearview AI визнали — система розпізнавання може припускатися помилок, які під час війни стоять людям життя.