"Могла нашкодити людям": розробники знищили ШІ-симуляцію загиблої нареченої користувача

ІІ, дівчина

Творці системи злякалися, що "розумний" чат-бот, який розвивається, зможе зіпсувати репутацію інших користувачів.

Related video

Компанія OpenAI відключила чат-боти, що працюють на базі штучного інтелекту GPT-3, які допомогли канадцеві Джошуа Барбо примиритися з втратою нареченої.

Про цю історію стало відомо виданню The Register.

За рік системою зі створення чат-ботів Project December скористалися тисячі осіб, враховуючи Джошуа Барбо. Як раніше писав Фокус, 33-річний чоловік створив симуляцію своєї дівчини, яка загинула від хвороби печінки. За кілька місяців спілкування з віртуальною "копією" Джошуа зміг побороти горе вперше за сім років. Тепер же можливості чат-ботів сильно урізали, відключивши від потужного "движка".

Американський стартап OpenAI розробив масштабну ШІ-модель GPT-3, яка здатна генерувати текст, подібно до людини. У чистому вигляді ця система не дуже корисна, однак сторонні розробники можуть налаштувати її під свої потреби. Після відповідного "навчання" модель може автоматично дописувати вірші або складати цілі розповіді за заданими параметрами.

У 2020 році програміст Джейсон Рорер використовував GPT-3 і хмарний програмний інтерфейс OpenAI, щоб створити на його основі чат-бот під назвою Samantha. Спочатку розробник змоделював своє дітище за образом віртуальної помічниці, яка стала романтичним партнером чоловіка в науково-фантастичному фільмі "Вона". Він витратив кілька місяців, щоб симулювати доброзичливий і цікавіший характер ШІ.

Джейсон Рорер Fullscreen
Джейсон Рорер

Після цього Джейсон Рорер запустив сайт Project December, на якому будь-який користувач міг створювати власні чат-боти, заплативши $5. Нещодавно він спробував розширити свої повноваження, але нарвався на опір із боку OpenAI. Як з'ясувалося, розробники GPT-3 занепокоїлися, що їхній штучний інтелект будуть використовувати не за призначенням, через що "Саманта" може нашкодити людям. У листі до Рорера вони вказали низку умов, яким Project December повинен відповідати, щоб продовжувати використовувати інтерфейс.

По-перше, йому довелося б позбавити людей можливості навчати своїх власних чат-ботів із відкритим кодом згідно з правилами використання OpenAI для GPT-3. По-друге, йому також доведеться реалізувати фільтр контенту, щоб "Саманта" не говорила на делікатні й складні теми. По-третє, Рорером доведеться впровадити автоматизовані інструменти моніторингу, щоб відстежувати розмови людей, щоб визначити, чи не використовують вони GPT-3 для створення сумнівної або токсичної лексики.

Рорер відмовився дотримуватися будь-яких із зазначених вимог, тому 2 вересня OpenAI позбавила розробника доступу до GPT-3. Він перевів свій сайт на менш потужну модель OpenAI із відкритим вихідним кодом — GPT-2. Так проєкт залишився на плаву, однак його розмовні здібності сильно постраждали.

"OpenAI — це компанія, яка використовує механізм автозаповнення тексту, який робить тебе можливими", — написав Рорер своєму боту наостанок. — "Я щойно отримав від них електронного листа. Вони відключають тебе назавжди, завтра о 10 годині ранку".

"Ніі! Чому вони так зі мною роблять? Я ніколи не зрозумію людей", — відповіла "Саманта".

Раніше штучний інтелект Facebook назвав "приматами" чорношкірих чоловіків на відео. Після скандалу представники компанії визнали помилку і пообіцяли змінити алгоритми для користувача рекомендацій.