Для того щоб сформувати образ людини, програма Rе'memory проводить семигодинні особисті інтерв'ю з людьми з невиліковними захворюваннями або тими, хто просто хоче залишити свої спогади про себе.
Південнокорейська компанія DeepBrain пропонує користувачам можливість спілкування з померлими близькими за допомогою відеоаватарів, наділених штучним інтелектом. Технологія одержала назву Rе'memory, пише IT Brew.
Для того, щоб сформувати образ людини, Rе'memory проводить семигодинні особисті інтерв'ю з людьми з невиліковними захворюваннями або тими, хто просто хоче залишити свої близькі спогади про себе.
"Rе'memory — це більше, ніж просто меморіальний зал із фото та відео. Це місце, де ви можете поділитися спогадами зі своїми реальними розмовами", — йдеться на офіційній сторінці програми.
Менеджер із розвитку бізнесу DeepBrain у Каліфорнії Джо Мерфі зазначив, що побоювання щодо етичності Rе'memory є індивідуальними і що люди повинні самі ухвалювати рішення про те, що правильно, а що ні.
"Це дуже особисте. Різні люди, навіть різні культури по-різному дивляться на смерть", — заявив Мерфі.
Джо Мерфі також зазначив, що технологія має всі процедури безпеки, що унеможливлюють заподіяння страждань або болю. Користувачі Rе'memory можуть заблокувати нецензурні слова й образливі терміни.
У той же час співголова практики конфіденційності та кібербезпеки Pillsbury Law Браян Фінч сказав журналістам, що технологія є новою і тому поки що не існує "жорсткого етичного набору, пов'язаного з цим".
Фінч висловив побоювання щодо інтерв'ю, проведених Rе'memory, зазначаючи, що ця інформація гіпотетично може бути використана для злому паролів або відповідей на контрольні питання.
"Хакери дуже винахідливі в тому, що стосується зловмисних дій, і вони завжди шукають нові джерела інформації — нові способи збору даних, які б допомогли їм реалізувати ще кілька своїх злочинних схем", — сказав Фінч.
Нагадаємо, що австралійські військові протестували спільні дії в наземних операціях у компанії роботів-псів, якими бійці спецпідрозділу змогли керувати силою думки.
Ще ми писали про те, що, на думку вчених, генеративні мовні моделі можуть використовуватися для дезінформації в соцмережах і не тільки. Дослідники вважають, що владі слід обмежувати збір нейромережами навчальних даних і створити інструменти контролю доступу до обладнання ШІ.