Розмови з померлими: південнокорейська компанія знайшла нове застосування ШІ (відео)

DeepBrain, Rе'memory, ІІ, штучний інтелект, спілкування, померлі, смерть
Фото: Shutterstock | DeepBrain пропонує спілкування з близькими, котрі пішли

Для того щоб сформувати образ людини, програма Rе'memory проводить семигодинні особисті інтерв'ю з людьми з невиліковними захворюваннями або тими, хто просто хоче залишити свої спогади про себе.

Related video

Південнокорейська компанія DeepBrain пропонує користувачам можливість спілкування з померлими близькими за допомогою відеоаватарів, наділених штучним інтелектом. Технологія одержала назву Rе'memory, пише IT Brew.

Для того, щоб сформувати образ людини, Rе'memory проводить семигодинні особисті інтерв'ю з людьми з невиліковними захворюваннями або тими, хто просто хоче залишити свої близькі спогади про себе.

"Rе'memory — це більше, ніж просто меморіальний зал із фото та відео. Це місце, де ви можете поділитися спогадами зі своїми реальними розмовами", — йдеться на офіційній сторінці програми.

За допомогою Rе'memory люди можуть поговорити з відеоаватарами своїх близьких

Менеджер із розвитку бізнесу DeepBrain у Каліфорнії Джо Мерфі зазначив, що побоювання щодо етичності Rе'memory є індивідуальними і що люди повинні самі ухвалювати рішення про те, що правильно, а що ні.

"Це дуже особисте. Різні люди, навіть різні культури по-різному дивляться на смерть", — заявив Мерфі.

Джо Мерфі також зазначив, що технологія має всі процедури безпеки, що унеможливлюють заподіяння страждань або болю. Користувачі Rе'memory можуть заблокувати нецензурні слова й образливі терміни.

У той же час співголова практики конфіденційності та кібербезпеки Pillsbury Law Браян Фінч сказав журналістам, що технологія є новою і тому поки що не існує "жорсткого етичного набору, пов'язаного з цим".

Фінч висловив побоювання щодо інтерв'ю, проведених Rе'memory, зазначаючи, що ця інформація гіпотетично може бути використана для злому паролів або відповідей на контрольні питання.

"Хакери дуже винахідливі в тому, що стосується зловмисних дій, і вони завжди шукають нові джерела інформації — нові способи збору даних, які б допомогли їм реалізувати ще кілька своїх злочинних схем", — сказав Фінч.

Нагадаємо, що австралійські військові протестували спільні дії в наземних операціях у компанії роботів-псів, якими бійці спецпідрозділу змогли керувати силою думки.

Ще ми писали про те, що, на думку вчених, генеративні мовні моделі можуть використовуватися для дезінформації в соцмережах і не тільки. Дослідники вважають, що владі слід обмежувати збір нейромережами навчальних даних і створити інструменти контролю доступу до обладнання ШІ.