Для того чтобы сформировать образ человека, программа Rе'memory проводит семичасовые личные интервью с людьми с неизлечимыми заболеваниями или теми, кто просто хочет оставить свои близким воспоминания о себе.
Южнокорейская компания DeepBrain предлагает пользователям возможность общения с умершими близкими с помощью видеоаватаров, наделенных искусственным интеллектом. Технология получила название Rе'memory, пишет IT Brew.
Для того чтобы сформировать образ человека, Rе'memory проводит семичасовые личные интервью с людьми с неизлечимыми заболеваниями или теми, кто просто хочет оставить свои близким воспоминания о себе.
"Rе'memory — это больше, чем просто мемориальный зал с фотографиями и видео. Это место, где вы можете поделиться воспоминаниями со своими ушедшими в реальном разговоре", — говорится на официальной странице программы.
Менеджер по развитию бизнеса DeepBrain в Калифорнии Джо Мерфи отметил, что опасения по поводу этичности Rе'memory являются индивидуальными и что люди должны будут сами принимать решения о том, что правильно, а что нет.
"Это очень личное. Разные люди, даже разные культуры по-разному смотрят на смерть" — заявил Мерфи.
Джо Мерфи также отметил, что у технологии есть все процедуры безопасности, исключающие причинения страданий или боли. Пользователи Rе'memory могут заблокировать нецензурные слова и оскорбительные термины.
В то же время сопредседатель практики конфиденциальности и кибербезопасности Pillsbury Law Брайан Финч сказал журналистам, что технология является новой и поэтому пока не существует "жесткого этического набора, связанного с этим".
Финч выразил опасения касательно интервью, проводимых Rе'memory, отмечая, что данная информация гипотетически может быть использована для взлома паролей или ответов на контрольные вопросы.
"Хакеры очень изобретательны в том, что касается злонамеренных действий, и они всегда ищут новые источники информации — новые способы сбора данных, которые помогли бы им реализовать еще несколько своих преступных схем", — сказал Финч.
Напомним, что австралийские военные протестировали совместные действия в наземных операциях в компании роботов-псов, которыми бойцы спецподразделения смогли управлять силой мысли.
Еще мы писали о том, что по мнению ученых, генеративные языковые модели могут использоваться для дезинформации в соцсетях и не только. Исследователи считают, что властям следует ограничивать сбор нейросетями обучающих данных и создать инструменты контроля доступа к оборудованию ИИ.