Вчені: створення цифрової копії людини штучним інтелектом може зашкодити психіці
Відтворення цифрових копій людей, які померли, може спричинити негативні наслідки. Людині буде важче рухатися далі, окрім того ШІ можуть давати шкідливі поради.
Дослідники попереджають, що "воскресіння" померлих близьких за допомогою штучного інтелекту може завдати шкоди психічному здоров’ю, створити залежність від технологій та сприяти релігійності. Про це розповідає видання New Scientist з посиланням на наукову статтю.
Останніми роками чатботи зі штучним інтелектом, навчені на текстах з Інтернету, стали дедалі ефективнішими та переконливішими. Джед Брубейкер з Університету Колорадо в Боулдері та Мередіт Морріс з Google DeepMind розповідають про можливість навчання такого штучного інтелекту виключно на архівованих електронних листах, текстових повідомленнях та інших записах однієї людини, щоб створити… її копію після смерті, що незабаром може стати відносно простим завданням.
Брубейкер каже, що ці "генеративні привиди" можуть бути розрадою для тих, хто втратив близьких, але попереджає, що вони також можуть викликати залежність та звикання й завадити близьким людям померлого продовжувати своє життя у здоровий спосіб.
Він припускає, що ця прихильність може стати більш екстремальною та навіть призвести до обожнювання, коли засмучений родич почне розглядати їх як свого роду ангела чи бога. Існують також ризики того, що ці образи штучного інтелекту можуть дати дивні або навіть шкідливі поради.
"Я думаю, що деякі люди можуть вважати їх богами, — каже Брубейкер. — Але я не думаю, що більшість людей буде це робити. Буде група людей, які знайдуть їх просто дивними та моторошними".
Але дослідник вважає, що загробне життя за допомогою штучного інтелекту може мати велике значення в житті деяких людей та навіть призвести до нових релігійних рухів. Він сподівається, що сучасні релігії видадуть вказівки щодо використання генеративних привидів, і що дослідники ретельно подумають про те, як вони створюються та використовуються, перш ніж йти далі з цією ідеєю.
Мхайрі Ейткен з Інституту Алана Тюрінга в Лондоні каже, що ідея перетворити її на чатбота за допомогою штучного інтелекту після смерті викликає у неї неймовірний дискомфорт. Вона припускає, що може знадобитися регулювання, щоб припинити збір та використання даних таким чином без попередньої згоди людини.
"Дійсно тривожно, що ці нові інструменти можуть продавати людям, які перебувають у дуже вразливому стані, людям, які сумують, — каже Ейткен. — Важливою частиною процесу скорботи є рух. Це пам’ятати та розмірковувати про стосунки, утримувати цю людину в пам’яті — але рухатися далі. Є реальне занепокоєння, що це може створити труднощі в такому процесі".
Штучний інтелект не є повністю безпечною річчю, якій можна беззаперечно довіряти. Раніше повідомлялося, що ШІ можуть навчити обманювати людей, і цього ефекту потім складно позбутися.