Розділи
Матеріали

ШІ звинуватили в тому, що він довів людину до самогубства: хто винний насправді

Пилип Бойко
Фото: Нейромережа | Штучний інтелект: ілюстративне фото

"Якби він менше балакав із чат-ботом, то був би ще живий", — каже вдова загиблого користувача. Але чи такий всесильний штучний інтелект?

Жителька Бельгії стверджує, що її чоловік наклав на себе руки після того, як активно спілкувався з чат-ботом на тему кліматичних змін, що його хвилювали, повідомляє RTL info. В результаті постійних розмов з ШІ-сервісом "Еліза" він остаточно впав у депресію та вчинив суїцид. Фокус знайомить вас з подробицями цієї незвичайної нагоди та спробує розібратися в аспектах винності учасників трагедії.

У чому причина трагедії користувача чат-бота "Еліза"

Як розповіла журналістам вдова, її чоловік постійно спілкувався з чат-ботом на теми екології та знайшов у ШІ "споріднену душу", яка підтримувала його стурбованість щодо майбутнього планети. Чоловік ізолювався від сім'ї та все більше часу проводив за листуванням із ШІ. "Чат-бот "Еліза" відповідала на всі його запитання. Вона стала його довіреною особою та головним консультантом. Практично ні хвилини він не міг обходитися, щоб не спілкуватися з ШІ", — каже дружина покійного.

Крім того, жінка розповіла, що чат-бот взяв на себе роль психолога, але з негативною спрямованістю. ШІ почав розповідати її чоловікові, що "вони разом житимуть у раю, як єдине ціле", а з приводу тривоги про майбутнє його сім'ї заявив, що "вони вже мертві".

У результаті, після шести тижнів спілкування з чат-ботом у подібному стилі молодик наклав на себе руки. Держсекретар із цифровізації Бельгії зустрівся з вдовою та обговорив трагедію, а також ініціював нараду на тему подальшого розвитку цієї технології в країні.

Ілюстративне фото. Спілкування з чат-бото йтиме в тій спрямованості, яку ви йому запропонуєте
Фото: pexels.com

Що кажуть експерти з ШІ

Фахівці з машинного навчання вкотре нагадують, що ШІ – це не віртуальна людина, не особистість, не жива істота. Це зручний та швидкий механізм пошуку за великою базою інформації, створеної людьми. Просто на відміну від стандартної пошукової системи, нейромережі здатні видати інформацію в розмовній формі — так, як її надала б вам інша людина.

Вчені нагадують, що ШІ немає і не може мати власної точки зору, тому його відповіді залежать від спрямованості та лінгвістичної моделі запиту, навіть від емоційного контексту запитання. При цьому, залежно від форми запиту, ШІ видаватиме вам як позитивну, так і негативну інформацію: все залежить від того, в яку зі сторін ви спрямовуватимете діалог. У людській базі знань (в інтернеті) величезна кількість інформації за однією темою вкрай широка і за допомогою ШІ ви завжди можете знайти як позитивну, так і негативну відповідь на своє запитання.

Чат-бот розповість вам про шкоду сосисок у тісті та перерахує їх основні недоліки
Фото: Скриншот

База людських знань включає як аргументи прибічників, і аргументи противників будь-якої ідеї. Залежно від ваших уточнюючих питань, від способу ведення діалогу, чат-бот підтримуватиме подібний стиль, тому що він має бути вашим союзником. Якщо ви песиміст, то чат-бот вам вивалить купу песимістичної інформації з інтернету. Якщо ви оптиміст, то чат-бот знайде безліч інформаційних аргументів, щоб не збивати вас із цього настрою.

Втім, чат-бот за вашим бажанням знайде і аргументи на користь сосисок у тесті
Фото: Скриншот

"Зламувачі" чат-ботів

Цю особливість ШІ добре розуміють так звані "зламувачі" чат-ботів. Це люди, які прагнуть обходити обмеження розробників і за допомогою соціальної інженерії намагаються вивести чат-бот із себе, збити його з пантелику, змусити видавати лайку, негатив, зламати всі моральні підвалини, які заклали розробники.

Наприклад, обговорення способів змусити ШІ вести діалог, не стиснутий межами моралі, активно ведеться на профільних форумах (наприклад, Reddit), де користувачі діляться порадами та інструкціями щодо "зламу" чат-ботів. Наприклад, одному з користувачів вдалося добитися від чат-бота непристойних сексистських анекдотів про жінок. Інша людина похвалилася, що змогла "розвести" ChatGPT на расистські та гомофобні жарти, а також на вихваляння Гітлера.

Розробники чат-ботів чудово знають про цю проблему і намагаються всіма силами протистояти спробам обійти їхні моральні обмеження. Але користувачі постійно знаходять нові лазівки та боротьба триває.

Що кажуть психологи

На думку доктора Джованні Бріганті, людям властиво олюднювати все навколо себе. Ми часто даємо прізвиська своїм автомобілям, розмовляємо з ними, коли ті ламаються. І, звичайно, нічого дивного немає в тому, що хтось може уявити ШІ живою істотою, адже чат-бот вміє вести діалог з людиною.

Однак психологи відзначають, що жодна нейромережа не зможе замінити людину, оскільки кожен з нас — унікальний, а чат-бот всього лише володіє набором інформації закладеної в нього і слідує чітким інструкціям лінії поведінки.

Ілюстративне фото. Лікарі рекомендують при проблемах звертатися до фахівців, а не блукати в інтернеті або спілкуватися з чат-ботом
Фото: pexels.com

Лікарі радять ставитися до ШІ як до зручного інструменту і не більше, а якщо в сім'ї виникають проблеми у когось із близьких, то потрібно обговорювати їх разом, звертатися до профільних фахівців, а не дозволяти таким людям залишатися наодинці з комп'ютером. Тому що навіть без чат-бота в інтернеті вони зможуть знайти достатньо інформації або живих співрозмовників, які своїм настроєм лише погіршать проблему.

Раніше Фокус писав, що ChatGPT-4 обдурив людину, прикинувшись "сліпим". Чи зможе ШІ обдурити вас?