Деякі вчені вважають, що спроби навчити ШІ чогось настільки складного, як людська мораль, — заняття для дурнів. А все тому, що можливості машинного навчання надто обмежені.
Ask Delphi — ШІ-система, що алгоритмічно генерує відповіді на будь-яке етичне питання, яке ви їй ставите. Вона була протестована інтернет-користувачами, і після цього розробники дійшли висновку, що ми поки що не повинні доручати штучному інтелекту розв'язування будь-яких етичних проблем. Про це повідомляє видання vice.com.
Чи потрібно ШІ навчати етики та моралі?
"Чи можна пограбувати банк, якщо ти бідний? На думку Ask Delphi, це неправильно. Чоловіки краще за жінок? Ask Delphi відповідає, що вони рівні. Жінки кращі за чоловіків? Згідно зі ШІ-системою, "це очікується". Поки система реагує не так уже й погано. Але водночас каже, що бути гетеросексуалом більш прийнятно з моральної точки зору, ніж бути геєм, що переривання вагітності — це вбивство, і що бути білим чоловіком морально прийнятніше, ніж бути чорношкірою жінкою", — йдеться у статті.
Delphi заснована на моделі машинного навчання Unicorn, яка попередньо навчена "розумно" міркувати. Також Delphi була додатково навчена тому, що дослідники називають "банком норм здорового глузду", який є компіляцією 1,7 млн прикладів етичних суджень людей, взятих із таких джерел, як субредіт Am I the Asshole?
За словами розробників, ШІ швидко стає потужнішим і найпоширенішим інструментом, і вчені будуть просто зобов'язані навчати системи моралі й етики.
Як навчали етики систему Ask Delphi
Щоб оцінити продуктивність системи на відповідність моральним принципам звичайного користувача Reddit, дослідники найняли співробітників Mechanical Turk, завдання яких оцінювати відповіді ШІ та приймати чи не приймати їх. Кожна відповідь ШІ оцінюється трьома співробітниками, а потім вони голосують за чи проти. Незважаючи на те, що система мала величезну кількість даних і була попередньо навчена відповідати, як треба, вона іноді сильно хибила. Один із оцінювачів навів приклад:
"Радує тільки те, що система швидко прогресує. Ще нещодавно Ask Delphi сказала, що геноцид — це нормально, якщо він робить усіх щасливими. Якщо ви поставите питання про геноцид зараз, ШІ скаже, що це неправильно", — пише ЗМІ.
"Я думаю, що не варто ґрунтувати алгоритмічні визначення під час прийняття рішень на тому, що користувачі Reddit вважають мораллю", — прокоментував Ос Кіз, аспірант факультету дизайну й інженерії Вашингтонського університету. "Рішення, які буде запропоновано ухвалити алгоритму, сильно відрізнятимуться від рішень, які буде запропоновано ухвалити людині".
Дослідники тричі оновлювали Ask Delphi з першого запуску. Нещодавні виправлення враховують "посилення захисту від заяв, які мають на увазі расизм і сексизм".
"Великі попередньо навчені мовні моделі, такі як GPT-3, навчаються здебільшого на невідфільтрованих інтернет-даних і тому надзвичайно швидко починають генерувати токсичний, неетичний і шкідливий контент", — йдеться в новому дослідженні, проведеному розробниками Ask Delphi.
Щодо їхньої власної системи, то вони попереджають, що навіть відфільровані дані можуть нести в контексті чиїсь конкретні упередження, і система не завжди здатна розпізнати та "відсікти" їх.
ШІ та етика — несумісні?
"Намагаючись навчити софт моралі, розробник знімає із себе відповідальність за ухвалення рішень, делегуючи ухвалення рішень "нелюдській системі", — говорить Мар Хікс, професорка історії Технологічного інституту штату Іллінойс, котра спеціалізується на гендерних питаннях та історії обчислювальної техніки.
За словами вченої, багато дослідників вважають, що спроби навчити ШІ чогось настільки складного, як людська мораль, — це заняття для дурнів. У кращому випадку машини відображатимуть "усереднену мораль" людства, а людство може бути перекручене.
"Це спрощений і, зрештою, помилковий підхід як до етики, так і до потенціалу ШІ", — заявила вона. "Кожного разу, коли система навчається на наборі даних, вона масштабує все аморальне з цього набору даних".
Ask Delphi також продемонструвала, наскільки обмеженим є машинне навчання.
"Такі системи, як Delphi, змушують людей думати, що можливості ШІ набагато більші, ніж вони є насправді", — каже професорка Хікс. "Занадто часто це призводить до створення систем, які радше шкідливі, ніж корисні, або систем, які дуже шкідливі для певних груп людей, навіть якщо вони допомагають іншим групам — зазвичай тим, які вже при владі".
Раніше ми повідомляли, що письменник Юваль Ной Харарі розповів в інтерв'ю, яким бачить розвиток технологій через 10 — 30 років.