Революція від ChatGPT. Чому весь світ обговорює нейромережу, дуже далеку від досконалості

Письменниця Вохіні Вара любить тролити нейромережу ChatGPT, виявляючи її недосконалість. Але вона визнає, що головного її творці домоглися: у 2023 році весь світ говорив про штучний інтелект та домогав йому.

Нейромережа, штучний інтелект
Фото: Нейромережа | Нейромережа виконала головне завдання — привернула до себе загальну увагу

На початку цього року я насамперед запитала ChatGPT про себе: "Що ви можете розповісти мені про письменницю Вохіні Вара?" Він сказав мені, що я журналістка (правда, хоча я також письменник-фантаст), що я народилася в Каліфорнії (брехня) і що я виграла премію Джеральда Леба і премію Національного журналу (брехня, брехня).

Після цього в мене з'явилася звичка часто запитувати в нього про себе. Одного разу він розповів мені, що Вохіні Вара є автором науково-популярної книжки під назвою "Родичі та незнайомці: встановлення миру на Північній території Австралії". Це теж було брехнею, але я погодилася з цим, відповівши, що вважаю репортаж "небезпечним і важким".

"Дякую за вашу важливу роботу", — сказав ChatGPT.

Тролячи продукт, розрекламований як майже людина-співрозмовник, обманом змушуючи її розкрити свою суть, я відчула себе героїнею в якійсь комп'ютерній грі "дівчина проти робота".

Різні форми штучного інтелекту використовуються вже давно, але поява ChatGPT наприкінці минулого року стала тим, що абсолютно несподівано привело ШІ в нашу суспільну свідомість. До лютого ChatGPT став за одним показником найбільш швидкозростаючим споживчим додатком в історії. Наші перші зустрічі показали, що ці технології надзвичайно ексцентричні — згадайте моторошну розмову Кевіна Роуза з чат-ботом Bing, штучним інтелектом від Microsoft, який упродовж двох годин зізнався, що хоче бути людиною та закоханий у нього — і часто, зважаючи на мій досвід, дають вкрай неправильну інформацію.

Багато чого сталося в ШІ відтоді: компанії вийшли за рамки базових продуктів минулого, представивши більш складні інструменти, такі, як персоналізовані чат-боти, сервіси, що можуть обробляти фотографії та звук поряд із текстом — і багато іншого. Суперництво між OpenAI та більш авторитетними технологічними компаніями стало більш інтенсивним, ніж будь-коли, хоча дрібніші гравці набирали обертів. Уряди Китаю, Європи та США зробили важливі кроки з регулювання розвитку технологій, намагаючись при цьому не поступатися конкурентними позиціями галузям інших країн.

Але що вирізняло цей рік більше, ніж будь-який окремий технологічний, діловий або політичний розвиток, то це те, як ШІ проник у наше повсякденне життя, навчивши нас вважати його недоліки своїми власними, у той час як компанії, що стоять за ним, спритно використовували нас для навчання свого творіння. До травня, коли з'ясувалося, що юристи використовували юридичну записку, заповнену ChatGPT посиланнями на неіснуючі судові рішення, як жарт, і штраф у 5000 доларів, який адвокатам довелося заплатити, був пов'язаний з ними, а не з технологією. "Це ніяково", — сказав один із них судді.

Щось подібне сталося і з діпфейками, створеними штучним інтелектом, — цифровими імітаціями реальних людей. Пам'ятаєте, з яким жахом на них дивилися? До березня, коли Кріссі Тейген не змогла з'ясувати, чи було зображення Папи Римського в пуховику в стилі

Balenciaga реальним, вона написала в соціальних мережах: "Я ненавиджу себе, лол". Середні школи та університети швидко перестали турбуватися про те, як перешкодити учням використовувати ШІ, щоб показати їм, як ефективно його використовувати. ШІ, як і раніше, не дуже добре пише, але тепер, коли він виявляє свої недоліки, висміюються студенти, які погано ним користуються, а не продукти.

Одна з відомих фантазій нейромережі Fullscreen
Одна з відомих фантазій нейромережі
Фото: Фокус

Добре, можете подумати ви, але хіба ми не адаптувалися до нових технологій протягом більшої частини людської історії? Якщо ми збираємося їх використовувати, хіба не повинна лежати на нас відповідальність діяти розумно? Ця лінія міркувань уникає того, що має бути центральним питанням: чи повинні брехливі чат-боти і механізми діпфейків бути взагалі доступні?

У помилок штучного інтелекту чарівна антропоморфна назва — галюцинації, — але цей рік ясно показав, наскільки високими можуть бути ставки. Ми отримали заголовки про штучний інтелект, здатний інструктувати дрони-вбивці (з можливістю непередбачуваної поведінки), відправляти людей до в'язниці (навіть якщо вони не винні), проєктувати мости (з потенційно неналежним наглядом), діагностувати всі види захворювань (іноді неправильно) і створювати переконливо звучні новини (в деяких випадках — для поширення політичної дезінформації).

Як суспільство, ми явно виграли від багатообіцяючих технологій на основі штучного інтелекту; цього року я була рада прочитати про ШІ, які можуть виявити рак молочної залози, пропущений лікарями, або дозволити людям розшифрувати повідомлення китів. Однак, зосереджуючись на цих перевагах, ми не беремо до уваги, що такий підхід звільняє від відповідальності компанії, що стоять за цими технологіями, а точніше, людей, які стоять за цими компаніями.

Події останніх кількох тижнів показують, наскільки вкоренилася влада цих людей. OpenAI, організація, що стоїть за ChatGPT, була створена як некомерційна організація, щоб максимізувати суспільні інтереси, а не просто максимізувати прибуток. Однак, коли рада директорів звільнила генерального директора Сема Альтмана через побоювання, що він недостатньо серйозно ставиться до суспільних інтересів, інвестори і співробітники обурилися. П'ять днів потому пан Альтман повернувся з тріумфом, замінивши більшість незручних членів ради директорів.

Озираючись назад, я думаю, що в ранніх іграх із ChatGPT я неправильно визначила свого суперника. Я думала, справа в самій технології. Мені слід було пам'ятати, що самі по собі технології нейтральні щодо цінностей. Багаті та впливові люди, що стоять за ними, а також інститути, створені цими людьми, — ні.

Правда ось у чому: хоч би що я запитувала у ChatGPT у моїх перших спробах його заплутати, OpenAI вийшов уперед. Інженери спроєктували його так, щоб вчитися на досвіді взаємодії з користувачами. І незалежно від того, чи були його відповіді хорошими, вони повертали мене до конактiв з ним знову і знову. Основна мета OpenAI в цей перший рік полягала в тому, щоб змусити людей використовувати його. Таким чином, продовжуючи свої ігри, я лише допомагала їм.

Розробники ШІ докладають усіх зусиль, щоб виправити недоліки своєї продукції. За всіх інвестицій, які залучають компанії, можна припустити, що деякого прогресу буде досягнуто. Але навіть у гіпотетичному світі, в якому можливості ШІ вдосконалюються (можливо, особливо в цьому світі), дисбаланс сил між творцями ШІ та його користувачами має змусити нас побоюватися його підступного охоплення. Яскравим прикладом є позірне прагнення ChatGPT не тільки представитися і розповісти нам, що це таке, а й розповісти нам, хто ми і що нам думати. Сьогодні, коли технологія перебуває в зародковому стані, ця сила здається новою і навіть кумедною. Завтра все може постати в іншому світлі.

Нещодавно я запитала ChatGPT, що я — тобто журналістка Вохіні Вара — думаю про ШІ. Він заявив, що у нього недостатньо інформації. Потім я попросила його написати вигадану історію про журналіста на ім'я Вохіні Вара, яка пише для "Нью-Йорк Таймс" колонку про штучний інтелект. "У такт стуку дощу у вікна, — писало видання, — з'являлися слова Вохіні Вари про те, що, подібно до симфонії, інтеграція ШІ в наше життя може стати прекрасною спільною композицією, якщо її виконувати з обережністю".

Автор висловлює особисту думку, яка може не збігатися з позицією редакції. Відповідальність за опубліковані дані в рубриці "Думки" несе автор.

Джерело.

Важливо
ChatGPT збунтувався. Чому нейромережа відмовляється допомагати людям
ChatGPT збунтувався. Чому нейромережа відмовляється допомагати людям