"ШІ не порозумнішає, поки не почне вигадувати собі проблеми": вчений пояснив розвиток технології

робот, штучний інтелект
Фото: jonesday.com

Професорка Массачусетського технологічного інституту вважає, що ШІ нездатний приймати рішення, нездатний зрозуміти, що таке мораль, а тому він може бути крутим калькулятором і не більше.

Related video

"Чи можливо, що ШІ одного разу стане розумнішим за людей?". Лист із таким питанням надіслав редакції видання washingtonpost.com один із читачів. Журналісти звернулися за відповіддю до професорки Массачусетського технологічного інституту Джулі Шах.

"Я нещодавно запитала в Siri, як дістатися до найближчого офісу компанії FedEx, але голосовий помічник додав "моркву" в мій список покупок. Я думаю, що ШІ не скоро перевершить людей. Однак це важливе та складне питання. Тому за відповіддю я пішла до професорки, дослідниці штучного інтелекту Джулі Шах, яка є директоркою групи інтерактивної робототехніки в лабораторії комп'ютерних наук і штучного інтелекту Массачусетського технологічного інституту", — пише журналістка Татум Хантер.

Джулі Шах пояснила, що в деякому сенсі ШІ вже набагато "розумніший" за нас. Наприклад, нам складно помножити в розумі 24 на 36 і миттєво озвучити результат, ми не можемо, як суперкомп'ютер, виконувати 415 квадрильйонів обчислень за секунду. Так що з точки зору швидкості й точності обчислень ШІ нас перевершує, але в інших сенсах він "перебуває в невигідному становищі", вважає вчена.

На думку Шах, штучний інтелект може вирішити проблеми лише в тому випадку, якщо ці проблеми "були створені для нього заздалегідь". Професорка зазначила, що робот може використовувати комп'ютерний зір на базі штучного інтелекту для ідентифікації об'єктів на своєму столі, але тільки в тому випадку, якщо алгоритми машинного навчання спочатку навчать його, на що звертати увагу та навчать того, що таке "об'єкт". Навіть ШІ-системи, які збирають величезну кількість даних, а потім формують на їхній основі мільйони поведінкових (або будь-яких інших) шаблонів, спочатку потребують того, щоб ці дані були перевірені, відфільтровані та навіть розсортовані людьми.

"Ми, люди, розумні та дуже креативні. Наш розум мислить абстрактно і кожну мить налагоджує нові нейронні зв'язки, і роботам знадобиться чимало часу, щоб наздогнати нас", — йдеться в матеріалі.

"У нас є унікальні сильні сторони, якими не зможуть опанувати машини, штучний інтелект чи роботи, принаймні в найближчому майбутньому", — каже професорка Шах.

"За словами вченої, у майбутньому ШІ зможе самостійно придумати, як створювати та структурувати для себе нові "проблеми". Але це станеться нескоро, а поки ми повинні відповісти собі на одне важливе запитання: яку роль ШІ має відігравати в нашому світі?" — пише Хантер.

Джулі Шах розповіла, що її не турбує те, що роботи, напримір, стануть шахраями або що вони зможуть підірвати авторитет людей, але її турбує шкода, яку ШІ може завдати, якщо він відображатиме наші погані якості. Напевно, вам відомі випадки, коли ШІ-системи висловлювалися грубо на адресу людей різних національностей, релігійних чи політичних переконань або некоректно розпізнавали їхню зовнішність. Таке могло статися, тому що зібрані дані виявилися недосконалими, люди, які генерують ці дані, теж не досконалі, розробники не досконалі, от і система вийшла далекою від ідеалу. Чим більше відповідальності ми покладаємо на ШІ, тим більше в технології з'являється можливості посилити вже існуючі проблеми в суспільстві, вважає дослідниця.

"Будь-яке позитивне чи негативне використання цієї технології, будь-який результат її роботи — не визначений. У нас є багато варіантів для ухвалення рішень, — сказала Шах. — І це не повинні бути рішення, які перебувають у компетенції айтішників. Усі мають бути залучені до процесу прийняття рішень із боку ШІ, тому що ця технологія дуже впливає на всіх нас".

Раніше ми повідомляли про те, що письменник Юваль Ной Харарі спрогнозував розвиток МН-та ШІ-технологій на найближчі 10 і навіть 30 років.

Відомо також, що ШІ-система розпізнала темношкірих чоловіків як "приматів". Розробники вибачилися за таку безглузду помилку.