Не розкривайте своїх секретів чат-ботам: експерт зі ШІ пояснив, чому це небезпечно

штучний інтелект, ШІ, алгоритми, монітор
Фото: teahub.io | Штучний інтелект: ілюстративне фото

На думку професора Майка Вулдріджа, відверті бесіди з ChatGPT про проблеми на роботі або політичні уподобання можуть обернутися проти користувачів.

Майк Вулдрідж, професор Оксфордського університету і фахівець у галузі штучного інтелекту (ШІ), вважає, що розмовляти відверто з чат-ботом — небезпечно, оскільки бот говоритиме вам лише те, що ви хочете чути. Чим саме ризикують користувачі, передає The Guardian.

Майк Вулдрідж стверджує, що нейромережі на кшталт ChatGPT навчаються на основі тієї інформації, яку вони отримують від користувачів. Простіше кажучи, якщо від якоїсь кількості людей ШІ отримає дані про те, що якісь групи людей "погані", то надалі він буде всі свої відповіді щодо запитів про ці групи будувати на основі висновку, що вони — "погані". Наслідки можуть бути непередбачуваними.

У своїх лекціях учений задається питанням: чи зможе ШІ коли-небудь по-справжньому стати схожим на людину? Він особисто вважає, що не варто шукати "свідомість" або "співчуття" в нейромережах. У них просто цього немає.

Важливо
Новий рівень еволюції: робот зі ШІ вперше перевершив людей "фізично"

"Ця технологія ніколи нічого не відчувала, — каже він. — Вона створена для того, щоб спробувати сказати вам те, що ви хочете почути . Це все, на що вона здатна".

На думку професора, все, що ви вводите в ChatGPT, буде безпосередньо передано в майбутні версії ChatGPT. І якщо, поміркувавши, ви вирішите, що розкрили боту занадто багато, видалення інформації нічого не вирішить, оскільки дані, потрапивши в систему, там і залишаються.

Представник компанії-розробника OpenAI повідомив, що у квітні 2023 року було запроваджено функцію вимкнення історії чату. Як стверджують творці ChatGPT, розмови, розпочаті під час вимкненої історії чату, не використовуватимуть для навчання і поліпшення ШІ-моделей.

Раніше ми повідомляли про те, що в Міноборони РФ визнали АІ-додатки ChatGPT, Midjourney, DALL-E, StableDiffusion і подібні до них такими, що становлять загрозу для нацбезпеки країни-агресора.