ChatGPT працює краще, якщо переконати його, що він капітан космічного корабля зі Star Trek

Star Trek, стар трек, зоряний шлях
Фото: Paramount Pictures | Кадр із фільму Star Trek Beyond

Завдяки новому підходу в спілкуванні людини зі ШІ, нейромережі можуть стати більш чуйними й ефективними.

Related video

Співробітники компанії Broadcom VMware визначили, що незвичайні підказки допомагають підвищити продуктивність великих мовних моделей (ВММ), на основі яких працюють "розумні" чат-боти на кшталт ChatGPT. Наприклад, їх можна попросити зіграти роль капітана зорельота, передає BNN breaking.

Рік Баттл і Теджі Голлапуді з компанії Broadcom VMware провели дослідження під назвою "Необґрунтована ефективність ексцентричних автоматичних підказок", щоб зрозуміти, що стимулює ВММ працювати краще. Учені розробили метод оптимізації підказок, який дає змогу навіть невеликим моделям із відкритим вихідним кодом конкурувати за продуктивністю з такими гігантами як ChatGPT версій 3.5 і 4.

Важливо
"Зупинили божевілля": в Google екстрено відключили генерування зображень ШІ (фото)

Дослідники застосовували різного роду підказки, користуючись образами з попкультури, наприклад, вони згадали знаменитий серіал (і однойменний художній фільм) "Зоряний шлях" для того, щоб поліпшити хід математичних міркувань моделі штучного інтелекту (ШІ). Виявилося, що якщо чат-боту на кшталт GPT повідомити, що він командир космічного корабля "Ентерпрайз", то він розв'язуватиме задачі ефективніше, делегуючи дещо "команді" і вносячи результати в "журнал капітана".

Баттл і Голлапуді дійшли висновку, що запропонований ними метод допоможе розробникам вийти за межі традиційних методів проєктування ШІ-моделей. Новий тип взаємодії людини зі ШІ може призвести до розвитку нейромереж, які використовуються сьогодні у сфері обслуговування, онлайн-освіті й підтримці психічного здоров'я, зробивши чат-ботів більш чуйними та, що важливо, розумнішими.

Раніше ми писали про те, що Chat GPT-4 може будь-яку людину перетворити на хакера. Більшість ШІ-моделей не впоралися зі зломом сайтів, але GPT-4 впорався з 11 з 15 завдань і навіть виявив реальну вразливість.