Новий ШІ перевершив ChatGPT і Microsoft AI: як він працює і що в ньому особливого

робот, формули, завдання
Фото: jonesday.com | Робот вирішує завдання: ілюстративне фото

Чат-бот MathGPT виявився справжнім експертом у математиці, розв'язавши 12,5 тис. складних завдань.

Related video

Компанія Qanda заявила, що її велика мовна модель (ВММ) під назвою MathGPT встановила новий світовий рекорд, обійшовши чат-ботів від OpenAI і Microsoft, передає Interesting engineering.

ШІ чат-бот MathGPT посів перше місце в тестах, що оцінюють математичні здібності, як-от MATH (12 500 складних математичних задач) і GSM8K (8 500 математичних задач для початкової школи). Бот Microsoft ToRA 13B, який раніше посідав першу позицію, тепер відтіснений на другу. Крім того, нейромережа в цьому тесті перевершила GPT-4 від OpenAI.

Розробленням ВММ займалися також експерти з компанії Upstage. Вона навчалася на основі 10 млн завдань і, можна сказати, що ця нейромережа — фахівець у сфері математики, на відміну від чат-бота ChatGPT, який навчався на текстових даних. У підсумку, ChatGPT отримував інформацію з різних сфер знань і потроху, а MathGPT — тільки з галузі математики. Автори матеріалу вказують, що метод навчання ШІ, до якого вдалися в OpenAI, спричиняє в нейромережі "феномен галюцинацій", за якого неправдиву інформацію можна видавати за істинну.

Важливо
"Побив усі рекорди": у Китаї заявили про створення найпотужнішого у світі суперкомп'ютера

"Це являє собою серйозну проблему. Особливо у сфері освіти, де поширення точної та достовірної інформації має першорядне значення. Примітно, що ChatGPT продемонстрував низьку точність, особливо в математичних галузях", — йдеться в матеріалі.

"У майбутньому наш чат-бот зможе слугувати репетитором. Таке рішення ми запропонуємо освітнім онлайн-платформам", — підкреслили в Qanda.

Платформу Qanda підтримують Google, TikTok і Softbank Ventures Asia. Додаток розпізнає текст і математичні рівняння за знімками. Щодня на Qanda завантажують приблизно 10 мільйонів фото.

Раніше ми повідомляли про те, що суперкомп'ютер створив ШІ з 1 трлн параметрів, задіявши всього лише 3000 процесорів. Для навчання такого великого ШІ-бота необхідний величезний обсяг пам'яті — мінімум 14 Тб.