ChatGPT відповідає на запити користувача 30-ма словами, що становить приблизно 1 цент за запит. Проте чат-бот обслуговує близько 10 млн запитів на день.
Запуск чат-бота ChatGPT перевернув ІТ-індустрію — на ШІ збожеволіли буквально всі: від ІТ-гігантів до простих користувачів. Однак попри потенційний Клондайк у вигляді майбутнього прибутку від сервісів на основі нейромереж поки що корпораціям, що лідирують на ринку ШІ, доводиться буквально кидати гроші в топку. Фокус спробував прикинути, скільки коштує бот своїм розробникам.
Скільки коштує ШІ
Назвати точну суму не візьметься жоден експерт, та й у самих корпораціях на кшталт Microsoft або Google вам навряд чи її назвуть, адже "ціна" ШІ не статична. Вона постійно "пливе" у бік витрат, куди включені не лише вартість навчання великих мовних моделей, а й зарплати персоналу, плата за підвищення кваліфікації персоналу, витрати на дослідження у сфері ШІ, на щоденне обслуговування та поточний апгрейд серверів та комп'ютерів для інфраструктури нейромережі.
Сюди слід включити зростаючі витрати у зв'язку з удосконаленням мовних моделей, які також потребують серверних потужностей та обслуговування.
Важливо розуміти, що навчання ШІ та його щоденна підтримка – дві різні величини. Навчання великих мовних моделей ChatGPT коштує десятки мільйонів доларів, а операційні витрати (щоденна підтримка функціонала) завжди й в будь-якому разі буде значно вищою, кажуть експерти.
Мінімальна ціна ChatGPT
Загалом, точну цифру не назве ніхто, проте деякі фахівці все ж наважуються. Наприклад, за оцінками Тома Голдштейна, професора комп'ютерних наук в університеті Мериленду, для запуску ChatGPT потрібно не менше 5 відеокарт NVIDIA A100 з об'ємом пам'яті 80 Гб кожна, щоб завантажити модель і текст.
Оренда кожної відеокарти A100 коштує близько $3 за годину на хмарній платформі Azure від Microsoft. Це означає, що одне слово, згенероване чат-ботом, коштує приблизно $0.0003 долара. Зазвичай ChatGPT відповідає на запити користувача 30 словами, що становить приблизно 1 цент за запит.
Голдштейн також припустив, що ChatGPT обслуговує близько 10 млн запитів на день, враховуючи, що він залучив 1 млн користувачів за перші 5 днів роботи. Це означає, що витрати на підтримку роботи чат-бота становлять близько $100 тис. на день або $3 млн на місяць.
Слід зазначити, що Голдштейн веде підрахунок суто за серверним часом і за "залізом".
Максимальна ціна ChatGPT
Інший експерт, головний аналітик дослідницької фірми SemiAnalysis Ділан Патель, вважає, що Microsoft і Open AI витрачають на ChatGPT близько $700 тис. на день, тому що ШІ вимагає величезної кількості обчислювальної потужності для генерації відповідей на запити. Це у 7 разів більше, ніж оцінка Голдштейна. Можливо, Патель враховував інші фактори, такі як паралелізація, утилізація та ефективність GPU, використання та модифікація власних серверів. Він зазначає, що суму $700 тис. він прикинув для моделі ChatGPT-3, а нова ChatGPT-4 обходиться ще дорожче.
І це дійсно звучить логічно, якщо згадати різницю між ChatGPT-3 та ChatGPT-4. Модель ChatGPT-4 має понад 343 млрд параметрів, у той час, як модель ChatGPT-3 має 175 млрд параметрів. Це означає, що ChatGPT-4 може обробляти більше інформації та давати більш різноманітні та складніші відповіді, ніж ChatGPT-3.
Новий ChatGPT-4 був навчений на більшому обсязі даних, ніж ChatGPT-3: 760 Гб даних у 4-ки проти 570 Гб у третьої версії. Це означає, що ChatGPT-4 може розуміти більше контекстів та доменів, ніж ChatGPT-3.
Одна з найбільш значних відмінностей між ChatGPT-3 та ChatGPT-4 є видами вхідних даних, які вони можуть обробляти. ChatGPT-3 — це мовна модель, яка приймає лише текстові вхідні дані, тоді як ChatGPT-4 розширив свої можливості до прийняття зображень, окрім тексту.
І ось весь цей прогрес і нові можливості — коштують колосальних грошей, тому що окрім навчання чат-бот щомиті "крутиться" на серверах, допомагаючи нам з вами отримувати відповіді на всілякі питання.
Соціальні витрати
Окрім грошей самих корпорацій, за ШІ щодня платимо ми з вами. Річ у тому, що мільйони користувачів, кількість яких зростає, звертаючись до чат-бота, або інших сервісів на основі ШІ, тим самим створюють трафік та навантаження на обладнання ЦОДів, яке потрібно живити та охолоджувати.
Вчені підрахували, що кожен наш запит до ChatGPT обходиться в одну пляшку питної води. Саме стільки витрачається ресурсів для охолодження ЦОДів та підтримки оптимальної вологості у приміщеннях. Крім того, рідина потрібна для виробництва електроенергії, яку споживають ЦОДи.
Коли ШІ почне давати прибуток?
Радше за все, головну ставку Google, як завжди, робить на рекламу та тотальну її персоніфікацію (щоправда, свій чат-бот Bard вони досі розробляють). Microsoft, ймовірно, планує відбити вкладення коштом просування рекламних послуг, покращення пошукового сервісу та залучення нових корпоративних підписників на свої офісні продукти, в які компанія вже інтегрувала унікальні можливості нейромереж.
Adobe нещодавно відкрила всім охочим свій проєкт Adobe Firefly, за допомогою якого можна безплатно генерувати чудові зображення. Але, швидше за все, для Adobe її нейромережа так само служить принадою нових користувачів до своєї відомої лінійки продуктів, яка отримає функціонал у вигляді штучного інтелекту.
Сама Open AI стягує плату за професійне використання розширеного функціонала ChatGPT. Інші проєкти, наприклад лабораторія Midjourney, також просить грошей за послуги свого генеративного ШІ. Втім, оплату за роботу з нейромережею зараз беруть практично всі проєкт, варті уваги.
Це, знову ж таки, якщо ми говоримо про конкретний прибуток конкретних компаній. Але загалом, для нас з вами, для соціуму, штучний інтелект, за задумом творців і вчених, має стати новим щаблем у розвитку людства. Щоправда, яким буде цей розвиток залежить поки що тільки від нас.