Розділи
Матеріали

Білл Гейтс передбачив технологічний бум через розвиток ШІ: коли і як він відбудеться

Ірина Рефагі
Фото: Getty Images | Робот зі штучним інтелектом: ілюстративне фото

Білл Гейтс вважає, що в США ШІ-інструменти почнуть повсюдно використовувати через 1,5 року, а в країнах Африки — через 3 роки.

Співзасновник технологічної корпорації Білл Гейтс упевнений, що штучний інтелект дасть змогу людям здійснювати відкриття з такою швидкістю, "яку ми ніколи раніше не бачили". Про це він написав у своєму блозі.

Гейтс вивчив те, як ШІ-продукти застосовують у різних країнах, і дійшов висновку, що масштабне і повсюдне впровадження нейромереж можливе до 2030 року, а зараз поки що ведеться щось на кшталт підготовки. На його думку, жителі розвинених країн користуватимуться ШІ-додатками дедалі частіше і частіше.

"Робота, яку буде виконано наступного року, підготує ґрунт для масштабного технологічного буму, який трапиться пізніше в цьому десятилітті завдяки ШІ", — написав Гейтс.

На думку Білла Гейтса, ШІ буде застосовуватися в таких напрямках:

  • боротьба зі стійкістю до антибіотиків;
  • персоналізація освітніх програм на основі ШІ з урахуванням культурного контексту:
  • зниження ризиків під час вагітності;
  • ШІ-інструменти для оцінки ризику зараження ВІЛ;
  • ШІ-додатки з голосовим управлінням для медпрацівників, що дають змогу зібрати точний анамнез;
  • ШІ-чат-боти та інші продукти, максимально адаптовані під потреби, культурні, національні, релігійні та інші особливості жителів різних країн.

"ШІ-продукти мають бути максимально адаптовані до людей, які будуть їх використовувати", — написав він.

"Якби мені довелося зробити прогноз, то в країнах з високим рівнем доходу, як-от США, до використання ШІ населенням на високому рівні загалом залишилося 18–24 місяці. Я очікую побачити порівнянний рівень використання в африканських країнах приблизно за 3 роки. Розрив існує, але він набагато менший, якщо порівнювати темпи впровадження інших інновацій", — підсумував Білл Гейтс.

Раніше ми писали, що дослідники навчили чат-бота зламувати інших чат-ботів. Про цю вразливість вони повідомили розробникам великих мовних моделей, на основі яких працюють боти.