"Руйнівний потенціал": країни G7 погодилися прийняти стандарти використання ШІ, — ЗМІ

нейромережа, ШІ, сингулярність, штучний інтелект
Фото: wallha.com | На думку лідерів країн G7, нейромережі можуть вносити дезінформацію

На думку керівників країн "Великої сімки", штучний інтелект, здатний генерувати контент, може використовуватися в політичних цілях.

Related video

Лідери країн "Великої сімки" на 49-му саміті у Хіросімі, Японія домовилися про необхідність управління відповідно до цінностей міжнародного клубу у сфері генеративного штучного інтелекту (ШІ). Про це повідомив у суботу, 20 травня, американський телеканал Bloomberg.

Згідно з повідомленням, лідери країн стурбовані руйнівним потенціалом, який, на їхню думку, мають технології, що стрімко розвиваються.

Так, у межах "Хіросимського процесу" уряди мають намір провести обговорення цього питання на рівні кабінетів міністрів та подати висновки до кінця поточного року.

Щоб зробити розвиток ШІ орієнтованим на людину і таким, що заслуговує на довіру, прем'єр Японії Фуміо Кісіда закликав до співпраці у забезпеченні безпечного транскордонного потоку даних, пообіцявши зробити фінансовий внесок у ці зусилля.

Що не так з ДІВ

Побоювання полягають у тому, що технології, які можуть створювати людиноподібний текст, а також генерувати зображення та відео можуть бути використані в політичних цілях, вносячи дезінформацію. Тому пропонується встановити контроль за розвитком технологій.

Зокрема, повідомляється, що керівництво OpenAI International Business Machine Corp. звернулися цього тижня до сенаторів США з вимогою посилити регулювання ШІ.

Зазначимо також, що у вівторок, 16 травня, Всесвітня організація охорони здоров'я у своїй заяві зазначила, що надто швидке впровадження ШІ може призвести до ризику медичних помилок. У ВООЗ вважають, що це може підірвати довіру до цієї технології та відстрочити її впровадження.

Нагадаємо, глава компанії Berkshire Hathaway заявив, що створення нейромереж порівняно з винаходом атомної зброї, оскільки він несе в собі стільки ж небезпек, скільки й атомна бомба, якщо потрапить не в ті руки.

Раніше піонер у галузі штучного інтелекту, Джеффрі Хінтон заявив, що нейромережі, що розвиваються, несуть у собі більше ризиків для людства. На його думку, навіть кліматичну проблему вирішити простіше, ніж проблему ризиків, які несе ШІ.