На думку керівників країн "Великої сімки", штучний інтелект, здатний генерувати контент, може використовуватися в політичних цілях.
Лідери країн "Великої сімки" на 49-му саміті у Хіросімі, Японія домовилися про необхідність управління відповідно до цінностей міжнародного клубу у сфері генеративного штучного інтелекту (ШІ). Про це повідомив у суботу, 20 травня, американський телеканал Bloomberg.
Згідно з повідомленням, лідери країн стурбовані руйнівним потенціалом, який, на їхню думку, мають технології, що стрімко розвиваються.
Так, у межах "Хіросимського процесу" уряди мають намір провести обговорення цього питання на рівні кабінетів міністрів та подати висновки до кінця поточного року.
Щоб зробити розвиток ШІ орієнтованим на людину і таким, що заслуговує на довіру, прем'єр Японії Фуміо Кісіда закликав до співпраці у забезпеченні безпечного транскордонного потоку даних, пообіцявши зробити фінансовий внесок у ці зусилля.
Що не так з ДІВ
Побоювання полягають у тому, що технології, які можуть створювати людиноподібний текст, а також генерувати зображення та відео можуть бути використані в політичних цілях, вносячи дезінформацію. Тому пропонується встановити контроль за розвитком технологій.
Зокрема, повідомляється, що керівництво OpenAI International Business Machine Corp. звернулися цього тижня до сенаторів США з вимогою посилити регулювання ШІ.
Зазначимо також, що у вівторок, 16 травня, Всесвітня організація охорони здоров'я у своїй заяві зазначила, що надто швидке впровадження ШІ може призвести до ризику медичних помилок. У ВООЗ вважають, що це може підірвати довіру до цієї технології та відстрочити її впровадження.
Нагадаємо, глава компанії Berkshire Hathaway заявив, що створення нейромереж порівняно з винаходом атомної зброї, оскільки він несе в собі стільки ж небезпек, скільки й атомна бомба, якщо потрапить не в ті руки.
Раніше піонер у галузі штучного інтелекту, Джеффрі Хінтон заявив, що нейромережі, що розвиваються, несуть у собі більше ризиків для людства. На його думку, навіть кліматичну проблему вирішити простіше, ніж проблему ризиків, які несе ШІ.