Програмне забезпечення для клонування голосу від ElevenLabs та фотореалістичні картинки від DALL-E 2, Stable Diffusion та Midjourney, за словами експертів, можуть потенційно використовуватися для розповсюдження неправдивої інформації.
Вчені та розробники нейромереж висловили занепокоєння потенційним впливом просунутих систем штучного інтелекту, які можуть генерувати реалістичні фейкові новини на нечуваному рівні у 2024 році, пише Interesting Engineering. Саме через рік у США пройдуть президентські вибори й експерти побоюються, що вони можуть стати надзвичайно скандальними та непередбачуваними через застосування інструментів нейромереж.
Програмне забезпечення для клонування голосу від ElevenLabs та фотореалістичні картинки від DALL-E 2, Stable Diffusion та Midjourney можуть потенційно використовуватися для розповсюдження неправдивої інформації.
"Нам слід побоюватися загроз, які великі мовні моделі (LLM), що лежать в основі технології, становлять для демократії", сказав Гарі Маркус, почесний професор когнітивної науки в Нью-Йоркському університеті та експерт зі штучного інтелекту. "Ми не можемо поки що передбачити, як генерована ШІ фейкова інформація вплине на наступні вибори".
Хоча технологія для створення фейків все ще перебуває у зародковому стані, експерти з дипфейків можуть створювати переконливі підроблені відео. Кріс Мезероль, науковий співробітник Інституту Брукінгса, попереджає, що клонування голосу може відіграти значну роль на виборах 2024 року, дозволяючи з'являтися аудіозаписам у критичні моменти виборів, які нібито є записом кандидата, який говорить щось скандальне.
Особливої небезпеки, зазначають експерти, слід очікувати від швидкого розвитку генеративного ШІ. Наприклад, всього за пів року ChatGPT-4 на голову перевершив свою першу версію і працює набагато краще, продуктивніше і правдоподібніше, ніж його попередник.
Раніше Фокус писав, що Ілона Маска "штормить": він взявся за створення ШІ, хоча нещодавно обурювався розвитком нейромереж.