Учені вважають, що ШІ не має бути надто розумним, і пропонують контролювати нейромережі за допомогою чипів.
Група дослідників із OpenAI, Стенфордського та Джорджтаунського університетів вважають, що великі мовні моделі, як ChatGPT, можна використовувати для дезінформації в соцмережах і не тільки. Відповідно до звіту вчених, генеративні мовні моделі сьогодні доступні всім і кожному, а тому дослідники побоюються, що такі інструменти, якщо опиняться в руках пропагандистів, ризикують стати інструментом операцій упливу в майбутньому, пише vice.com.
На думку вчених, пропагандисти зможуть вдатися до дешевших і ефективніших тактик завдяки ШІ-інструментам. Більше не потрібно буде оплачувати роботу армії тролів, адже за допомогою нейромереж можна буде генерувати переконливі тексти у великих кількостях, розсилати їх у соцмережах, просувати через ЗМІ в інтернеті. Попри те, що мовні моделі контролюються через API, у таких держав, як Китай і Росія, вистачить грошей, щоб інвестувати у власні розробки. Окрім постів, пропагандисти зможуть задіяти й власних чат-ботів. У своєму звіті вони згадують про те, як чат-бот допоміг уплинути на людей, щоб вони вакцинувалися в розпал пандемії COVID-19.
Дослідники вважають, що урядам необхідно запровадити обмеження на збирання нейромережами навчальних даних і створити інструменти контролю доступу до обладнання ШІ, такого як напівпровідники. Як приклад наводять обмеження експортного контролю, введені США проти Китаю. Не маючи доступу до деякого обладнання й технологій, КНР не зможе створювати мікросхеми останнього покоління, що значно уповільнить цю країну в її спробах "прокачати" нейромережі.
Учені пропонують обмежити доступ до майбутніх ШІ-моделей, підвищити їхній рівень безпеки, щоб уникнути зломів і атак. Щодо контенту, дослідники пропонують, щоб платформи координували свої дії з постачальниками ШІ для виявлення контенту, написаного ШІ, і вимагали, щоб весь контент був написаний людьми.
Раніше ми повідомляли про те, які розширення можна встановити, щоб скористатися ChatGPT прямо в браузері.