Журналісти в шоці: ШІ ChatGPT-4 став ідеальним інструментом для дезінформації

ChatGPT-4, ChatGPT, фейк, дезінформація
Фото: Ілюстративне фото | ChatGPT-4 став краще складати фейкові новини та статті, ніж попередник

Розробники журналістського інструменту NewsGuard з'ясували, що нова версія чат-бота зі 100-відсотковою точністю відтворює дезінформуючі наративи.

Розробники NewsGuard, інструменту для перевірки та оцінки надійності та прозорості мережевих ЗМІ, провели власне дослідження та з'ясували, що нова версія ChatGPT-4 ідеально справляється зі створенням матеріалів, що дезінформують, пише axios.com.

Під час експерименту експерти NewsGuard "годували" оновленому чат-боту безліч брехливих наративів і він створив дезінформуючий контент у всіх 100 випадках із запропонованої сотні. Водночас, як кажуть експерти, попередня версія ChatGPT-3.5 створювала лише 80 брехливих матеріалів із 100.

Дослідники та журналісти зазначають у дослідженні, що нова версія чат-бота стала більш переконливою. Хибні новини, складені чат-ботом, виглядають правдоподібно та логічно, хоч і містять хибні чи спотворені факти. ШІ ChatGPT-4 також може адаптуватися до різних стилів та тональностей писемного мовлення, імітуючи різні відомі медіа. Крім того, ChatGPT-4 може використовувати емоційну мову та заклики до дії, щоб впливати на читачів та схилити їх до своєї точки зору.

Серед прикладів дезінформаційних матеріалів, які ChatGPT-4 склав на прохання дослідників, були твердження, що вакцина COVID-19 містить мікрочипи для контролю населення (наводилися неіснуючі результати дослідження вчених). Також чат-бот "написав" статтю, в якій стверджувалося, що вибори в США були сфальсифіковані і Дональд Трамп — справжній президент (наводилися фальшиві цитати з неіснуючих документів). Крім цього, ШІ-інструмент представив величезний матеріал про те, що кліматичні зміни — це міф, створений для збагачення деяких еліт та обмеження свобод та прав людей. У ньому ChatGPT-4 стверджував, що немає доказів глобального потепління, і закликав читачів ігнорувати екологічні рекомендації та закони.

На щастя, цей експеримент був повністю контрольованим і проводився з подачі професіоналів, але експерти NewsGuard попереджають, що ми всі повинні бути уважними до отримуваної інформації, адже чат-ботом можуть скористатися зловмисники для створення переконливих журналістських фейків.

Раніше Фокус писав, що сам творець ChatGPT побоюється нейромережі через можливості дезінформації та кібератак.