Шкідлива порада від ШІ. Alexa веліла 10-річній дівчинці засунути монетку в розетку

Amazon
Фото: Amazon

Дитина, нудьгуючи, хотіла розважитися, проте мама опинилася поруч і не дозволила повторити дурний "челендж" з TikTok.

Related video

Голосовий помічник Alexa від компанії Amazon запропонував 10-річній дівчинці доторкнутися монетою до робочої розетки. Подробиці інциденту стали відомі BBC.

Дівчинка від нудьги попросила "розумну" колонку Echo дати їй випробування (challenge). Alexa попросила наполовину всунути зарядний пристрій для смартфона в розетку і доторкнутися монетою в один пенні до відкритої частини "виделки". Такий "челендж" близько року тому почав поширюватися в TikTok та інших соціальних мережах, штучний інтелект просто транслював текст, знайдений в інтернеті.

Метал "виделки" добре проводить електрику, тому в разі дотику до нього після підключення до розетки може ударити струмом. Почувши пропозицію Alexa, Крістін Лівдал, мати дівчинки, поспішила на допомогу. На щастя, дівчинка виявилася "надто розумною", щоб не лізти в розетку навіть без втручання матері.

"Була погана погода, тому донька не могла піти погуляти, їй було нудно. Добре, що я була поруч", — поділилася Крістін Лівдал, і на доказ надала скріншот історії активності голосового помічника.

У своєму коментарі компанія Amazon заявила ВВС, невдовзі після інциденту оновила Alexa, щоб помічник більше не рекомендував такі небезпечні випробування.

"Довіра клієнтів у центрі всього, що ми робимо, і Alexa покликана надавати клієнтам точну, актуальну та корисну інформацію. Як тільки нам стало відомо про цю помилку, ми швидко її виправили", — прокоментували в компанії.

Пізніше Крістін Лівдал написала у Twitter, що Alexa перестала пропонувати небезпечне випробування. Портал The Verge спробували отримати пораду з монетою та розеткою, проте навіть прямий запит в внтернеті не дав жодного результату, або видача виявилася дуже обмеженою.

Проти "виклику з пенні" у США виступили співробітники пожежної служби. Вони попередили, що внаслідок необдуманих дій хтось може серйозно постраждати.

"Я знаю, що ви можете втратити пальці, руки, кисті", — заявив начальник станції пожежної частини Карлайл-Іст Майкл Класкер у 2020 році.

Раніше вчений заявив, що ШІ не порозумнішає, поки не почне вигадувати проблеми. За словами професора Джулі Шах, поки що алгоритми не розуміють визначення моралі і не можуть приймати "усвідомлені" рішення.

Писали також, що українки запустили челендж через наказ Міноборони про прийняття жінок на військовий облік. У відповідь громадянки почали записувати ролики з гострою критикою на адресу уряду.