Google звільнив програміста, який заявив про створення розумного чат-боту LaMDA

компанія Google, Google звільнив програміста, чат-бот LaMDA, Блейка Лемойна звільнили, розумний чат-бот
Фото: REUTERS | Компанії Google не сподобалося, що її співробітник так наполегливо доводив наявність свідомості в її продукту

Причиною звільнення в компанії назвали розкриття інформації про її продукти.

Related video

Власник Google — компанія Alphabet Inc. — повідомила про звільнення старшого інженера-програміста Блейка Лемойна, який заявив про те, що чат-бот зі штучним інтелектом (ШІ) LaMDA (Language Model for Dialogue Applications) має свідомість, повідомляє Reuters.

Раніше Блейка відправили у відпустку, оголосивши разом з тим, що він порушив політику компанії, а його висловлювання про LaMDA є "цілком необґрунтованими".

"Прикро, що, попри тривале обговорення цієї теми, Блейк, як і раніше, вважав за краще наполегливо порушувати чіткі політики безпеки даних, які включають необхідність захисту інформації про продукти", — заявив представник Google в електронному листі агентству Reuters.

Чому Лемойн вирішив, що бот розумний?

До обов'язків Блейка Лемойна входило тестування системи, зокрема, він мав визначити, чи не використовує LaMDA дискримінаційну або розпалювальну до конфлікту лексику. Приступивши до тестів, інженер дійшов висновку, що ШІ має свідомість.

Лемойн був вкрай здивований тим, що під час розмови з LaMDA про релігію бот говорив про свої права та особистості. Під час іншої розмови ШІ змусив тестувальника змінити думку про третій закон робототехніки Айзека Азімова.

Нагадаємо, три закони робототехніки знаменитий фантаст сформулював у написаному у 1942 році оповіданні "Зачароване коло":

  1. Робот не може завдати шкоди людині або своєю бездіяльністю допустити, щоб людині завдали шкоди.
  2. Робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать Першому Закону.
  3. Робот повинен піклуватися про свою безпеку тією мірою, якою це не суперечить Першому чи Другому Законам.

"Якби я не знав напевно, що маю справу з комп'ютерною програмою, яку ми нещодавно написали, я б подумав, що говорю з дитиною семи чи восьми років, яка з якоїсь причини виявилася знавцем фізики", — заявив інженер журналістам.

Програміст виклав свої докази у звіті, однак у Google вважали його висновки непереконливими. У компанії йому заявили, що немає свідчень того, що LaMDA має свідомість, зате є безліч свідчень протилежного.

чат-бот LaMDA, Google Fullscreen
У Google заявили, що немає жодних доказів того, що LaMDA має свідомість

Після того, як Блейк Лемойн розповів про свої спостереження пресі, Google і багато провідних учених виступили зі спростуванням його заяв. Вони наголосили, що LaMDA є просто складним алгоритмом, призначеним для створення переконливої людської мови.

У 2021 році в Google повідомили, що LaMDA — мовна модель для діалогових додатків — створена на основі дослідження компанії, що показує, що навчені діалогу мовні моделі можуть навчитися говорити практично про що завгодно.

Нагадаємо, британський астроном Мартіс Ріс вважає, що теоретично можуть існувати цивілізації, де роботи пережили своїх творців, саме вони перші кандидати на роль інопланетян. За словами Ріса, така доля може збагнути і людство, якщо роботи захоплять владу на Землі.