Сооснователь всемирной электронной энциклопедии считает, что ИИ еще не готов для написания статей и может быть слишком предвзятым.
Казалось бы, способности нейросетей и чат-ботов аккумулировать информацию из интернета в единый информационный материал как нельзя лучше подходят для составления статей в Википедии, однако Джимми Уэйлс, один из авторов этого проекта, так не считает. В интервью Evening Standard он обсудил проблемы внедрения ИИ в функционал Википедии. Фокус знакомит вас с основными аспектами проблем, которые перечислил Уэйлс.
В чем проблема чат-ботов на основе ИИ
Википедия — это самая большая и самая читаемая онлайн-энциклопедия в истории человечества, которая содержит миллионы статей на разных языках по разным темам. Люди очень доверяют информации, полученной из нее, поэтому доверить заполнение статей "роботу" на данном этапе развития ИИ пока еще не приемлемо.
Кроме того, как говорит Уэйлс, чат-боты часто "галлюцинируют", т.е. смешивают информацию из разных источников, но не на одну тему, а сразу на несколько. Внешне материал выглядит вполне правдоподобно, но при внимательном изучении в них часто находятся огромные ошибки и неточности в датах, названиях, географическом месторасположении и т.д.
"А еще у ИИ есть тенденция просто создавать вещи из воздуха, просто выдумывать несуществующие события, и это просто не нормально. Мы должны быть очень осторожны с этим", — говорит Джимми Уэйлс.
Недавно Дэвид Смердон, экономист из Университета Квинсленда, задал ChatGPT вопрос: "Какая статья по экономике самая цитируемая за все время?". Чат-бот ответил ему, что это "Теория экономической истории" Дугласа Норта и Роберта Томаса, опубликованная в "Журнале экономической истории" в 1969 году. Однако оказалось, что хотя авторы были настоящими, но такую статью они не писали, а журнал ее не публиковал.
Более того, сам Джимми Уэйлс не раз убеждался в ошибках чат-ботов. Он однажды спросил: "Врезался ли самолет в Эмпайр Стейт Билдинг?", на что ИИ ему ответил отрицательно, хотя такое событие действительно произошло в 1945 году, когда самолет B25 врезался в здание.
А еще не только Уэйлс, но и другие эксперты отмечают, что чат-боты и нейросети слишком зависят от данных, которые им "скармливают" создатели и от тех данных, которые нейросеть получает из интернета. Все мы знаем, что вся информация в интернете сгенерирована людьми, а значит она далека от объективности. И если мы с вами хоть как-то можем отличать фейки от правды, то чат-боты пока еще не настолько "умны", чтобы не смешивать правду и вымысел.
Чем может ИИ помочь Википедии
Впрочем, субъективизм – это большая проблема и для самой Википедии, отмечает Уэйлс. Он признает, что поскольку Википедия создается и поддерживается добровольцами, большинство из которых являются белыми мужчинами, сайт имеет тенденцию игнорировать темы, которые не интересны этой группе, и освещать другие темы с определенной точки зрения. Некоторые исследования показали, что статьи Википедии имеют левый уклон по сравнению с другими источниками.
По словам Джимми Уэйлс, его проект поддерживает любые инициативы по привлечению большего количества женщин и людей из разных культурных и этнических групп в Википедию. А в будущем ИИ поможет выявлять и устранять предвзятость, ошибки и помочь расширить покрытие некоторых тем, которые сейчас игнорируются или недостаточно освещены в Википедии.
В заключение, Уэйлс говорит, что он оптимистично смотрит на будущее Википедии и роль ИИ в нем. Он утверждает, что он верит в силу коллективного интеллекта и сотрудничества между людьми и машинами.
Ранее Фокус писал, что хакеры взяли ИИ в оборот: количество спама увеличилось на 135% и он стал "умнее".