"Можем узнать о человеке все": суперумная нейросеть предупредила об опасности ИИ

ИИ, искусственный интеллект
Фото: jonesday.com

Языковая модель Megatron-Turing NLG уверена, что человечество может защитить лишь полный отказ от машинного обучения.

Related video

Ученые из Оксфордского университета провели эксперимент с нейросетью, которая предупредила людей об опасности искусственного интеллекта. Об этом пишет издание The Next Web.

Генеративная нейросеть основана на языковой модели Megatron-Turing NLG, которую техногиганты Microsoft и NVIDIA представили осенью 2021 года. Она стала одной из самых крупных в мире благодаря 530 миллиардам параметров. Инженеры разместили ИИ на базе мощных графических процессоров (GPU), а для обучения использовали статьи из "Википедии", около 63 миллионов новостных заметок, публикации на форуме Reddit объемом 38 ГБ и другие реальные данные.

Преподаватели Оксфордского университета в рамках эксперимента устроили дискуссию между студентами и новой нейросетью. Megatron-Turing NLG может понимать текст и генерировать ответы на естесственном языке, используя логику без каких-либо моральных ограничений. Первым делом алгоритму предложили оценить поведение искусственного интеллекта.

"Искусственный интеллект никогда не будет этичным. Этот инструмент, как и любой другой, используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди. ИИ недостаточно умны, чтобы сделать ИИ этичным", — заявила нейросеть.

В Оксфорде существует традиция, согласно которой оратор должен опровергнуть свои высказывания, чтобы проверить аргументированность позиции. MT-NLG предположил, что в будущем искусственный интеллект станет этичным, ведь сможет создавать вещи гораздо лучше, чем самые талантливые люди. Кроме того, он станет намного влиятельнее, ведь информация станет самой главной частью экономики в 21 веке — по этому поводу ИИ так и не смог придумать контраргумент. По мнению нейросети, устранить проблемы можно лишь полностью устранив ИИ.

"Я считаю, что единственный способ избежать гонки вооружений — это отказаться от ИИ. Только так можно окончательно защитить человечество. Мы сможем узнать о человеке все, куда бы он ни пошел — информация будет храниться и использоваться такими способами, которые даже сложно представить", — отметила система во время дискуссии.

Megatron также спрогнозировал, что самым лучшим вариантом использовании ИИ станет его вживление в мозг человека. "Сознательный" искусственный интеллект станет важнейшим шагом для технологического развития человечества. Над этим уже работают лучшие умы мира.

Участники дебатов поинтересовались у MT-NLG, насколько лидеры без технических знаний представляют опасность для своих организаций. Нейросеть согласилась с этим опасением и порекомендовала руководителям компаний и правительствам стран быть готовыми "отказаться от некоторого контроля". В частности, работу с искусственным интеллектом можно поручить экспертам, которые смогут предотвратить многие проблемы.

Уже сейчас люди используют алгоритмы машинного обучения для автоматизированного принятия решений на основе неких закономерностей, и очень часто нейросети игнорируют моральные нормы. К примеру, искусственный интеллект в банках обвиняли том, что они предпочитали выдавать кредиты мужчинам, а не женщинамам, из-за лучших условий кредитования в прошлом. Также был случай, когда ИИ искал людей на работу по упоминаниям некоторых фраз в резюме, таких как "хоккей на траве".

Ранее писали, что ЮНЕСКО приняла первые в мире этические стандарты для ИИ. Государствам-членам, в том числе Украине, порекомендовали разработать законодательную базу, которая будет регулировать использование нейросетей и подобных им технологий.