"Вторжение инопланетян": ученый предсказал, как и когда ИИ может уничтожить человечество
Возможно, главная опасность ИИ заключается в том, что он сам выбирает средства достижения поставленных целей, и люди пока не могут это контролировать.
Инструменты с искусственным интеллектом, такие как чат-бот ChatGPT смогут предсказать инопланетное вторжение, которое грозит уничтожением человечества. К такому выводу пришел профессор Калифорнийского университета Стюарт Рассел, стоявший у истоков этой технологии, передает The Times.
Возможности ChatGPT превзошли все его ожидания — бот научился писать компьютерный код и сочинения на заданную тему, а однажды даже сдал экзамен вместо студента. Однако ученый опасается, что подобная система может стать частью сверхразумной машины, которая будет сопротивляться любым попыткам контроля со стороны людей.
Стюарт Рассел считает, что один из рисков связан с тем, что перед мощным ИИ ставят цель, но он самостоятельно выбирает метод ее достижения. Порой он может быть связан с непредвиденными побочными эффектами, разрушительными для человечества. Ученый привел пример мира, в котором перед ИИ стоит задача исправить изменение климата, и он решает, что лучший способ — избавить Землю от людей.
Cтюарт Рассел также сравнил появление сверхмощного ИИ со вторжением более развитой инопланетной цивилизации. Раньше он думал, такие системы появятся лишь через десятки лет, но теперь, глядя на Chat GPT, он сократил свой прогноз до ближайшего десятилетия, хотя это все еще маловероятно.
"У нас есть европейцы, призывающие к экстренному глобальному саммиту, есть Китай, который фактически запрещает большие языковые модели. У нас есть Белый дом, который созывает всех руководителей технологической отрасли на экстренное совещание. Как вы себе представляете, может произойти, если мы действительно столкнемся с инопланетной цивилизацией", — отметил Стюарт Рассел.
Стюарт Рассел разочарован тем, что политики выступают за слабое регулирование сферы искусственного интеллекта, несмотря на то, что многие чиновники видят потенциальную угрозу этой технологии. Недавно он вместе с Илоном Маском и Стивом Возняком подписал открытое письмо с предложением остановить развитие ИИ, чтобы научиться сначала его контролировать.
Рассел — профессор компьютерных наук в Калифорнийском университете в Беркли и член Уодхэм-колледжа в Оксфорде. Он работал в ООН над созданием новой системы контроля за выполнением договора о запрещении ядерных испытаний и является соавтором наиболее широко используемого университетского учебника по искусственному интеллекту.
Ранее ученый Джеффри Хинтон пожалел, что создал технологию нейросетей. По его словам, сейчас ИИ опаснее для человечества, чем глобальные изменения климата.