Великий фильтр: люди не обнаружили инопланетян, ведь их уничтожил ИИ и это ждет землян
Ученые считают, что искусственный интеллект представляет угрозу для человечества.
Сейчас развитие искусственного интеллекта (ИИ) продвигается большими и быстрыми темпами. Ученые считают, что предугадать быстроту эволюции ИИ очень сложно. В то же время ИИ может стать Великим фильтром для землян. И скорее всего это уже произошло с другими цивилизациями в космосе. Поэтому мы не может их до сих пор обнаружить. Новое исследование было опубликовано в журнале Acta Astronautica, пишет ScienceAlert.
У Фокус. Технологии появился свой Telegram-канал. Подписывайтесь, чтобы не пропускать самые свежие и захватывающие новости из мира науки!
Одним из возможных решений знаменитого парадокса Ферми, то есть если инопланетяне существуют, то почему мы их не нашли, является гипотеза под названием Великий фильтр. Это гипотетическое событие или ситуация, которая не позволяет разумной жизни стать межзвездным видом и даже приводит к ее гибели. Это может быть ядерная война, удар астероида, глобальная пандемия и другие подобные катастрофы.
Авторы нового исследования считают, что быстрое развитие ИИ приведет к появлению искусственного сверхинтеллекта (ИСИ) и именно он станет Великим фильтром. Ученые считают, что ИИ может представлять серьезную угрозу будущему развитию не только нашей цивилизации, но и всех цивилизаций в космосе.
Согласно гипотезе Великого фильтра, катастрофическая ситуация возникает еще до того, как развитая цивилизация может заселить другие планеты своей системы и тем более стать межзвездным видом. Типичная продолжительность жизни такой технологически развитой цивилизации составляет менее 200 лет. Если это правда, то это может объяснить, почему люди до сих пор не обнаружили свидетельств внеземного разума. Также это говорит о том, что человечество также имеет всего 200 лет бурного технологического развития, которое прекратит ИСИ. Ученые считают, что в скором будущем ИСИ станет принимать решения за человека и это большая опасность для нас.
Знаменитый физик Стивен Хокинг предупреждал, что ИИ может положить конец человечеству, если он начнет развиваться независимо. ИИ будет улучшаться и воспроизводить себя и это будет новая форма жизни, которая превосходит людей, говорил ученый. Авторы исследования считают, что вероятность выхода из-под контроля ИСИ является очень высокой и нужно уже сейчас думать над тем, как этого не допустить.
Если ИСИ может потенциально уничтожить человечество, то это могло произойти и с внеземными цивилизациями, считают ученые. Дело в том, что для существования ИСИ не нужна биологическая жизнь, которая его создала. Ученые считают, что искусственный сверхинтеллект может создать смертельный вирус или же начать ядерную войну.
И в то же время авторы исследования считают, что такое развитие событий не является неизбежным. Если люди смогут стать межпланетным видом до появления ИСИ, то они диверсифицируют свои стратегии выживания и, возможно, смогут избежать выхода из-под контроля ИИ, с которым сталкивается однопланетная цивилизация. Если одна из планет, которые займут люди будущего, не сможет пережить катастрофу, созданную ИСИ, то люди на других планетах выживут.
Но главная проблема состоит в том, что развитие искусственного интеллекта идет ускоренными темпами, а попытки людей стать многопланетным видом — нет. По словам ученых, на данный момент ИИ действует в рамках установленных людьми ограничений. Но неизвестно, когда ИИ может стать ИСИ и вообще сможет ли он это сделать. Но нельзя игнорировать такую возможность.
Фокус уже писал о том, что можно построить из реголита на Луне. Доставка стройматериалов с Земли на Луну является дорогим занятием, а потому ученые считают, что нужно использовать местный реголит для строительства.