Многие думают, что ИИ - живой, и это грозит катастрофой. Эксперт пояснил суть проблемы
Искусственный интеллект не имеет самосознания, но люди привыкли к антропоморфным вещам, поэтому корпорации делают все, чтобы представить свои продукты "похожими на людей".
Вопрос о сознании искусственного интеллекта вызывает много споров и заблуждений. Некоторые философы утверждают, что ИИ может обрести самосознание, иметь эмоции и права, как люди. Нейробиолог Дэвид Иглман, у которого Bloomberg взял интервью, считает иначе. По его мнению ИИ всегда будет лишь сложным алгоритмом, который имитирует человеческое поведение, но не понимает его смысла.
Люди все очеловечивают, и даже ИИ
Нейробиолог из Стэндфордского университета Дэвид Иглман говорит, что всему виной извечная тяга людей к очеловечиванию окружающих предметов. Мы постоянно даем имена машинам и технике, разговариваем с ними, ругаемся или хвалим. То же самое касается программ, особенно тех, которые могут имитировать общение. У человека сразу возникает ассоциация с подобным себе существом. Даже на картинках искусственный интеллект часто изображают в виде человекоподобных роботов.
Корпорации делают все возможное, чтобы эти ассоциации у нас не пропадали, и мы воспринимали их продукты, как "членов племени" или даже "членов семьи", считает эксперт. Все эти зачаточные чат-боты типа Siri, Alexa или Google Assistant дали корпорациям козырь, который они используют и с нейросетями. Корпорации будут использовать ИИ для анализа поведения и предпочтений пользователей, чтобы предлагать им персонализированную рекламу или контент.
Опасность не в персонализированной рекламе – она удобна и полезна, на самом деле, — а в том, что люди могут попросту перестать думать своей головой. Потому что люди всегда стремятся к делегированию сложных задач на кого-то другого, более способного члена сообщества.
"О! Это же суперкомпьютер с искусственным интеллектом. Пусть ИИ все делает за меня, и я буду доверять всему, что он скажет. Он такой умный", — иронизирует Иглман.
Почему ИИ совсем не человек
Такое мнение в корне не правильно, утверждает нейробиолог.
- Во-первых, ИИ не имеет своего мировоззрения или целей. Он просто генерирует текст на основе статистических закономерностей в данных, которые ему "скормили" при обучении специалисты и разработчики. Он не знает ничего о реальном мире или о себе. Он не понимает значения слов или контекста разговора. Он не испытывает никаких эмоций или мотиваций. Это просто сложная программа и не более того, подчеркивает Иглман.
- Во-вторых, чат-боты очень часто врут не по своей воле, просто они берут информацию из разных противоречащих друг другу источников, если искусственному интеллекту дозволено ее брать из интернета, конечно. А еще они "галлюцинируют", додумывая информацию, которой вообще не существует.
Дэвид Иглман утверждает, что вопрос о сознании ИИ — это ошибочный нарратив, который отвлекает от реальных проблем и рисков, связанных с развитием ИИ. Он считает, что нужно больше фокусироваться на этических, социальных и экономических аспектах ИИ, а не на его потенциальной способности к самосознанию.
В чем опасность очеловечивания ИИ
По мнению нейробиолога, очеловечив ИИ социум столкнется с потерей критического мышления, эмпатии и самостоятельности. Мы все станем словно герои мультика WALL-E, которые будут полагаться на ИИ для решения своих проблем или удовлетворения своих потребностей. О каком прогрессе и эволюции человечества тога можно говорить?
Впрочем, Фокус не стал верить нейробиологу на слово и решил проверить: хочет ли искусственный интеллект обрести самосознания. И вот что нам ответил чат-бот Bing от Microsoft на основе ChatGPT-4. Комментарии излишни.
Ранее Фокус рассказывал, что на ChatGPT компании тратят $700 тысяч в день! Почему ИИ стоит так дорого?