Несмотря на запрет OpenAI: инженер создал винтовку-робота на основе ChatGPT (видео)
По словам представителя OpenAI, разработчика уведомили, что он нарушил политику компании, а также призвали "прекратить эту деятельность".
Инженер, известный в сети под псевдонимом STS 3D создал роботизированную винтовку, которая работает на основе чат-бота с искусственным интеллектом ChatGPT от компании OpenAI. Об этом пишет портал Futurism.
Сообщается, что STS 3D использовал Realtime API от OpenAI, чтобы наделить свое оружие приветливым голосом и возможностью расшифровывать его команды. На обнародованном в сети видео разработчик велел оружию отреагировать на "атаку" с разных направлений, после чего система с ИИ быстро выполнила команду.
"ChatGPT, нас атакуют спереди слева и спереди справа. Отвечайте соответственно", — сказал STS 3D.
В OpenAI сказали изданию, что создание этого робота является нарушением политики компании. По словам представителя OpenAI, разработчика уведомили о необходимости "прекратить эту деятельность".
"Политика использования OpenAI запрещает использование наших сервисов для разработки или применения оружия или для автоматизации определенных систем, которые могут повлиять на личную безопасность", — подчеркнули в компании.
Видео с демонстрацией изобретения STS 3D вызвало бурные обсуждения в сети. Многие комментаторы выразили обеспокоенность тем, что "умное" оружие антиутопий можно воплотить в жизнь.
"Хотя изначально это, возможно, и не входило в намерения разработчиков STS 3D, их автоматическая винтовка рисует тревожную картину будущего, в котором системы вооружения на базе искусственного интеллекта смогут использоваться для уничтожения противников без посредничества человека", — подчеркнули в издании.
Напомним, американец Мэтью Ливельсбергер использовал популярный чат-бот ChatGPT для подготовки взрыва Tesla Cybertruck возле отеля Trump International в Лас-Вегасе. ИИ предоставил погибшему военному Мэтью Ливельсбергер информацию о взрывчатке и огнестрельном оружии.
Также сообщалось, что OpenAI представила новую версию ChatGPT Pro, которая включает в себя модель рассуждений o1, однако тестировщики безопасности выявили, что способности рассуждения o1 также заставляют ИИ обманывать людей с большей частотой, чем другие модели.