Попри заборону OpenAI: інженер створив гвинтівку-робота на основі ChatGPT (відео)
За словами представника OpenAI, розробника повідомили, що він порушив політику компанії, а також закликали "припинити цю діяльність".
Інженер, відомий у мережі під псевдонімом STS 3D створив роботизовану гвинтівку, яка працює на основі чат-бота зі штучним інтелектом ChatGPT від компанії OpenAI. Про це пише портал Futurism.
Повідомляється, що STS 3D використовував Realtime API від OpenAI, щоб наділити свою зброю привітним голосом і можливістю розшифровувати його команди. На оприлюдненому в мережі відео розробник велів зброї відреагувати на "атаку" з різних напрямків, після чого система з ШІ швидко виконала команду.
"ChatGPT, нас атакують спереду ліворуч і спереду праворуч. Відповідайте відповідно", — сказав STS 3D.
В OpenAI сказали виданню, що створення цього робота є порушенням політики компанії. За словами представника OpenAI, розробника повідомили про необхідність "припинити цю діяльність".
"Політика використання OpenAI забороняє використання наших сервісів для розроблення або застосування зброї чи для автоматизації певних систем, які можуть вплинути на особисту безпеку", — наголосили в компанії.
Відео з демонстрацією винаходу STS 3D викликало бурхливі обговорення в мережі. Багато коментаторів висловили стурбованість тим, що "розумну" зброю антиутопій можна втілити в життя.
"Хоча спочатку це, можливо, і не входило в наміри розробників STS 3D, їхня автоматична гвинтівка малює тривожну картину майбутнього, в якому системи озброєння на базі штучного інтелекту зможуть використовуватися для знищення супротивників без посередництва людини", — підкреслили у виданні.
Нагадаємо, американець Метью Лівельсбергер використовував популярний чат-бот ChatGPT для підготовки вибуху Tesla Cybertruck біля готелю Trump International у Лас-Вегасі. ШІ надав загиблому військовому Метью Лівельсбергер інформацію про вибухівку та вогнепальну зброю.
Також повідомлялося, що OpenAI презентувала нову версію ChatGPT Pro, яка містить у собі модель міркувань o1, проте тестувальники безпеки виявили, що здібності міркування o1 також змушують ШІ обманювати людей з більшою частотою, ніж інші моделі.