JIINSI
AI 기술

AI 에이전트 보안의 현실 -- 프롬프트 인젝션부터 실행 샌드박스까지

AI 에이전트 보안에서 가장 논쟁적인 주제는 프롬프트 인젝션입니다. 흥미롭게도 네 시스템의 접근법이 모두 다릅니다. gstack은 /careful 명령으로 위험 명령을 경고하고, Claude Code는 PreToolUse Hook으로 실제 차단이 가능하며, OpenClaw은 공식적으로 '프롬프트 인젝션은 보안 취약점이 아니다'라고 명시합니다. OpenClaw의 기본 sandbox=off 설정은 프롬프트 인젝션으로 호스트 명령을 실행할 수 있어 주의가 필요합니다. 실전에서는 3겹 보안(Hook 차단 + 인증 + 샌드박스)과 불변 감사 로그를 조합하는 것이 권장됩니다. Paperclip은 여기에 예산 제어라는 새로운 차원을 추가하여, 에이전트가 예산 한도를 초과하면 자동으로 쓰로틀링됩니다.
인사이트

보안의 핵심은 프롬프트로 '부탁'하는 것이 아니라 시스템으로 '강제'하는 것입니다. 프롬프트 인젝션 방어, 실행 샌드박스, 예산 제어, 감사 로그 -- 이 네 가지를 모두 갖추어야 실전 배포가 가능합니다.

공유XTelegram