본문으로 건너뛰기

AI Agent를 위한 Sandbox, 뭘 써야 할까?

· 약 8분
nilbox
The secure desktop runtime for AI agents

"있으면 좋은 것" 흉내 내기는 이제 멈출 때입니다.

2026년에 AI 에이전트를 실행하고 있다면 — OpenClaw, Claude Code 스타일의 도구, 직접 만든 LangChain 루프, 코드를 작성하고 바로 실행하는 무엇이든 — 그 에이전트는 신뢰할 수 없는 코드를 당신의 PC에서 실행 중입니다. "실행할 수도 있다"가 아닙니다. 실행하고 있습니다. 모든 pip install, 모든 쉘 명령, 모든 "이것만 빨리 해볼게요"는 언어 모델이 선택한 토큰 위에서 에이전트가 행동하는 순간입니다.

그래서 샌드박스 질문은 협상 대상이 아닙니다. 남은 질문은 어느 샌드박스냐 뿐입니다.

Zero Token Architecture: AI 에이전트에게 진짜 API 키를 보여줄 필요가 없는 이유

· 약 4분
nilbox
The secure desktop runtime for AI agents

핫테이크 하나 던져볼게요: AI 에이전트 보안 가이드는 대부분 잘못된 문제를 풀고 있습니다.

우리는 런타임 샌드박스를 수 시간에 걸쳐 구성합니다. 파일시스템을 잠그고, 패키지를 하나하나 감사합니다. 에이전트를 Docker로 감싸고, Docker를 VM으로 감싸고, VM을 정책으로 감쌉니다.

그리고는 에이전트에게 평문 API 키를 건네주고 "이제 안전하다"고 말합니다.

토큰을 보호하려 하지 마세요. 처음부터 넘겨주지 않으면 됩니다.