Sandbox 在 AI Agent 中的应用:隔离、安全与执行边界
引言
当 AI Agent 还只是一个问答系统时,安全问题相对简单:无非是输出过滤、内容审核。但随着 Agent 获得了执行代码、调用工具、读写文件系统、访问网络的能力,整个风险模型发生了质变。
当 AI Agent 还只是一个问答系统时,安全问题相对简单:无非是输出过滤、内容审核。但随着 Agent 获得了执行代码、调用工具、读写文件系统、访问网络的能力,整个风险模型发生了质变。
很多人第一次用 Claude Code 时,感受都很强烈:它能读仓库、能改代码、能跑命令,速度往往比手写快得多。但一旦任务变复杂,体验很容易从“真好用”滑向“为什么它又改偏了”。
一个常见误解是:模型能力越强,工程封装就越不重要。事实恰好相反。越是能力强的 Agent,越容易被投喂进更复杂、更高风险的业务环境;这时候系统真正缺的,往往不是“再多一点常识”,而是稳定、可复用、可治理的专业操作能力。
大模型已经证明自己能“理解和生成语言”,但企业真正愿意为之付费的,通常不是一段漂亮回答,而是一个能把事情做完的系统。用户要的不是“解释怎么查机票”,而是“真的帮我查到、筛选好、提醒我、必要时还能下单”。
直接上图
整洁架构从外到内分为四层,源码中的依赖关系必须只指向同心圆的内侧,即由底层机制指向高层策略

这一层封装整个系统的关系业务逻辑,能被系统中的其他不同应用复用。 对应领域驱动设计中的概念就是领域模型。
当打开多个项目时,每个项目都占一个新的窗口,日常工作经常会打开至少五个以上项目,多窗口切换不方便,个人更习惯只开一个窗口,多个项目分多个 Tab 的模式
