一个故事看懂LLM/Agent/Skills/Prompt/MCP 之间的关系
我们把 AI 当做一个人:大脑(LLM)负责想与写;执行逻辑(Agent)负责推进到交付;经验手册(Skills)提供目录化的可复用 Prompt 与标准流程;工具接口(MCP)把外部能力接进来完成执。A2UI 负责把 Agent 的意图变成可交互界面,并把用户操作回传给 Agent。

- LLM 是这人的大脑:
负责理解你在说什么、推理怎么做、把答案表达出来。但光有大脑不等于能把事办成。
- Agent 可以比作一个人做事的思考逻辑 + 执行逻辑:
拿到目标后先梳理逻辑、拆步骤、设检查点,决定先做什么、后做什么,并在关键节点停下来确认,确保事情按流程推进到交付。
- Skills 是他随身带的一本经验手册:
里面是过去积累的经验、方法论、SOP、准则和输出标准。更关键的是,这本手册把“可复用的 Prompt”做了组织化、目录化——每一章就是一套可复用的提示与流程模板,告诉 Agent 在某类场景下该怎么做、怎么验收。Agent 会先翻手册选对章节,用成熟套路办事,而不是每次临场发挥。
- MCP 是他桌上的工具箱接口:
需要查数据、调系统、读文件、调用 API 时,通过 MCP 把工具接上来,拿到真实结果,再回填给 Agent 和大脑继续判断与推进。
- A2UI 是他和用户沟通时用的“UI 语言/画图纸”:
当靠聊天反复确认效率太低时,Agent 不再只用文字问答,而是用 A2UI 描述一份安全的 UI 蓝图(比如表单、按钮、卡片、进度)。前端按白名单组件把它渲染出来,用户通过点击/填写完成输入;这些操作再以标准事件回传给 Agent。于是形成闭环:
- Agent 说 UI → 用户操作 → 事件回传 → Agent 继续推进。
LLM 想与写,Agent 推进,Skills 指路,MCP 接工具,A2UI 管交互(把结果变成界面、把操作回传给 Agent)。
#Prompt分享#

