第一篇:AI 核心原理与应用深度
#面试官最爱问的 AI 问题是......#
1. 前端爱问的 LLM 上下文管理
• FC 与 MCP 的核心区别
* FC (Function Call):本质是模型调用工具。模型根据用户需求,主动决定何时调用、调用哪个工具,并接收工具返回的结果进行后续回答。
* MCP (Model Context Protocol):本质是工具连接模型。它是一套更底层的协议规范,用于统一不同工具的接入标准,让模型能够标准化地访问和操作外部工具生态。
* 一句话总结:FC 是模型的能力,MCP 是实现该能力的协议标准。
• 上下文过长解决方案
1. 截断策略 (Truncation):保留最新关键信息,舍弃早期次要信息。
2. 摘要压缩 (Summarization):用摘要算法对历史对话/长文档进行浓缩,保留核心语义。
3. 向量检索 (RAG):将内容向量化,仅检索与当前问题最相关的 Top-K 片段注入上下文。
4. 滑动窗口 (Sliding Window):模型内部维护固定大小的窗口,随着新 token 加入,最旧的 token 被丢弃。
1. 前端爱问的 LLM 上下文管理
• FC 与 MCP 的核心区别
* FC (Function Call):本质是模型调用工具。模型根据用户需求,主动决定何时调用、调用哪个工具,并接收工具返回的结果进行后续回答。
* MCP (Model Context Protocol):本质是工具连接模型。它是一套更底层的协议规范,用于统一不同工具的接入标准,让模型能够标准化地访问和操作外部工具生态。
* 一句话总结:FC 是模型的能力,MCP 是实现该能力的协议标准。
• 上下文过长解决方案
1. 截断策略 (Truncation):保留最新关键信息,舍弃早期次要信息。
2. 摘要压缩 (Summarization):用摘要算法对历史对话/长文档进行浓缩,保留核心语义。
3. 向量检索 (RAG):将内容向量化,仅检索与当前问题最相关的 Top-K 片段注入上下文。
4. 滑动窗口 (Sliding Window):模型内部维护固定大小的窗口,随着新 token 加入,最旧的 token 被丢弃。
全部评论
相关推荐
iiooz:别想太多了,面试官如果看不上,就不会约面了,腾讯很少所谓的kpi,有面就说明能力肯定不错,只是每个面试官筛选方式不同,二面甚至只跟你聊生活的都有,鹅还是很开放的在筛选人这一块 点赞 评论 收藏
分享
03-15 13:56
西南交通大学 C++ 点赞 评论 收藏
分享