百度智能体产品运营一面

1、自我介绍
2、介绍一个你之前做过的智能客服相关的项目
3、用户满意度主要通过哪些指标衡量
4、如何提升用户对智能客服的满意度
5、介绍一个跟提升服务效率有关的项目
6、在上一份工作中遇到的最大的挑战是什么?你又是如何克服的?
7、你对国内的 ai大模型你都有哪些了解?使用过哪些?
8、你觉得字节的 coze跟百度的文心智能体有什么区别?
9、你有创建过智能体吗?你的使用感受是什么?
10、为什么从上家公司离职?
11、面试官介绍岗位和业务
12、反问环节
全部评论

相关推荐

累计投入了约40个小时,随着项目复杂度的上升,不得不提前终止“完全基于AI开发”,尝试做成了插件,小程序,正在做APP,接下来还是要返璞归真,开始补习代码基础知识。在整个AI开发过程中有如下发现:1.小白使用cursor的时候,需要规避跟cursor产生过多纠缠,及时使用coze充当中介,能解决小白不懂代码/cursor只懂执行命令的尴尬;cursor用的好的人,是最会用prompt提问的人,最会提问的人,往往是产品经理,而不是程序员2.上下文看似制约,其实不是制约的本质,因为真正的项目其复杂度是远超2万甚至200万Token上线的。所以当我从windsurf和cursor切换到cline,并拉满上下文后,确实短期解决了项目的瓶颈,推进了一大步,但终究无法应对越来越膨胀的代码。真正的制约是你能否有效管理项目中的各类概念,并并并有条地向AI分配任务。但如果你能做到,你就不是小白呀?3.Alcoding不仅仅需要描述清楚需求,更需要清楚代码逻辑。所以小白一般在刚开始最快乐,在中间能稍微解决,在后期逐渐崩溃。因为小白真的对各类概念一无所知。看起来是一个“为什么文字底部不能加色块”的问题,会衍生类、CSS、HTML渲染、JS执行等等一系列陌生的概念,技术的学习还是绕不开4.AI很擅长后端逻辑,因为他是清晰,明确的,我花在后端上的实际差不多仅占1/10。但AI不擅长UI、样式,因为这是和人的审美相关的。偏偏审美又是模糊的,很容易陷入甲方的五彩斑斓黑陷阱。5.最后是一些普世的使用建议:-有进展了,千万用Git随手保存-尽可能各个能力封装模块化-有较大更新后让他写进Readme中,后面可以拿这个给他看-一开始可以说复杂需求,后续尽可能一次描述一个小需求-邀请他追问细节-认真阅读他的每一步操作,不求看懂代码,至少看懂逻辑-可以让他在敲代码前先给出分析和逻辑说明,也可以让他在有更新后写入Readme,这些都可以放到预置的Prompt-提前思考好你的项目逻辑(我指技术实现部分),在外部文档上敲下来,而不是在打开Alcoding的那一刻才开始思考以上。
AI Coding的使用...
点赞 评论 收藏
分享
严重性定义 产品场景下幻觉的容忍度,接受多少成本来解决评估和检测●业务角度:进行人工评估,比如标100条Case,从体感上感知主要问题●自动化评估:在垂直领域,构造数据集,利用LLM进行知识检索判断幻觉幻觉分类大致分为与真实世界信息不一致的事实性幻觉(包括编造事件、信息过时等)、与输入的上下文不一致的忠实型幻觉。需要不同的缓解措施幻觉如何缓解?调API的话1.首先是Prompt调优。比如输入更详细的任务指令、调优的过程中不断根据输出的Bad Case加入限制。比如COT。2.然后是上下文优化,这里指的可以是RAG的召回信息优化,也可以是特定场景的上下文处理优化,突出其重点部分更容易被大模型理解。3.还可以基于Agent思想,将其问题拆分成更细粒度的任务,每个步骤都使用RAG融入外部知识来降低幻觉。4.最后是成本较高的,使用另一个模型来检测幻觉,如果有幻觉则重新生成。自研模型的话,通常是在垂直场景需要蒸馏一个小模型,或者微调一个模型。除去上述部分,还可以参考一下思路1.SFT训练数据层面:通过合成指令微调,有助于缓解幻觉。2.强化学习:在强规则的领域,可以通过强化学习来缓解忠实型幻觉。比如特定格式输出、特定内容提取等。3.推理:在不同领域考虑不同的解码方式,多样性解码在专业领域诱发更多幻觉,贪心搜索在开放领域加剧幻觉
查看9道真题和解析
点赞 评论 收藏
分享
评论
点赞
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务