快手大模型应用开发面经分享 攒人品

发一下问题给大家参考,攒攒人品!
1.实习拷打
2.拷打项目:针对长短期记忆,讲讲你是如何设计记忆的提取、压缩与冲突更新机制的?如果检测到用户存在极端情绪,你的Agent如何在不中断对话流的前提下进行干预?
3.讲一下稠密向量与稀疏向量的区别,分别适合处理什么样的搜索需求?
4.在向量化之前,为什么要对长文档进行切片?如果不切片会有什么后果?
5.切片时设置重叠区域的作用是什么?这个比例你通常怎么来确定?
6.余弦相似度和欧氏距离在衡量文本相似性时,各自的优缺点是什么?
7.向量库检索出的Top-K结果,如果K值设置得过大,对后续的生成质量有哪些负面影响?
8.为什么在初筛召回之后,还要加一个Rerank模型?能解决向量搜索哪些局限?
9.如果文档发生了局部更新,如何通过增量索引来避免全量重新向量化?
10.在RAG的生成阶段,如何在Prompt中设定边界条件来防止模型在没搜到内容时产生幻觉?
11.调用大模型API时,为什么要使用asyncio异步编程?它在处理高并发请求时有何优势?
12.你了解哪些大模型推理框架?SGLang相比vLLM的PagedAttention在推理延迟上有哪些优势?
13.手撕:第k大元素
全部评论
感谢同学分享,这面经很实用
点赞 回复 分享
发布于 昨天 22:24 辽宁
可以的,感觉问的还挺好的
点赞 回复 分享
发布于 昨天 18:48 北京
攒人品!祝楼主面试顺利,早日拿到 offer🚀
点赞 回复 分享
发布于 昨天 13:54 北京
快手大模型面经太硬核了!狠狠码住,感谢分享🙌
点赞 回复 分享
发布于 昨天 13:54 江苏

相关推荐

评论
点赞
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务