大模型面经每日总结(奇安信2025/6/5)
- 简述 Transformer 多头注意力机制理解词间关系的原理。
- 训练 Transformer 时,如何解决梯度消失或梯度爆炸问题?
- GPT 等模型对 Transformer 结构做了哪些改进以提升生成效果?
- 如何优化 Transformer 模型预测速度?
- 说明 RAG 结合外部知识库与大语言模型提升回答准确性的机制。
- 用 RAG 构建问答系统时,如何处理检索内容不相关或不全的问题?
- 如何确定 RAG 系统中文档的合适切分粒度?
- 当 RAG 系统知识库数据量大、检索慢时,有哪些提速方法?
- 如何协同使用 Transformer 与 RAG 以发挥最佳效果?
- 用 RAG 优化模型回答,有哪些实用评估指标?
- 如何清洗 Transformer 模型训练数据中的噪声?
- 在 RAG 架构中,怎样确保检索信息与大模型生成内容逻辑连贯?