蓝禾科技内推

面经:

蓝禾的流程推得很快,基本上投完两天就接到了hr的初试电话,直接进行了初试。

初试全程大概三十分钟,hr小哥态度很和善。

主要问了实践经历

获奖的情况

最有成就感的事情

对电商运营的理解

选择公司的标准等,都是比较常规的问题。

禾你一起,做不可能的事 | 蓝禾25届校园招聘开放申请

公司介绍:蓝禾2008年成立于深圳,是一家集产品、设计、研发、品牌、营销、大数据运营于一体的创新型科技公司,旗下拥有图拉斯TORRAS、锐舞RANVOO、卡斯酷CASEKOO等多个品牌

招聘岗位:运营管培生(国内/国外)、营销类(品牌营销专员)、研发类(结构/电子/项目管理/开发/助理IT实施)、设计类、职能类(人力/财务/采购)等(HC对比去年直接翻倍!)

福利待遇:有竞争力的薪资、经营分红、项目奖金、提前发工资、员工内购、健身房、自助餐厅、每月生日主题party等超多福利

内推链接:https://lanhevip.jobs.feishu.cn/s/ihop85y2

内推码:HJY83TS(点击校园大使推荐,内推简历优先筛选,后续有流程问题随时联系)

大家投递完可以在评论区打上姓名缩写+岗位(比如PM+LJJ),我来确认有没有内推成功喽

#内推#
全部评论

相关推荐

1.自我介绍:二本 ai(计算机相关)专业。没打过任何游戏比赛,大三才准备跳槽,草草准备了个拆解案和unityDemo,相关经历只有参加过个dnd的线上跑团活动,自己带过几桌。最近两天开始海投,目标系统or关卡策划。2.第一家公司:应聘策划,最后聊工作负责关卡。是个独立游戏制作人,团队17人,准备做类银河城上steam买断,工资1-2k或者分成,我都不清楚当时怎么投了这家公司,关键他还招实习。看样子是制作人是美术,在招程序和策划。简单聊了聊,之后问的很直接。Q1:玩过死亡细胞等几款类银河城游戏吗。Q2:游戏有守护兽系统,怎样制作这个系统,能否与其他系统融合。Q3:做一个第一关的关卡Demo,体现游戏核心闭环。ps:类银河城玩的不是特别多,有些概念我也不太清晰,关键工资太低了,如果分成的话没有工资活不下去啊。3.第二家公司:传奇游戏,执行策划偏技术 5-8k 早9晚7,大小周(这个岗位不是实习岗,直接工作)面试官是主策划,没问什么特别专业的问题,感觉还是服从性问题多一点Q1.自我介绍Q2.ai行业现在前景很好,为什么来游戏行业Q3.有没有准备考研Q4.从哪里了解游戏行业相关知识信息Q5.自我介绍的时候说拆了一个咸鱼之王,接着问为什么拆这个游戏。(这里就感觉之前引导的方向不太对,人家做传奇的,我提什么咸鱼之王,虽然没玩过传奇,提点mmorpg不好吗)Q6.复刻这种游戏要怎么做脱颖而出。(这里面试官是顺着我的话说的,我提到了市面上有复刻咸鱼之王的游戏)Q7.有什么游戏玩的时间比较长(这里思维惯性,以为要说微信小程序,脑子短路了说无尽冬日,哎,自己好笨)Q8.无尽冬日的亮点Q9.玩的比较多的游戏类型(终于跳出微信小游戏的坑了,没想到一坑接一坑,我怎么又没说mmorpg)Q10.抛开事实不谈,想去那座城市(最倒霉的回答让我说了,投公司太多了,忘记这特喵是北京公司了,我上来一句就是不想去北上广深。QAQ)Q11.问家在哪(好在家在河北,还圆回来点)Q12.不考虑现实,什么样的公司吸引你Q13.玩过传奇类游戏没有(没玩过,实话实说,尽量圆场吧,说点mmorpg的)Q14.MMORPG哪些地方吸引你(这里有点玩家思维了,陷阱问题)反问Q1.工作主要内容Q2.游戏脚本语言Q3.游戏用户规模(传奇类游戏也不特别了解,不知道问什么)当天2面 项目负责人谈话,也没问什么问题,简单聊了两句,感觉就走个流程?把我当kpi了?Q1自我介绍Q2为什么要选ai专业,为什么转行(老问题了,天王老子来了我这回答Q也得是满分)Q3.介绍一下专业知识(没话找话,)Q4.说一个熟悉的游戏(说的bg3,勉强搭个边吧,想说逆水寒,但玩的不多。)Q5.喜欢的游戏类型Q6.想自己做个什么游戏Q7.不考虑游戏行业,想去什么行业发展吗(这坑我能踩?玉皇大帝来了我也要做游戏)Q8.有没有想过没进入游戏行业怎么办(别试了,我都招。)Q9.哪里人,独生子?Q10.父母支持吗(不支持也得支持)反问Q1.职业发展和晋升Q2.商业模式Q3.对于实习时间的要求Q4.有无老带新Q5.团队规模负责人又问了几个问题:Q1.薪资期望(我太诚实了,不敢说高,说5k左右,招聘信息上说5-8k,怕说高了不要,按理来说北京6-7k算正常实习工资吧,要不会活不下去的。但这个职位说白了哪来练手的,给高了我也不一定去,不后悔)Q2.业余爱好,最后反问Q1.自身还需要哪些提升,(看的出来,因为不是策划,给的建议比较笼统)看到最后了,各位大佬给点建议,求求了,这真的对我很重要。
点赞 评论 收藏
分享
1. 什么是MCP参考面试回答:MCP模型上下文协议)是为大型语言模型提供的一个统一标准化接口、让AI能够无缝连接各种外部数据源和工具。可以将它比作AI世界的USB接口—只要遵循这个协议标准、任何数据源或工具都能与语言模型实现即插即用比如说传统的AI只能依赖预训练的静态知识、无法获取实时数据。而通过MCP,模型可以动态访问最新信息、比如查询搜索引擎、读取本地文件、调用第三方API、甚至直接操作各种工具库。比如说可以访问Github、IDEA这个协议最大的价值是标准化、它是MCP的核心价值 - 你不需要为每个AI模型和每个工具之间的连接编写专门的代码、只要双方都支持MCP协议、它们就能自动"对话"。这大大简化了系统集成、降低了开发成本、也提高了系统的可扩展性总结就是 MCP 创建一个通用标准、使 AI 应用程序的开发和集成变得更加简单和统一2. 大模型输出出现重复和幻觉如何解决参考面试回答:在大模型生成内容时、出现重复和幻觉是两个常见的问题。重复指的是模型在生成文本时出现内容重复的现象、而幻觉则是指模型生成了看似合理但实际上不真实或不准确的信息。为了解决这两个问题、可以通过微调(fine-tuning)的方法进行优化为了解决这些问题、首先微调是非常有效的手段。首先可以确保用于训练的数据质量、要高质量的真实的信息。我们可以减少模型学到错误的信息。特别是领域特定的微调、能帮助模型更准确地生成内容,避免在特定领域(比如医疗、金融)中产生幻觉。此外在训练过程中引入惩罚机制、比如对模型生成重复或不准确内容进行惩罚、也能够引导模型生成更为多样和真实的内容。另一个有效的策略是使用参数高效微调(PEFT)、通过像LoRA这样的技术、在不改变模型主体结构的情况下调整部分参数、从而提高微调效率并减少幻觉的产生。同时强化学习与人类反馈(RLHF)也是一种非常有用的方法、结合人类的评价、模型可以在生成内容时更符合实际世界的逻辑,降低幻觉的风险。最后检索增强生成(RAG)技术也能够显著提高模型输出的准确性、通过在生成过程中引入外部知识库、确保模型生成的信息更为真实和可靠。总的来说:通过微调、引入惩罚机制、领域特定训练和强化学习等方法、可以有效减少大模型的重复和幻觉问题3. 什么是RAG?流程是什么?面试参考回答:RAG就是结合信息检索和生成式模型的技术。主要流程包括两个核心环节:检索:基于用户的输入、从外部知识库(如数据库、文档、网页)检索与问题相关的信息。通常使用向量化表示和向量数据库进行语义匹配。将知识库中的文档进行预处理、分块、清洗并转换为向量表示、存储在向量数据库中。常用的如 Faiss、Milvus等向量数据库存储所有文档向量。用户提问后、对问题进行向量化、并在数据库中执行最近邻搜索、找出语义最相近的 N 条内容然后就是增强:也可以说是构建 Prompt1.将检索到的信息作为上下文、输入给生成模型(如 GPT)。2.相比纯生成模型、RAG 能引用真实数据、减少幻觉(胡编乱造)最后就是由将增强后的上下文输入到大型语言模型、综合已有上下文生成最终生成最终的回答或内容。一句话总结: RAG = 向量搜索引擎 + 大模型、让 AI 回答更靠谱、减少幻觉4. RAG的详细完整的工作流程参考面试回答流程:RAG(检索增强生成)的完整流程可分为5个核心阶段:1. 用户提问2. 数据准备:清洗文档、分块处理(如PDF转文本切片)2. 向量化:使用嵌入模型(如BERT、BGE)将文本转为向量。也就是Embedding 向量化3. 索引存储:向量存入数据库(如Milvus、Faiss、Elasticsearch)。4. 检索增强:用户提问向量化后检索相关文档。也就是构建 Prompt (问题 + 检索内容)5. 生成答案:将检索结果与问题组合输入大模型生成回答。5. 在 RAG 中的 Embedding 嵌入是什么参考面试回答: Embedding是RAG系统的核心组件、Embedding(嵌入)技术本质上是将文本、图像等非结构化数据转换为高维向量的过程。在实际应用中Embedding解决了传统关键词检索的局限性。比如用户询问如何煮奶茶时、传统检索可能无法找到包含'奶茶制作步骤'的文档、因为它们字面上不匹配。而通过Embedding、系统能够理解这两个表达在语义上的相似性、从而返回相关内容。Embedding的工作原理是通过深度学习模型(如BERT、Sentence-Transformers等)将文本映射到768维或更高的向量空间。在RAG系统中、Embedding的核心价值在于建立查询和文档之间的语义桥梁。当系统收到用户问题后、会将其转化为向量、然后在预先索引的文档向量库中寻找最相似的内容、无论它们在字面表达上是否匹配。这种基于语义的检索方式大幅提升了信息获取的准确性和完整性、为生成模型提供了更高质量的上下文信息,从而产生更精准的回答6. 什么是LangChain参考面试回答:LangChain 是一个开源框架、专为快速构建复杂的大语言模型应用而设计。简单来说就是它集成和内置了很多我们开发 AI 大模型应用需要的东西、如内置文档加载器、向量数据库、HTTP API 封装、云服务适配器等、让咱们开箱即用、有点像咱们 Java 届的 Spring。它最大的特点是把模型调用、提示词管理、工具使用、记忆管理这些能力模块化了、让开发者可以很方便地把大模型和数据库、搜索引擎、API服务等结合起来,用链式结构组织复杂任务。主要支持复杂任务编排:通过 Chains(链)和 Agents(代理)将多个LLM调用和工具操作组合成工作流以及实现上下文管理Memory(记忆):通过 Memory 组件(如对话历史缓存、实体关系跟踪)实现长对话连贯性。6. 什么是向量数据库参考面试回答:我的理解是:向量数据库它可以将非结构化数据(如文本、图片、音频等)转换成高维向量的形式进行存储、通过向量数据库预先存储结构化段、实时检索最相关的 Top-K 内容作为上下文输入、并通过高效的相似性搜索算法、快速找到与目标向量最接近的数据项。传统数据库采用存储数据、主要用于精确匹配查询、常用的检索方式就是精确匹配、索引结构有像B+树或者倒排索引的结构。而向量数据库针对高维向量数据优化、支持近似最近邻(ANN)搜索算法、更适合语义相似性搜索。可以理解为TopN系列、检索TopK相关内容作为上下文输入。向量数据库预先向量化并建立索引(如 HNSW、IVF),实现亚秒级检索。代表性的向量数据库就是Milvus:一个开源的向量数据库系统8. 向量数据库的核心原理是什么?核心技术是什么参考面试回答:向量数据库的核心原理是通过将高维数据(如图像、文本)转换为多维向量、并基于相似性度量(如余弦相似度、欧氏距离),利用高效的索引结构和近似最近邻(ANN)算法、快速检索与目标最相似的向量结果。这一过程可概括为三个关键步骤:首先是向量化:我们通过嵌入模型将非结构化数据映射为稠密向量、比如用BERT处理文本、ResNet处理图像、或CLIP处理多模态数据。这些模型能捕获数据的语义或特征信息、通常生成128到2048维的向量其次是索引构建:为了高效检索、我们会采用分层导航小世界图(HNSW)等结构预处理向量。HNSW能将搜索复杂度降至对数级O(log N)。同时我们还会利用乘积量化(PQ)来压缩向量、减少内存占用、以及通过倒排索引(IVF)缩小搜索范围。最后是近似搜索:在实际应用中我们允许一定误差来提升速度。ANN算法会在准确性和效率间寻找平衡点、确保在毫秒级延迟内返回Top-K相似结果、同时保持95%以上的召回率。总的来说就四个核心层:向量化引擎->索引结构 ->相似度计算->搜索原始数据 → 向量化 → 索引构建(HNSW/PQ/LSH) → 输入查询向量 → ANN近似搜索 → 返回Top-K结果(格式明天再改吧___发帖于2025.6.25 00:47)
everll:更多见《牛客面经八股》https://www.nowcoder.com/exam/interview
点赞 评论 收藏
分享
评论
2
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务