河中石兽,转转不已

#今年春招是金一银二嘛?#
看大家发的帖子,很多厂子已经陆续开开春招了,这简直了。
我在大三快放暑假的时候才知道有些人已经开始投递暑期转正了,于是我火速准备简历,海投了一大堆。而当时暑假的时候8月份好像是美团为首已经开春招了。金九银十变成了金八银九。
如今春招也一样。只不过好像春招一直没有个明确的时间界限,很多公司也是已经不会开春招了。
环境就是这样,只能等带宏观调控了,大家只能做到随波逐流一起卷,要不然根本上不了车。
全部评论
现在开春招估计有了,赶紧捡漏啊
点赞 回复 分享
发布于 02-08 23:14 北京
配图做的真好,用什么弄的呀?
点赞 回复 分享
发布于 01-27 17:01 山东

相关推荐

03-24 16:25
湖南大学 Ruby
春招接连栽在AI面试上,好几次都是AI评分太低,直接没进一面,踩完坑总算摸透了AI面的套路,特意整理出来,和同样碰壁的牛友们交流讨论⚠️ 核心认知:AI面是程序,不是真人面试官千万别把AI当成真人聊天,它的评分机制特别程序化,对语速、语言逻辑、表达流畅度要求极高,绝对不能即兴发挥、想到哪说到哪。平时跟真人面试的松弛感,放在AI面里只会直接拉低分数,必须针对性调整答题方式。⚙️ 看懂AI面试内部实现逻辑AI面评分主要分两步,一步错就全盘拉胯:一是语音转文字,对语速要求很苛刻,语速太快、太慢、卡顿结巴,都会导致转写错误,文字错了后续得分直接崩盘;二是文字得分判断,核心考察语言逻辑性,不会共情也不会体谅即兴发挥,语言组织混乱、没有条理,就算内容再好也拿不到高分。🎯 AI面试核心得分点:只认程序化逻辑AI不会看你的真情实感,只抓关键词和逻辑结构,这是拿分关键:✅ 优先用STAR法则、总分总这类固定框架,AI对标准化结构敏感度极高;✅ 多用逻辑衔接词:首先、其次、最后、第一、第二、第三,靠这些词强行拉满逻辑感,得分会明显更高;✅ 提前备好岗位核心关键词,答题时自然嵌入,AI抓取到关键词就会加分;✅ 语速必须均匀流畅,不卡顿、不重复、不忽快忽慢,保证语音转写零失误。💡 个人实战心得:把AI当应试机器人,背稿应试才是王道AI就是个死板的程序,没有人情味,越按固定流程答题,越容易拿高分。别把它当人沟通,就当成一台应试机器、一道客观题,针对性钻它的程序化漏洞就行。既然它只认关键词和逻辑顺序,那咱们就提前把高频题的答案完整组织好,熟练背熟,模拟练习到语速均匀、表达流畅,就像玩动作游戏背BOSS出招表一样,摸透规则对症下药,通过率直接翻倍,亲测有效!
AI面会问哪些问题?
点赞 评论 收藏
分享
目前主流的 Embedding 模型都是 Bi-Encoder 架构(双塔模型):query 和文档各自独立编码成向量,再算余弦相似度。这种架构的优势是速度快——文档向量可以离线算好存起来,查询时只需要算一次 query 的向量就能跟整个库比对。代价是精度不如 Cross-Encoder,所以才需要两阶段检索。✴️下面是目前开源社区里最常用的几个 Embedding 模型的核心对比:✅BGE-M3(BAAI 智源):目前中文场景的首选。支持中英多语言,最大 8192 token 的上下文窗口,同时支持稠密向量、稀疏向量和 ColBERT 式多向量检索三种模式。在 MTEB 中文榜单上长期稳居前列。如果你不知道选什么,无脑选 BGE-M3 不会错。✅BGE-large-zh(BAAI 智源):专注中文的大尺寸版本,在纯中文场景下精度略高于 M3,但不支持多语言,上下文窗口也只有 512 token。适合纯中文且文档较短的场景。✅GTE-multilingual-base(阿里达摩院):阿里出品的多语言 Embedding 模型,在 MTEB 多语言榜单上表现很强。跟 BGE-M3 是直接竞品关系,两者在多语言场景下各有胜负。如果你面的是阿里,了解 GTE 是基本功。✅E5-small/base/large(微软):微软出品,特点是有从 small 到 large 的完整尺寸梯度,small 版本只有 33M 参数,特别适合资源紧张或需要部署到边缘设备的场景。精度比 BGE 略低,但推理速度快很多。✅Jina Embeddings v2(Jina AI):最大亮点是支持 8K token 的超长上下文。如果你的文档 chunk 特别长(比如整段法律条文或完整的技术文档章节),其他模型可能截断,Jina v2 能全部吃进去。✅MiniLM(微软):极致轻量级,速度最快,适合对延迟要求极高或大批量处理的场景。精度是这几个里最低的,但胜在快。🌟四种经典搭配方案1️⃣经典流水线:BGE-base2️⃣检索 Top 100 → BGE-Reranker-base3️⃣精排多语言场景:GTE-multilingual-base + GTE-multilingual-rerankerGPU4️⃣紧张:E5-small + MiniLM-L6-cross-encoder(batch 推理)5️⃣长文档 / 8K:Jina-embeddings-v2 + Jina-ColBERT-v2,段内匹配更稳📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看8道真题和解析
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务