#顺丰集团# 楼主是23应届生,java仔,不敢说多优秀,至少需求都正常交付,因为早就耳闻顺丰有着年年裁应届的优良传统,哥们为了求稳,昧着良心,当了一把工贼,天天狠狠的加班,走的比主管都晚,以讨老板欢心,兢兢业业卷到年底,看着周围的应届生一个一个被嘎掉,自己还幸存,以为苟且偷生成功,没想到顺丰年底给我整了个大的。喜提跨年夜大礼包!
领导和hr当天突然把人拉到会议室,上来就说答辩不过,按照能力不符合劳动标准,自己提离职,无赔偿。
怎么说呢,看到那么多被裁的同学,心里其实有准备,但是真轮到自己时候,心情还真挺复杂的。
我问领导说为啥裁我,我觉得需求都交付了,平时也狠狠加班,就答辩ppt做的不好就裁我?
领导说,你要这样想,工作就像学习,而答辩就是考试,平时学习再好,考试不过也没用,答辩就是你最重要的考试,没过就是没过,跟平时工作没关系。
我问有赔偿没?
hr说,没有,而且也别想,她裁了那么多届大学生,自古以来都没有赔偿,以后也不会有,为你好让你自离,公司已经很留情面,否则直接给你档案写考核不通过,你后面就很难找工作了。
斗不过,认栽了,劝诫后辈,校招别碰顺丰,想当小丑就去呀🤡活例子太多了
全部评论
出生公司是这样的
132 回复 分享
发布于 2024-01-24 16:19 山西
不止是痛骂CS公司,也想说打工人还是少点侥幸心理,少点做题家思维学生思维好。不管是哪个厂,都别自我***的去当工贼奋斗逼以求安稳或者升职加薪了。 老板根本不把员工当人,给女主播刷几十万礼物的时候可曾想过给你加一分钱工资?宁扔水里都不给你。用后即弃是资本家的本性。别对老板和公司太有感情,别再对任何公司抱有什么梦中情司之类的幻想,别同情老板的不容易,别相信HR画的饼。 一份工作而已,看开点,整理好状态继续前进
69 回复 分享
发布于 2024-01-24 19:40 湖北
顺丰这种出生公司是这样的,现在看见听见顺丰这两个字都觉得恶心
67 回复 分享
发布于 2024-01-24 16:08 广东
别再当工贼奋斗逼了,你给顺丰当奴才,顺丰把你当狗
39 回复 分享
发布于 2024-01-24 15:52 江苏
说实话你的离开也让你前同事感到庆幸,没人愿意跟奋斗逼工贼当同事
24 回复 分享
发布于 2024-01-25 08:50 江苏
绝了...哨哥晚点更新到求职黑名单周报:https://www.nowcoder.com/discuss/1249959
21 回复 分享
发布于 2024-01-24 21:12 上海
顺丰是真出生啊
15 回复 分享
发布于 2024-01-24 15:28 四川
顺丰真是孽÷啊
11 回复 分享
发布于 2024-01-24 16:34 江苏
试用期不过可以劳动仲裁硬刚让公司提供证明你能力不足的材料好像,不过这种cs公司真恶心🤢
10 回复 分享
发布于 2024-01-24 22:50 广西
lj公司
8 回复 分享
发布于 2024-01-30 20:20 广东
同事:太好了那个卷b走了
8 回复 分享
发布于 2024-01-27 10:50 云南
请问顺丰大概裁了多少应届啊
8 回复 分享
发布于 2024-01-24 15:16 四川
统一回复:领导要求每天加班,没事就要坐到8点才行
7 回复 分享
发布于 2024-01-27 15:05 广东
听到的是真的,听劝
6 回复 分享
发布于 2024-01-25 22:08 广东
出生公司
6 回复 分享
发布于 2024-01-24 20:36 江苏
我也被顺丰开了,真难找工作
4 回复 分享
发布于 2024-01-31 15:17 湖北
顺丰面试也挺抽象
4 回复 分享
发布于 2024-01-24 15:13 重庆
哈哈哈哈哈出生顺丰是这样的
3 回复 分享
发布于 2024-01-24 19:24 北京
顺丰也太恶心了吧
3 回复 分享
发布于 2024-01-24 15:10 广东
还档案,一个私企而已,也就吓唬吓唬应届生😅
2 回复 分享
发布于 2024-03-16 03:08 广东

相关推荐

目前主流的 Embedding 模型都是 Bi-Encoder 架构(双塔模型):query 和文档各自独立编码成向量,再算余弦相似度。这种架构的优势是速度快——文档向量可以离线算好存起来,查询时只需要算一次 query 的向量就能跟整个库比对。代价是精度不如 Cross-Encoder,所以才需要两阶段检索。✴️下面是目前开源社区里最常用的几个 Embedding 模型的核心对比:✅BGE-M3(BAAI 智源):目前中文场景的首选。支持中英多语言,最大 8192 token 的上下文窗口,同时支持稠密向量、稀疏向量和 ColBERT 式多向量检索三种模式。在 MTEB 中文榜单上长期稳居前列。如果你不知道选什么,无脑选 BGE-M3 不会错。✅BGE-large-zh(BAAI 智源):专注中文的大尺寸版本,在纯中文场景下精度略高于 M3,但不支持多语言,上下文窗口也只有 512 token。适合纯中文且文档较短的场景。✅GTE-multilingual-base(阿里达摩院):阿里出品的多语言 Embedding 模型,在 MTEB 多语言榜单上表现很强。跟 BGE-M3 是直接竞品关系,两者在多语言场景下各有胜负。如果你面的是阿里,了解 GTE 是基本功。✅E5-small/base/large(微软):微软出品,特点是有从 small 到 large 的完整尺寸梯度,small 版本只有 33M 参数,特别适合资源紧张或需要部署到边缘设备的场景。精度比 BGE 略低,但推理速度快很多。✅Jina Embeddings v2(Jina AI):最大亮点是支持 8K token 的超长上下文。如果你的文档 chunk 特别长(比如整段法律条文或完整的技术文档章节),其他模型可能截断,Jina v2 能全部吃进去。✅MiniLM(微软):极致轻量级,速度最快,适合对延迟要求极高或大批量处理的场景。精度是这几个里最低的,但胜在快。🌟四种经典搭配方案1️⃣经典流水线:BGE-base2️⃣检索 Top 100 → BGE-Reranker-base3️⃣精排多语言场景:GTE-multilingual-base + GTE-multilingual-rerankerGPU4️⃣紧张:E5-small + MiniLM-L6-cross-encoder(batch 推理)5️⃣长文档 / 8K:Jina-embeddings-v2 + Jina-ColBERT-v2,段内匹配更稳📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看8道真题和解析
点赞 评论 收藏
分享
评论
141
44
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务