家人们又要到饭辣~你看到的主时间线:
5.30上午:被通知毁约
5.30下午:开始BOSS、猎聘、前程等投递
6.3凌晨:HR电话面(就是在路边那个
6.7晚:技术1面(FPGA软件接口、协议设计)+间隔半个多小时+技术2面(硬件调试、FPGA PCB设计部分)
6.20凌晨:开奖OC
6.24~28:入职背调通过+三方
7.8:入职+签订劳动合同

你没看到的副时间线:
学校的租房没续,公司毁约导致我都没地儿住了,去同学家狗了一个月,连投100+,校招早没了,玉玉+1,社招硕士岗投不了的,只能抢抢一些本科岗的社招,玉玉+2。但凡经历过春秋招的,都知道这玩意从投递到OC一个月起步是非常正常的,我又没有退路,再拖25届的大军就要来了,玉玉+3。

现状:日子基本步入正轨了,刚开始都PTSD了,不敢说话,怕中间出个啥差错又得重开。上了一个周班,体验不亚于读研(因为做的接口不懂,开坑ing+公司人不多,不好打交道,前后左右位置都没人……)连干几个小时电脑还是累,读书还能摆,上班不敢摆,只能出门走一走,喝点柠檬水啥的,再回来。不过目前公司应该是周报考核制,不太卡日常工作内容和进度,只要能完成既定目标,摸一摸也没人管。(不过电脑有加密和监控,不太敢拿电脑摸鱼,最多逛逛CSDN、知乎,逛逛地图中午吃啥,B站啥的不敢开)
全部评论
补:OC后面陆陆续续还有别的面试,我都推掉了。对于他们公司来说,走个流程一两个月很正常;对于我来说,我没有退路,这个OC给的考虑时间也不允许我拖到其他公司开奖,条件还可以我就不拖了
16 回复 分享
发布于 2024-07-14 13:28 上海
差不多已经习得性无助了
10 回复 分享
发布于 2024-07-14 14:14 四川
太难了
3 回复 分享
发布于 2024-08-08 12:45 黑龙江
好耶!蹄子哥带带我!
3 回复 分享
发布于 2024-07-14 16:44 天津
哎,真不容易蹄哥,真不容易,还好最后稳稳拿下,恭喜蹄哥!
1 回复 分享
发布于 2024-09-01 17:29 浙江
简历这么🐮的大佬也这样,我释然了
1 回复 分享
发布于 2024-08-09 08:50 广东
最后去哪儿了呀
1 回复 分享
发布于 2024-07-14 18:02 广东
太难了蹄子哥
1 回复 分享
发布于 2024-07-14 16:37 四川
你的代码是不是故意空好多行然后在最后写个},啊哈哈
点赞 回复 分享
发布于 2024-08-25 18:59 江苏
最后那家公司啊!蹄子哥
点赞 回复 分享
发布于 2024-08-16 15:57 陕西
恭喜
点赞 回复 分享
发布于 2024-08-15 12:15 北京
加油加油
点赞 回复 分享
发布于 2024-08-14 14:14 上海
25届 双非瑟瑟发抖。 目前在lattice实习的eda验证。完全没方向,哎。
点赞 回复 分享
发布于 2024-08-12 11:52 上海
蹄子哥怎么考虑现在这个平台小的问题的,未来跳槽一类的会不会不好跳啊
点赞 回复 分享
发布于 2024-08-11 09:41 浙江
佬这简历无敌了啊,我见过最牛逼的简历了
点赞 回复 分享
发布于 2024-07-25 08:24 山东
校友为啥不来华子
点赞 回复 分享
发布于 2024-07-24 13:06 上海
恭喜恭喜呀!
点赞 回复 分享
发布于 2024-07-18 20:38 浙江
用蜀道难来形容就业一点也不为过
点赞 回复 分享
发布于 2024-07-18 13:19 河南
毁约的什么公司啊避避雷
点赞 回复 分享
发布于 2024-07-15 11:04 上海
开了多少呀
点赞 回复 分享
发布于 2024-07-15 10:57 湖南

相关推荐

多模态模型横向对比除了 Video-LLaMA,还了解哪些主流多模态大模型?→ 常见的有 LLaVA、Flamingo、BLIP、BLIP-2、KOSMOS、PaLI 等简单介绍 ALBEF 和 BLIP 这两个模型的核心设计→ ALBEF:基于图像 - 文本对比学习,搭配动量蒸馏来优化图文对齐效果;BLIP:引入 captioner 生成高质量图文对,再结合 filter 机制筛选优质数据BLIP-2 的整体结构是什么?两阶段训练流程是怎样的?用到了哪些损失函数?→ 结构:在 ViT 和大语言模型之间插入 Q-Former 作为中间桥梁→ Stage1:冻结 ViT 和语言模型,只训练中间的 Q-Former→ Stage2:冻结语言模型,将 Q-Former 与 LM 连接,做指令微调→ 损失:ITC(图文对比损失)+ ITM(图文匹配损失)+ LM 生成损失微调方法(PEFT 全家桶)了解 PEFT 吗?再讲讲 LoRA,重点说明低秩假设的合理性→ PEFT 是参数高效微调的统称,核心是只训练少量参数而不动原模型权重;LoRA 假设模型权重更新量 ΔW 具有低秩特性,将其分解为 A×B,只训练 A、B 两个低秩矩阵,既节省显存又能保留效果除了 LoRA,还有哪些 PEFT 方法?Prefix-tuning 和 P-tuning 有什么区别?→ 其他方法:Adapter Tuning、Prefix-tuning、P-tuning、IA³ 等→ Prefix-tuning:在输入序列前加可学习的 prefix,作用于注意力的 K/V 矩阵,更适合 decoder-only 架构→ P-tuning:用小型网络(如 LSTM)生成连续的 soft prompt,解决离散 prompt 不稳定的问题,更适配 encoder-decoder 模型大模型训练范式你项目中用到的大模型结构是什么?多模态特征是如何喂给大模型的?→ 示例流程:视频帧 → TimeSformer 提取时空特征 → 特征池化 → 线性投影对齐到文本维度 → 拼接到文本 prompt 之前 → 输入 LLM大模型在做了指令微调后,为什么还需要 RLHF?→ 指令微调只是让模型学会遵循指令,但输出可能更偏向 “模板化”;RLHF 是通过人类偏好对齐,让模型输出更符合人类价值观、更自然、更有用的回答,解决 “有用性” 和 “安全性” 问题了解 RLHF 吗?描述它的完整训练流程→ 三阶段流程:① SFT 微调:用高质量指令数据对预训练模型做监督微调,让模型学会基本指令遵循② 训练 Reward Model(RM):用人类标注的偏好数据训练奖励模型,学习给不同模型输出打分③ PPO 优化:用 RM 作为奖励信号,通过 PPO 算法更新策略模型,最大化 RM 给出的奖励,实现与人类偏好对齐手撕 LeetCode 原题:合并 k 个升序链表→ 核心思路:用小根堆维护 k 个链表的当前节点,每次弹出最小值节点并入结果链表,再将该节点的下一个节点入堆,直到所有链表遍历完毕;时间复杂度 O (N log k),N 为总节点数
查看9道真题和解析
点赞 评论 收藏
分享
评论
76
21
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务