Momenta 实习毁约

我再三确认,这周回复没问题
大家评评
全部评论
这种**公司真的离谱,明明你先面的,而且你过了,他**还面别人
94 回复 分享
发布于 2024-03-21 11:23 北京
咋说呢,都是养鱼权衡,你毁他他也没法说你什么
66 回复 分享
发布于 2024-03-22 09:34 江苏
反观一下,大部分牛油也是拿到了offer,还会继续面其他公司
61 回复 分享
发布于 2024-03-22 09:44 四川
真的 这种实习肯定是先接再说啊
41 回复 分享
发布于 2024-03-22 01:04 北京
这很难评,站在公司的角度来看,在不确定你来不来的情况下,接着去面别人,碰到合适的了就直接发offer了,只能说吃一堑长一智吧
23 回复 分享
发布于 2024-03-22 14:49 辽宁
现实就是如此,踩过坑就知道了
20 回复 分享
发布于 2024-03-21 14:41 北京
没发offer前对面都是可以随时取消的,现在一个岗位经常有多位候选人,所以做决定需要快,都是互相养鱼
14 回复 分享
发布于 2024-03-23 09:08 广东
这**的*公司,我***的**公司,就**无语**,**去四吧,祝他们全家**
6 回复 分享
发布于 2024-03-23 20:51 上海
塔子招人是这样的,筛简历一面二面offer一周内绝对结束,然后立刻入职
5 回复 分享
发布于 2024-03-23 00:08 上海
mmt本来就是这样,你这前面没接offer的人家把你鸽了,我接了offer的,他还把我鸽了
4 回复 分享
发布于 2024-04-03 21:35 江苏
垃圾公司呀
2 回复 分享
发布于 2024-03-22 20:49 广东
同学咱消消气 要不看看我们部门呢 招客户端和前端开发 负责手淘交易核心链路 之前没做过终端也没关系 实习主要看基础 秋招直通终面 感兴趣可以私聊哈
2 回复 分享
发布于 2024-03-22 01:09 浙江
你太年轻了 实习offer没有毁约成本 你除非说很不想去否则就应该马上答应下来 你说考虑一下代表根本还没有接受这个offer 邀约并不成立 那么公司那边发另一份offer完全合理 除非你当场答应那么邀约成立 公司才不应该发另一份
1 回复 分享
发布于 2024-04-26 12:13 浙江
发了offer直接接了呗后面有更好的再拒不就行了,我一直是这么玩的
1 回复 分享
发布于 2024-04-17 23:39 湖北
小伙子太年青了😂,市场环境这样,再去改变就太费劲了
1 回复 分享
发布于 2024-03-23 19:34 江苏
和我前几天差不多,因为不能立即到岗,直接把offer发给了另外一个能到岗的😂
1 回复 分享
发布于 2024-03-22 19:49 福建
我感觉你可以先接它的offer再拒其他人的offer
1 回复 分享
发布于 2024-03-22 18:17 广东
纯纯**公司,也碰到很离谱的事情
1 回复 分享
发布于 2024-03-22 12:50 北京
同hr😅
点赞 回复 分享
发布于 2024-05-09 11:37 山东
当初我极限跑路momenta的时候,也是这个hr。他是个实习生,决定不了个啥,但是他们这么做确实挺恶心😂
点赞 回复 分享
发布于 2024-04-30 14:18 北京

相关推荐

日期:2026.3.26时长:约40mins面试官:算法工程师(也许是)面试岗位:算法工程师 实习岗工作地:上海内容1 面试官自我介绍2 (我)自我介绍(追问)实习时长?视实习jd而定,对于……,实习期大概在4-5个月3 简历询问a 学生期间的学习经历有什么?i  本科还是硕士?——》都介绍一下ii 本科期间学校对我们专业的培养目标是……,所以我们会学数学、化学、英语、机械、力学、……。在研究生期间,主要学习的课程可以自行选择,我的主修课程主要包括环境感知、智能导航、传感器、ai及深度学习、数学等课程,研究生的主要研究方向就是……。b 我看你的实习经历有一段……,当时就已经在做agent开发了吧?i  我认为严格意义上那不算agent,当时agent也没有现在这么火,更多的还是一个对内的ai助手demo开发,在功能上基本可用。b(追问)那你对ai了解多少,与llm和agent相关的这些。ii 对于llm还有agent的一些基本原理的概念性东西还是有一定程度了解,比如loRA微调、RLHF(是这个吗?其实我不太记得住这个词,可能当时说错了)、数据集、无监督学习、rag、a2a、skills、tool,Transformer等等。但是如果您问我我具体了解程度,那我只能说基本不了解。因为在我的预估和前期规划中,我的实习期从五月开始,这些东西的学习计划是放在四月的(确实是这样规划的)。那么在这之前,我主要做的是我的毕设和一些基础的学习,比如说强化学习的数学原理、经典强化学习算法、Attention、深度学习底层原理等等。之所以这样规划是因为这些东西是介于我毕设和预估中的实习涉及到的技术落地间的重要知识,需要有层次的递进学习,其次是我需要毕设做到一定程度导师才放实习,因此我的毕设进度大概是……。c 介绍一下你最了解的项目。i  我最了解的是我的毕设……。其中我这也是结合prompt engine做的,其中用于项目开发的skill也开源了。c(追问)你为什么选择PPO而不是其他的模型?你有做过对比吗?ii 我选PPO的原因很简单,首先是PPO相对来说非常成熟,其次是它对超参数不是那么敏感,这样我可以不太用耗费很多时间去调参,此外,ppo的代码实现相对来说也比较简洁,能有效减轻我的工作量,最重要的一点是ppo的鲁棒性相对较强,这个是我比较看中的,因为……。对于其他模型而言,比如TRPO,没记错的话TRPO的一大优点在于其理论上能保证策略性能的严格递增,这点也是很重要的,但是没记错的话,TRPO中有个温度系数还是什么超参数,这个超参数对最终的策略提升有重大影响,如果这个参数没调好,容易让策略走向在最优解附近大幅震荡或无法学习的两个极端,这其实是我不希望出现的。毕竟计算机计算精度始终有限,因此我选用一个算法的目的之一在于在有限的计算时间和计算资源的限制之内能最逼近和无线逼近最优解,因此尽管PPO在理论上的收敛性不如TRPO严谨,但是从实际表现来看ppo反而好不少,他就是我需要的算法。c(追问)你的项目不使用数据集来训练对吧?比如那种生成的数据是无法应用到你的项目中的?iii我的项目可以用数据集,强化学习有通过数据集预训练或者需要采样数据的算法,但是,但是,如果使用数据集,我怎么保证我采集到的数据比强化学习自己的策略更好呢?换句话说,这些数据集需要我再环境中自己去采集,人具有主观性,我不能保证我采集到的数据是没有偏差和人的主观偏好在其中,如果基于有偏差的数据进行训练,那么如何保证最终训练出来的策略是最优策略呢?当然我不是在否定这种方法,现在有很多基于数据集驱动的强化学习,若我采用了这种方法,我就需要考虑……系列问题,这会让我毕设的体量爆炸……。因此,在实际中应该结合现有条件进行选择,最适合的才是最好的。4 手撕一个字符串中包含空格和数字,要求不产生额外存储空间的情况,把所有的数字换到左边,同时字符串长度不变(空格放到末尾保留)。忘了这是力扣哪个题,用了双指针的思路,思路对的但是跑不过用例不知道为什么。5 反问a 算力资源?i (面试官所在的团队)有几张gpub ai coding额度资源?i 这些问问llm就行,实习生估计是没有的(我其实无所谓,常年开的有自己的coding账户)c 组织架构?或者团队的主要工作内容是?i (估计是组织架构不便透露)工作内容:i)基于cv的……检测ii)基于ai的……检测iii)基于ai llm的知识图谱构建(听到这眼前一亮)---------分界线---------大约面试结束30-40分钟左右接到hr电话电话内容总结:1 面试官那边总体满意2 jd是……(听到这觉得jd可以去)3 入职时间及实习期(算了一下,可以去)4 薪资5 手头offer确认(表明0 offer,给了就去,期间也会面其他公司,毕竟我知道这个实习岗没有hc,但打包票的是期间我不会跳走)
查看9道真题和解析
点赞 评论 收藏
分享
评论
40
10
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务