好迷茫啊

实习一直打杂
自己确实也没啥技术热情,项目自己聊起来简单单薄
面试官问我做过什么难点,失语半天说没有
马上要找暑期了,没有一点能拿得出手
也许我就不适合这行吧
全部评论
最怕的问题就是做的这个实习经历/项目有什么难点,每次都不知道怎么回答
3 回复 分享
发布于 02-05 01:29 广东
我建议还是要不断地逼自己去学习
点赞 回复 分享
发布于 03-19 18:01 江西
实习都是打杂的
点赞 回复 分享
发布于 03-19 18:01 江西
点赞 回复 分享
发布于 03-01 08:44 江苏
瓜大都不行吗
点赞 回复 分享
发布于 02-27 16:47 河北
你这个薪资真的已经可以了
点赞 回复 分享
发布于 02-12 18:04 江西
你不想搞技术的话,是不是慢慢转项目管理这类?
点赞 回复 分享
发布于 02-11 19:23 陕西
但是技术这个薪资比其他的好点啊
点赞 回复 分享
发布于 02-08 21:51 陕西
点赞 回复 分享
发布于 02-05 14:55 北京
打杂的这种,会让人家觉得你能力欠缺一直在打杂,还是要包装然后好好准备下的
点赞 回复 分享
发布于 02-04 21:30 陕西
大部分人都是这样的,自己要主动找一下技术点补充学习。
点赞 回复 分享
发布于 02-04 16:22 北京
至少目前有实习
点赞 回复 分享
发布于 02-04 14:58 湖北

相关推荐

最近好多人问我这个问题,我自己也是纠结过很久,现在秋招春招走下来,多少有点感触了,写出来给大家参考参考。先说结论:没有绝对的好坏,取决于你处在哪个阶段、手里有什么牌、以及你缺什么。📌大厂实习优点很明显,大厂的title确实好用,简历关会好过很多,面试的时候面试官也更容易认可你的经历,毕竟流程规范、业务体量大,哪怕你干的活再边缘,说出去也是有背书效果的。而且大厂的实习流程相对成熟,mentor制度、内部文档这些都比较全,对第一次实习的人来说,能快速建立对流程工作的认识。不过缺点也存在,很多时候大厂实习生干的活真的很碎,可能会在大厂实习三个月,每天就是导数据、做周报、跟会议纪要,项目都没摸全。还有就是转正这件事,现在大厂hc锁得厉害,暑期实习转正都不一定稳,更别说日常实习了~📌小厂实习小厂的好处是你能接触到的东西更杂更全,我有一段中厂的经历,虽然公司不大,但因为人手少,我从运营到产品甚至商务都掺和过,面试的时候聊起来反而有很多可以讲的,因为真的亲手做了落地的东西。而且小厂的氛围通常更灵活,mentor可能就是直接带你的人,关系更近,学东西也更直接。缺点就是title确实吃亏,我投简历的时候明显感觉到,有些大厂筛简历就是看学校+实习公司名字,小厂经历有时候直接被忽略。还有就是小厂的流程不规范,有的公司去了就是自己摸索,没人带,成长全靠自己踩坑,体验差别很大。📌我自己的感受我三段实习里,有大厂也有中小厂,现在回头看,这样安排还不错:第一段实习可以去小厂,快速上手、积累能落地的项目经验;第二段争取去大厂,拿个title,看看规范化的工作流程;第三段,那就看自己缺什么,想转正就找有hc的,想刷简历就继续冲大厂。我发现面试官其实更在意的是你在实习里到底做了什么、有没有自己的思考,而不是单纯看公司名字。大厂经历是敲门砖,但聊得深了,还是看你有没有真东西。小厂经历只要你能讲清楚做了什么、解决了什么问题、有什么复盘,反而更容易出彩。最后想说,不管大厂小厂,能让你有成长、能给你空间去试错、能让你在面试时有东西可讲的,就是好厂。别太纠结,有offer先接着,实在不满意再骑驴找马,总比干等着强!
大厂实习和小厂实习最大的...
点赞 评论 收藏
分享
最近大厂招 Agent 工程师的岗位非常多,没有入门的朋友可能觉得“Agent不就是调调 API 吗?”Agent 不同于传统的“一问一答”式 AI,它是在对话模型的基础上增加了一个自主循环,能够根据任务目标判断“还需要做什么”,并调用外部工具执行。理想中的Agent,人类一动嘴,LLM跑断腿,在我们还喝茶打哈欠的时候就把活全干完了,但在实际落地中,想做出一个稳定可用的产品,还是有很多难点的。首先是工具的适配。在一个可用的 Agent 系统中,AI 推理只占约 30% 的逻辑,剩下的 70% 都是非AI的工程化适配。Agent 必须能够稳定处理现实世界的接口边界问题,包括 OAuth 授权、Token 自动刷新、API 速率限制以及海量数据的分页处理。同时,工具的 Schema 定义直接影响调用准确率。优秀的 Agent 需要对工具的粒度和描述进行反复调优,确保模型在面对数十个可选工具时,指令遵循依然清晰稳定。其次是多步任务的可靠性管理。在长链条推理中,错误会随步骤指数级叠加。哪怕单步准确率达到 80%,连续执行五步后的综合成功率也会降至约 32.8%。这种概率衰减意味着一个微小的幻觉就能让整个任务偏航。好的 Agent 必须具备严密的状态管理,能够在执行异常时实现自动捕获、重试或逻辑回滚。在执行关键操作前,还需要设计逻辑校验环节,防止单个步骤的偏移导致整体任务崩溃。接着是上下文的信息治理。大模型在处理长周期任务时普遍面临指令丢失的问题,尤其是在频繁的工具调用产生大量冗余数据时,核心约束容易被边缘化,导致 Agent 出现“失忆”现象。优秀的工程实践需要实现动态内存管理,精准识别并保留关键指令和历史摘要,同时剔除无意义的中间日志。通过提高上下文的信息密度,不仅能降低幻觉风险,也能在多模型路由中有效控制 Token 成本。最近开源社区非常火的 OpenClaw就是一个典型的例子。它作为一个拥有极高系统权限的 Agent 框架,可以直接操作文件和执行命令,极大地扩展了 AI 的能力边界。但在实际应用中,它的提示词工程仍有提升空间。由于权限极高,如果提示词无法精准约束模型的行为,很容易在复杂的执行链条中产生误操作甚至安全风险,且频繁触发的记忆压缩和超高的token消耗也被人诟病。这也是目前高权限 Agent 在落地时面临的核心痛点之一。总的来说,Agent 开发的本质是构建一个以模型为核心的高可靠软件系统。调通接口只是基础,真正的护城河在于你如何处理那些繁杂的非 AI 细节,包括工具层的异常处理、上下文的动态压缩以及评估体系的建立。正在找相关工作的同学,可以看看你简历上的Agent项目,有没有针对以上的痛点做了有效改进,面试官会很感兴趣的。
AI求职实录
点赞 评论 收藏
分享
评论
3
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务