#

AI

#
448112次浏览 3416人互动
此刻你想和大家分享什么
热门 最新
2025-12-29 13:26
吉林大学 Java
后端转Agent开发
从11月份开始学习后端技术栈, 做了外卖和点评之后就开始投递. 一个月来投了800多份只有两个面试.都是一面挂. 觉得心灰意冷, 也不清楚为什么拿不到面试. 经过一番思考之后, 决定转向Ai Agent开发方向. 目前拿到了一家初创的offer. 分享一下我对于这两个方向的感受, 以及为什么放弃后端, 选择Agent.# 后端(java)**选择理由**: 我一开始选择后端的理由是岗位多, 需求大, 工资高. 也知道这一行人多, 竞争激烈,学习周期长, 也就是很卷. 但是想着自己高中也卷出来一些成绩, 决定尝试一下.**学习过程:** 项目还是黑马点评+外卖. 学习的过程为了求快只把视频过了一遍, 关键代码看了一下. 八股的话主要看的是java guide和小林八股. 这里不得不感叹java后端的八股真是又臭又长. 我完全背不下去.这也是我放弃后端的一个主要原因.**求职结果**: 大概面了7-8家公司. 有大有小. 大厂全挂,有几家小公司的offer. 这里我的感受就是通过看视频来学习项目效果是不好的,不如自己从0到1去搭建. 因为这一整个项目的框架, 技术选型, 业务功能等等都是别人预先定义好的. 你就会缺乏对于某个实际问题具体解决方案的设计, 技术选型等等涉及到实际的trade-off的思考. 很多面试官也喜欢问这样的问题, 应为这样才能体现出你的工程能力.  并且如果能善用AI, 依然可以很快的从0到1去搭建一个完善的项目, 并且这搭建的过程一定会遇到各种类型的问题. 具体解决的方法以及背后的权衡,就是面试的时候可以跟面试官好好唠唠的部分.# AI Agent**选择理由:**  我对AI感兴趣, 觉得有发展前景. ****这一行也在起步当中, 技术栈没有那么深, 可以快速入门.**学习过程:**  自己从0开始,搭建了一个智能体. 起因是在github上找开源项目时, 每次下下来还要自己部署, 觉得很麻烦, 所以决定做一个自动部署代码库的Agent. 结合AI, 一周左右的时间做出来了一个初版.初版的效果并不好, 能力很差.不清楚该怎么改进. 所以就想着去学习好的开源的Agent项目. 选择学习geminiCLI, 同样是结合AI, 两三天的时间, 把这个项目的关键设计了解了. 学习到了很多有用的知识. 也是用在了自己的项目上. Agent能力也有了实打实的提升. 除此之外, 就是看业界龙头发布的一些博客或者产品, 学习最新的技术.**求职**: 这个岗位比较新, 岗位相对较少. 在大厂, 这个岗位偏向算法岗. 所以对于学术的要求会更高. 而我毫无相关学术经验, 投递了几个岗位也都是石城大海.不过在初创, 门槛没有那么高. 更偏向开发岗. 所以也拿到了不少面试. 最后也是拿到了北京的一家初创公司的大模型算法实习岗位.# 总结我觉得目前AI Agent依然还是早期阶段, 发展前景较好. 而后端只要互联网还在, 这个岗位的需求依然不会少. 只是增长量不大, 目前竞争也比较激烈. 所以我的看法是认可AI未来的发展的, 也想参与这次AI浪潮的, 不想或者没有那么多时间学习后端技术栈的人, 可以尝试这个新兴领域.以上都是我的个人看法, 不完全准确. 欢迎发表自己的看法, 一起讨论.
Java抽象带篮子_...:我的评价是java后端也能做agent开发,互联网各个部门都在搞ai,一般的agent应用开发就是后端做的,我本人的工作也包含做agent,你说的东西我完全不认可
点赞 评论 收藏
分享
2025-11-27 18:43
东北大学 后端工程师
点赞 评论 收藏
分享
不愿透露姓名的神秘牛友
2025-09-04 15:45
点赞 评论 收藏
分享
面试官:Deepseek推理大模型与指令大模型(如豆包、文心)等有什么不同?
一、训练范式与核心技术1. 强化学习主导- DeepSeek-R1基于大规模强化学习(RL)完成后训练,其强化学习训练占比超过95%,甚至存在完全依赖RL的DeepSeek-R1-Zero版本。- 传统指令模型(如文心、ChatGPT O1)则更依赖监督微调(SFT)和人类反馈的强化学习(RLHF)。2. 冷启动与多阶段训练- DeepSeek-R1通过引入高质量“冷启动”数据辅助初始阶段学习,并结合多阶段训练策略(如拒绝采样)提升推理能力。- 而指令模型通常直接从预训练模型通过SFT对齐人类偏好。二、能力与任务适配性1. 复杂推理能力- DeepSeek-R1专门针对数学推导、代码生成、逻辑分析等复杂任务优化,其推理过程中支持自我验证、错误检测及多路径探索。- 指令模型更侧重通用对话和指令理解,在复杂推理任务中表现较弱。2. 生成质量差异- DeepSeek-R1的纯RL版本(R1-Zero)存在生成内容可读性较低的问题,需通过混合训练策略改进,- 而指令模型因依赖SFT数据,输出更符合人类语言习惯。三、架构设计与成本效率1. 优化算法创新- DeepSeek-R1采用Group Relative Policy Optimization(GRPO)等新型RL算法,支持无监督条件下的推理能力进化。- 指令模型通常沿用PPO等传统RLHF算法。2. 成本优势- DeepSeek-R1在同等性能下成本比OpenAI o1系列低30倍,且在数学、代码基准测试中达到甚至超越Claude 3.5 Sonnet等模型。四、应用场景与合规性1. 垂直领域适配- DeepSeek-R1更适用于科研、金融等高精度推理场景,- 而ChatGPT O1等指令模型偏向通用客服、教育等泛化场景。
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客网在线编程
牛客网题解
牛客企业服务