非科班+本科目前正在做AI工程师,说说我这3年。。。

写这篇之前我犹豫了挺久。一方面是怕被人骂,"又一个收割焦虑的转行帖";另一方面是看了太多用 GPT 套娃出来的「学习路线」文章,AI 味重得让人没法读完。所以这篇全是亲身踩过的坑,时间线、用过的项目、当时的心路全都尽量原样写出来。如果你是大学生在迷茫要不要转 AI,或者已经在转的路上,希望能给点参考。

一个反共识的开场:你以为进 OpenAI 的人都是博士?

先讲个故事,跟我没关系,但跟所有想转 AI 的人都有关系。

OpenAI 的 Sora 团队(就是搞文生视频那个)一共 13 个人。这里面有两个人特别有意思:

Will DePue,密歇根大学计算机系,直接辍学了。17 岁开始编程,高三创办了一家社区数据分析公司,公司被收购,然后 2023 年 7 月加入 OpenAI,那时他 20 岁。现在他自己又拉了个新团队,搞 ASI(人工超智慧)。

Gabriel Petersson,瑞典一个 5000 人的小镇出身,17 岁高中辍学。他自己说过一句话:"我以前觉得自己太笨了根本搞不了 AI"。后来他用 ChatGPT 自学数学和机器学习,去了 Midjourney,2024 年 12 月加入 OpenAI Sora 团队。他进 OpenAI 的方式更野——花了一周时间 16 小时/天,给 Midjourney 写了一个定制网站,录了视频走查代码发过去,就这么换来了面试。23 岁,年薪六位数美元。

OpenAI 团队里本科、硕士、博士的比例是 33%、30%、37%。你没看错,本科占比 33%,跟博士几乎一样多。这跟传统大厂研究院(本科占比通常不到 5%)完全是两个数量级。

我第一次看到这些数据的时候挺受触动的。这一波 AI 浪潮真正在重写的,是「什么样的人能做 AI」这件事

我自己就是一个非常普通的样本——非科班本科,3 年时间从对 AI 一无所知,做到能在公司独当一面、做开源贡献被国际项目接收。下面是真实路径!

2022 年 11 月底:被一个 App 击穿了

时间倒回 2022 年 11 月 30 日。ChatGPT 上线的那天。

那时候我还在读本科,专业不是计算机也不是 AI(具体啥不重要,反正就是那种"看似稳定但你心里清楚自己一点都不喜欢"的传统专业)其实就是传统的「机械制造及其自动化」。对未来挺迷茫的,但也没多迷茫,就是那种"再混一年大概就该考研考公了"的状态。

第一次用 ChatGPT 是同学发了个链接给我。我当时随便问了几个问题——有学业上的、生活上的、甚至有些纯属瞎扯——它都能答上来。而且不是那种搜索引擎甩链接给你让你自己去看,是直接跟你聊。

我记得很清楚那个感觉:这玩意儿是不是有点过分了?

不是被某一个具体功能震到,是整体的"你竟然可以这样"的震撼。一个 App 居然能直接跟你对话、解释复杂概念、帮你写代码(虽然当时它写的代码也挺烂)、还能讨论哲学问题。那一瞬间,我对自己原本想走的路全部失去了兴趣。这种感觉很难描述,有点像你一直觉得自己未来就是要在某条河里游泳,突然看到天上有人飞过去了。

接下来几天我整个人都在用它。后来想想这其实就是「ChatGPT 时刻」,全世界很多人都在那个时间点经历了类似的认知崩塌。OpenAI 自己后来也披露,ChatGPT 是历史上用户增长最快的消费应用,5 天破百万用户,2 个月破 1 亿。这事儿不是个案,是一代人的集体觉醒。

但大部分人觉醒完就过去了,继续刷短视频。我那时候不知道哪根筋搭错了,决定去搞清楚这玩意儿到底是怎么实现的。

第一阶段(2022 年底-2023 年 5 月):6 个月闭关,DataWhale 救了我

兴趣是最好的老师,这话挺俗的,但确实是我自驱力的源头。

我做的第一件事很朴素:让 ChatGPT 自己教我 ChatGPT 是怎么做出来的

它告诉我背后是 LLM,LLM 来自机器学习里的深度学习分支,深度学习的核心是神经网络,然后你想入门要先学 Python、再学机器学习基础、再学深度学习、再到 NLP、最后才到 LLM。它甚至给我列了一堆资料和视频。

但它给的资料质量参差不齐,我那时候也分不清哪些是好的哪些是垃圾。直到我发现了 DataWhalegithub.com/datawhalechina)。

如果非要说我转行路上有什么贵人的话,DataWhale 算一个。这是国内最大的开源学习组织,所有学习材料免费开源。从 Python 入门到机器学习、深度学习、再到 LLM、Agent、RAG、强化学习……基本上你能想到的方向都有完整教程,而且全是国内顶尖学校和大厂的人在贡献。我至今觉得这是中国开源社区最值得尊敬的项目之一。

我一个人在家闭关学了 6 个月。说"闭关"有点夸张,但那段时间确实没怎么社交,每天就是对着电脑啃文档、跑代码、问 ChatGPT 不懂的地方、再回到 DataWhale 的项目里实践。

中间有几个我现在回头看挺关键的转折:

从学习者变成助教。DataWhale 的学习项目都有「学习者 + 助教」的模式,助教需要带新人、答疑、维护项目。我学完一期就报名当助教。这个角色逼我把知识点从"我大概懂了"变成"我能讲明白"。这两个状态之间的鸿沟,比你想象的要大得多。

从助教变成项目贡献者。再后来开始给一些项目提 PR、修文档、加示例代码。第一次 PR 被 merge 的时候我截图发给我妈,她完全不知道我在说什么,但礼貌地回了个"真棒"。

这 6 个月最大的体感是:Learning by Doing。我尝试过先看完所有理论再动手,结果发现根本看不进去——大脑会自动屏蔽那些"还用不到"的信息。后来我换了打法:拿一个小项目当目标,做到哪步缺什么就补什么。效率立刻翻倍。

我现在跟所有想入门的人都说:别去找"完美的学习路径",那是个伪命题,会让你永远停留在准备阶段。直接挑一个你觉得有意思的小项目,开干,缺啥补啥。

第二阶段(2023 年中):第一份 AI 实习——小公司,但学到的东西超乎想象

闭关 6 个月之后,我开始投实习。

实习投得没那么顺,因为我当时的简历真的没啥东西——就一个"非科班、6 个月学习、几个 GitHub 小项目、DataWhale 助教经历"。大公司基本没动静,最后是一家小公司给了机会。

我特别感谢这家小公司。后来跟很多人交流我才意识到,对转行者来说,第一份工作的核心价值不是 title 和薪水,而是有没有真实的项目让你练手、有没有人愿意带你

那时候是 2023 年中,整个行业还在"ChatGPT 套壳"阶段。我们做的也是这类活:用 RAG 结合 Dify 搭建知识问答机器人、售后客服机器人。技术栈现在看起来朴素得不行,但当时已经算"AI 应用"的主流形态了。

入职第一天我就经历了一次大型公开处刑:我连 FastAPI 是什么都不知道

不夸张,那种感觉就是我以为自己已经准备好了,结果项目一打开发现满屏都是没见过的东西——FastAPI、Docker、Nginx、Redis、各种 Python 包管理工具的版本冲突、向量数据库的部署……知识缺口像漏斗一样在我面前张开。

那段时间我对 AI 的依赖程度达到了一个极致:几乎所有不会的东西都问它。但 2023 年的 AI 还远没现在这么强,它给的代码经常是错的,需要自己在项目里反复调。这反而成了我学得最快的时期——因为你不能只信它,你必须看懂它在写什么、为什么这么写、哪里可能出问题。

这个过程培养了一种很重要的能力:和 AI 协同工作的判断力。这种判断力,比"会用 AI"重要得多。

实习还让我接触到了开源贡献。带我的同事提了一句"你可以试试给一些开源项目提 PR",我那时候不太懂这个圈子的玩法,硬着头皮去看了几个项目,发现读优秀项目的源码本身就是一种顶级的学习方式。这是个大坑,一头扎进去就出不来了,到现在也是我业余时间最大的乐趣之一。

第三阶段(2024 年初):拿到正职,赶上 Agent 元年

实习结束之后顺利转正,或者更准确地说——我用实习这段经历找到了一份新公司的正职

那个时候市场上对 AI 应用工程师的要求已经明显升级了。岗位 JD 里基本都要求:

  • LLM 底层原理(不要求训模型,但要懂 transformer、attention、tokenizer 这些基础)
  • Dify、Coze 这类低代码 Agent 平台的实战经验
  • LangChain、LangGraph、AutoGen 等开发框架
  • 向量数据库、RAG 工程化经验
  • Prompt Engineering(这词其实有点过时了,但你懂的)

2023 年 3 月,AutoGPT 在 GitHub 上线,几个月就攒了 10 万 star,也是从那个时候开始 AI Agent 这个概念彻底火出圈。但 2023 年大部分公司还在观望,真正在产品里 All in Agent 的并不多。我加入的这家公司在这件事上做得很激进

当时市场上 90% 的公司都在做"套壳 ChatGPT"的聊天助手,UI 都长得差不多,无非就是改个 logo 改个 prompt。我们的判断是这条路没有壁垒,迟早被 OpenAI 和大厂自己卷死。所以我们选择了更难但更有想象空间的方向:用 Multi-Agent 解决短视频生产效率低的问题

这个项目让我第一次完整地走了一遍 AI 产品从 0 到 1 的全流程:

  • 调研用户在短视频生产环节的真实痛点
  • 拆解工作流,识别哪些环节可以被 Agent 替代或加速
  • 设计 Multi-Agent 架构(不同 Agent 负责不同子任务,比如选题、文案、画面、剪辑指令)
  • 给 Agent 配工具调用能力(让它能调外部 API、查资料、生成素材)
  • 前后端开发(这部分对我这种非科班来说挑战不小,但当时已经是 AI First 工作模式,前端代码很多是边问边写)
  • 上线、用户反馈、迭代

整个项目我承担了相当大的开发工作。说实话能独当一面,一半靠我自己学,一半靠 AI 协同。我后来反复想这件事——如果没有 AI 帮我快速补齐前端、运维、各种我不熟悉的栈的知识,我大概率不可能在这个时间点完成这种规模的项目。

2024 年 3 月:Cursor 横空出世,编程方式被改写

这里要插一段我觉得很重要的事。

2023 年 3 月 Cursor 第一个版本发布(顺便说一句,做 Cursor 的 Anysphere 公司是从 OpenAI 加速器出来的,4 个 MIT 朋友创业搞的)。但真正让全行业意识到"编程方式要变了"的,是 2024 年初到 2024 年中那段时间。Cursor 在没有营销预算的情况下,20 个月做到了 1 亿美元 ARR。

我用 Cursor 之前,写代码的工作流是这样的:在编辑器里写 → 卡住 → 复制问题到 ChatGPT → 拿到答案 → 复制粘贴回编辑器 → 改 → 再卡住 → 重复。我管这个叫"古法编程"。

用了 Cursor 之后整个工作流变成:直接在编辑器里跟 AI 对话,AI 知道我整个项目的上下文,能直接读我的代码、改我的代码、跑我的代码。这不是工具升级,这是范式革命

我大概是 2024 年第一批重度使用 Cursor 的人。最直观的变化是:我开始能做以前完全不敢碰的项目。比如纯前端的复杂动画、比如 K8s 部署、比如各种我没系统学过的语言写的开源项目。AI 把我的"能力半径"扩大了 5 倍不止。

到 2025 年,Claude Code、Codex 这类「Agent 全能干活牛马」级别的工具又把这件事推到了新的高度——你不再需要一行一行盯着 AI 写代码,可以直接派一个任务给它,让它自己规划、自己执行、自己跑测试、自己提交。这一年我做的开源贡献量,是过去两年的总和。

第四阶段(2025 年至今):扎进开源社区

这部分是我最想分享的,因为我觉得它对一个程序员的成长价值被严重低估了。

工作之外的时间,我开始系统性地参与开源项目。我的 GitHub:github.com/fancyboi999

参与过的一些项目:

  • OpenClaw:一个 Agent 框架方向的项目
  • DeerFlow:字节跳动开源的多 Agent 工作流框架
  • MemOS:长期记忆系统,让 AI 跨会话记住你 参与开源给我带来的东西,是任何课程都给不了的: 第一,你会被迫去读真正高质量的代码。这些项目的核心 contributor 大多是行业里很厉害的人,他们写代码的方式、思考问题的角度,跟你自己闷头写完全不一样。读懂别人的好代码,比写 100 个自己的小项目更有价值。

第二,你会进入一个真实的全球协作网络。我提的 PR 被来自不同国家的人 review 过,有时候 review 意见比 PR 本身价值还高。这是国内大学和大部分公司里你很难接触到的环境。

第三,简历上多一行"X 项目 contributor",比"精通 Python/Java/C++"管用 100 倍。招聘方最在意的不是你说自己会什么,而是有没有可以被验证的证据。开源贡献就是最硬的证据之一。

讲真,如果你现在是大学生想转 AI,我给你的第一个建议就是:找一个你感兴趣的开源项目,硬着头皮去贡献。哪怕只是修个文档错字、加个示例。这件事的复利效应大到难以想象。 alt

接下来回答几个被问爆了的问题

每次跟人聊我的转行经历,被问得最多的就是这几个。集中答一下。

Q1:本科生真的能做 AI 工程师吗?

能。但不是"拿个学位投简历就能"的能。

我前面提到的 Will DePue 和 Gabriel Petersson 是极端样本,正常路径是这样的:

  1. 大一大二:把 Python 学到能跑通项目,把 LLM API 调用、Prompt 工程搞熟(一个月够了)
  2. 大二大三:在 GitHub 攒 1-2 个有点 star 的项目(哪怕是 50 个 star 也比 0 强),写技术博客(掘金、知乎、CSDN 都行,国内的"个人品牌"主要在这几个平台)
  3. 大三:找一个 AI 公司的实习,哪怕是 20 人的小公司也行,有真实项目经验远比公司大小重要
  4. 大四:要么秋招拿 offer,要么继续 build 自己的产品考虑创业

国内现在 AI 应用工程师的市场缺口很大(工信部数据 2025 年缺口 47 万),但缺的是"能解决实际问题"的工程师,不是"会背八股文"的求职者。区分这两者的,是项目,是项目,是项目。

Q2:怎么学?学什么?

我个人觉得,2026 年想入门 AI 工程师,按这个顺序走最快:

第 1-2 个月:Python + LLM API 调用 + Prompt 工程

  • 目标:能用 OpenAI/Claude/通义千问的 API 写一个能用的小工具
  • 资源:DataWhale 的 LLM 入门教程

第 3-4 个月:RAG 系统

  • 目标:搭一个公司知识库问答机器人
  • 资源:DataWhale 的 all-in-rag 项目,从 0 到 1 全栈

第 5-6 个月:Agent + Function Calling + LangGraph

  • 目标:做一个能调多个工具完成复杂任务的 Agent
  • 重点:理解 ReAct、Function Calling、MCP 这些核心概念

第 7-8 个月:模型微调(LoRA/QLoRA)+ 评估

  • 目标:在开源模型上微调出一个垂直领域专家
  • 注:这一步可选,看你是想做应用还是想往算法侧走

第 9-12 个月:工程化部署(vLLM、Docker、K8s)

  • 目标:把你做过的项目部署成可被人付费使用的 SaaS

核心原则:每个阶段必须有可被 demo 的产物。学完不做,等于没学。

alt

Q4:非科班是劣势吗?

我曾经以为是。现在我觉得它正在从劣势变成中性资产,未来几年甚至会变成小优势

原因很简单:当 AI 应用大量进入垂直行业(医疗、法律、教育、金融、设计、新媒体),跨学科背景反而稀缺。一个学过医又会 AI 的人,比一个只学过 AI 的 CS 学生,在医疗 AI 公司更值钱。

我自己虽然不是哪个特别"硬核"的专业,但本科那几年学到的一些通用能力(写作表达、逻辑思维、对人和需求的理解),在做产品和跟团队协作的时候反而成了优势。别把自己的过去当包袱,把它当差异化定位alt

最后想说的几句

这篇写到这里其实还有很多没展开的——比如简历怎么写、面试被问过哪些题、面试官真正关注什么。下一篇我会专门写求职那部分(如果反响不错的话)。

写到结尾我想了想,真正想留给你的不是一份学习路线——任何路线在 6 个月之后都会过时——而是几个反共识的判断

  1. 不要先学完再做。边做边学,用项目当目录
  2. 不要追求"系统全面"。AI 这个领域每 3 个月知识体系都在重构,"系统全面"是个伪命题。深度做完一个完整项目,比上 10 门课更值钱
  3. 不要等准备好。简历没东西可写的时候就该开始投实习、接外包、做副业。反馈本身就是教程
  4. 不要把 AI 当工具,把它当协作者。这两种心态产出的工作质量,差着一个数量级。
  5. 不要把"非科班"当包袱。你的本专业 + AI = 别人补不上的护城河

当年那个被 ChatGPT 震撼到的我,肯定想不到 3 年后的自己会在做这些事。我也不知道再过 3 年会变成什么样——这个行业变化太快了,每个月都有让人头皮发麻的新东西出来。

但我现在很笃定一件事:这是我们这代人最值得 All in 的方向。如果你也被 ChatGPT 或者后来的某个 AI 时刻击穿过,请相信那个直觉。然后开始动手。

就这些。

#如何成为1个AI工程师?#
全部评论
好文赞了👍 感觉真实的工作场景是最重要的
3 回复 分享
发布于 昨天 17:52 北京
我也本,也算是做ai相关,我最开始感觉做ai工程师有多么多么困难,后来发现懂了原理后整体训练完全可以看成一个流程化的内容,开源方案太多了,大多基本都是按着模子在自家业务上做各种操作,就算是大厂的小部门也没那么多资源去训基模,反而更多的是像怎么把技术往业务方向靠近了,不过当前时代如果本科学历没那么好加上自己执行力不是特别强还真不建议走ai工程师这条路,可以试试其他ai的偏业务方向,不然校招不太好杀出来
2 回复 分享
发布于 今天 12:13 北京
欢迎来 GitHub 找我玩:https://github.com/fancyboi999
2 回复 分享
发布于 昨天 16:19 上海
第一份AI岗简历主要靠啥项目过筛
1 回复 分享
发布于 昨天 18:06 北京
佬3年含金量真高
1 回复 分享
发布于 昨天 18:01 上海
学习路线那段求展开 蹲一波
1 回复 分享
发布于 昨天 17:57 山东
转行第一年先刷题还是先海投
1 回复 分享
发布于 昨天 17:47 上海
你是我见过最帅的牛客男孩
点赞 回复 分享
发布于 今天 11:50 上海
LLMLingua 这种压缩用过吗 效果如何
点赞 回复 分享
发布于 昨天 18:11 北京
langchain 部署卡半个月了 佬当时怎么过的
点赞 回复 分享
发布于 昨天 17:52 北京
给大家推荐一下DataWhale:https://github.com/datawhalechina
点赞 回复 分享
发布于 昨天 16:20 上海

相关推荐

不愿透露姓名的神秘牛友
04-30 17:45
本人简历上 1 个 RAG 项目 + 1 个 Agent demo;这次面的是AI岗一面前我以为:背完八股 + 把项目讲清楚,应该能稳过。0-5 min:自我介绍 + 项目背景- 顺利。讲清楚了我的 RAG 是给法律咨询场景做的,痛点是大模型不懂行业术语。5-20 min:项目深挖(开始崩)- Q1:你的法律文档总共多少?切了多少个 chunk?- 我:约 500 份 PDF,5 万个 chunk- Q2:500 份 PDF 加起来才 5 万 chunk?平均每份 100 个 chunk,你切片粒度是多少?- 我:512 token- Q3:法律文档里"第三条第二款"和"第三条之二"是不同含义,你的切片会不会把它切散?- 我:(沉默 5 秒)……应该会- Q4:那你怎么解决?- 我:我可以加一个 metadata……(开始编)❌ 第一次崩:切片粒度没考虑业务语义。20-35 min:评测体系(继续崩)- Q:你怎么知道你的 RAG 有效?- 我:我用 Recall@5……- Q:评测集多少条?怎么构造的?- 我:100 条,我手工标注的- Q:100 条够吗?分布怎么样?- 我:分布……我没分- Q:那你的 Recall@5 是 0.81,你怎么知道这个数字是好是坏?baseline 是什么?- 我:(沉默 10 秒)❌ 第二次崩:没有 baseline,没分布分析,纯靠"看起来还行"。35-55 min:Agent 部分(彻底崩)- Q:你的 Agent demo 用了几个工具?- 我:3 个,搜索、计算器、文档查询- Q:当用户问一个问题,你的 Agent 怎么决定调哪个工具?- 我:用 ReAct,让模型自己决定- Q:模型决策错了怎么办?- 我:我加了个 reflection……- Q:reflection 失败 3 次后怎么处理?- 我:(沉默 15 秒)……我没想过❌ 第三次崩:异常路径完全没设计。55-65 min:业务理解 + 反问- Q:你觉得字节做 AI 应用最大的瓶颈是什么?- 我:算力?数据?- Q:你看过哪些字节最近发的 AI 产品?- 我:豆包、扣子……- Q:扣子是 Agent 平台还是工作流平台?- 我:(再次沉默)❌ 第四次崩:对面试公司业务一无所知。
牛客41664080...:切片粒度问得好
面试官拷打AI项目都会问...
点赞 评论 收藏
分享
评论
25
37
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务