专升本且三本的应届生简历,有没有大佬锐评一下。

我是一个河北专升本的普通应届生,专升本之后还是个三本,第1次参加工作的时候是专科的大三,简历里面的时间是不对的,但是工作经历是对的,因为会有一年的空档期,所以面试的时候都会说本科的时候没有上课,全程在实习。
嗯也是明明知道你的学校不行,就提前出来实习,嗯在去年的时候误打误撞去了绿盟科技,做一个产品交付的实习生,后面觉得实施这个岗位很不错,学历要求不是很高,技术要求也不是很高,而且能接触到很多新的东西,就想到刚毕业之后从实施这个岗位开始干起。
也是最近在改简历,在上一次面试的时候,也是一个实施岗位,给我面试的面试官说,如果我是审阅这份简历我一眼也不会看,所以就最近几天一边参考大佬的简历,一边对自己的简历进行了修改,也是听从了朋友的意见,然后会附上一段朋友推荐的简历技能写法,图片第1张是我之前的简历,第2张是我通过ai然后重新排版之后的简历。
通过翻阅牛客网,发现大佬的简历都是更着重于实习经历的成果和项目,个人技能方面会写的篇幅比较少,也希望通过这个平台能遇到大佬能指点一下。

附:
精通 CentOS、Ubuntu 等 Linux 系统操作,熟悉 VMware、KVM 等主流虚拟化技术,了解 Nginx、Tomcat、MySQL 等中间件与数据库的部署与优化,能独立部署底层核心生产线。
熟练使用 Shell、Python 编写自动化脚本;熟悉 Docker 容器技术,容器编排联动,持久化部署;具有云平台运维经验与 RPA(影刀)自动化业务流搭建能力,能快速高效的搭建自动化运维场景。
熟悉 TCP/IP 协议族、VLAN、路由等网络技术,熟练掌握绿盟等主流厂商 NF 防火墙、IPS、堡垒机、日志审计等企业级网络安全、数据管理设备的底层逻辑与部署方案。
熟练使用claude code/codex等agent编排工具,可熟练使用辅助完成日常任务,可将日常任务编排为workflow,实现高效复用。
具备内部工具产品化思维,于搭建自动化监控与报表系统时,主动挖掘多部门业务痛点,将零散脚本整合为可视化数据看板与自动化流程,打破数据与业务需求壁垒,提升系统易用性。
具备AI技术产品落地能力。熟练掌握主流 AI Agent 平台(如 Dify/Coze 等)的底层编排逻辑,能将大模型能力与日常运维排障、工单处理、安全日志分析等场景深度结合,设计并交付端到端的自动化 Workflow 产品,实现 AI 技术在实际业务中的降本增效。
具备强烈的产品质量意识与闭环思维。在大型项目交付与一线排障中,不局限于解决单点技术问题,善于梳理产品在复杂网络环境下的高频缺陷与交互痛点,将一线技术数据转化为标准化的产品优化需求,反哺至研发与产品团队,驱动底层架构与产品体验的持续迭代。
全部评论
欢迎大佬任意形势锐评,有充足的抗压能力
1 回复 分享
发布于 03-16 03:03 山东
友友,要不要看看我们这里的AI产品经理呀,春招补录扩招,我觉得很合适,欢迎来投
点赞 回复 分享
发布于 03-16 10:26 天津
翻看大佬的简历。里面只有,个人简介,项目经历,实习经历,还有一点点的专业技能,也是写的精通什么,熟练什么,掌握什么技术栈。 修改的话,我觉得我的简历里面的自我评价和概述和证书没有什么用,也不是很加分,还占地方。
点赞 回复 分享
发布于 03-16 02:27 山东

相关推荐

04-28 22:40
门头沟学院 C++
1、工具调用失败或 LLM 幻觉,怎么办?"我会把这个问题拆成两个子问题,因为工具失败和 LLM 幻觉是完全不同的故障模式,解法不能混用。工具失败有明确信号——异常、超时、错误码——我的处理是三层:先用指数退避重试,重试前让 LLM 反思上次参数哪里出了问题,相当于让模型自我纠错;重试耗尽后降级到备用逻辑,比如换一个工具或走规则引擎;如果涉及写操作,每次执行前必须记 Checkpoint,失败后能回滚到上一个干净状态,且写操作要做幂等,防止重放。LLM 幻觉更难检测,因为没有报错。我的做法是:对关键推理结果做 Self-consistency 验证,同一问题采样三次,少数服从多数;对外部事实型问题,用第二个模型做交叉 Fact-check;对于高风险操作,强制加 Human-in-the-loop 确认节点,不管模型多确定都要过人工。生产上我会为每个 Agent 实例暴露健康度指标:工具失败率、幻觉拦截率、平均重试次数,超阈值自动熔断并告警。这样从 demo 到上线,容错体系才是完整的。"2、Agent 的 Memory 怎么设计?"我把 Agent Memory 设计成三层,对应人类记忆的三种形式。第一层是 Working Memory,就是当前 LLM 的 Context Window,存当前任务的执行状态和工具调用历史。它的核心问题是容量管理——超出 window 时我不会直接截断,而是对老的消息做摘要压缩,保留语义但压缩 token。第二层是 Episodic Memory,存历史任务轨迹和用户偏好,用向量数据库按相似度检索。写入是任务结束后异步进行,不阻塞主链路。这层需要遗忘机制——我用一个重要性评分:访问频率乘以时效性衰减再乘以任务相关度,低分记录定期压缩,避免向量库无限膨胀。第三层是 Semantic Memory,存领域知识。这里有一个选型决策点:非结构化知识用向量检索,强结构化的多跳实体关系用 Knowledge Graph——向量库做多跳关系推理效率很差,这是实际踩过的坑。多 Agent 场景还要解决共享 Memory 的一致性问题:写操作加版本号做乐观锁,读操作做版本校验,防止多个 Agent 并发写入产生脏数据。"
查看2道真题和解析
点赞 评论 收藏
分享
评论
1
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务