英雄游戏内推
策划,程序,测试,产品,运营,美术,实习岗位等都有
内推码:DS7wguu3
投递链接:https://app.mokahr.com/m/campus_apply/yingxionghr/65922?recommendCode=DS7wguu3#/jobs
投递有问题可以再评论区或私信沟通 关于简历,面试问题也可询问
#内推# #内推码# #秋招# #英雄游戏#
内推码:DS7wguu3
投递链接:https://app.mokahr.com/m/campus_apply/yingxionghr/65922?recommendCode=DS7wguu3#/jobs
投递有问题可以再评论区或私信沟通 关于简历,面试问题也可询问
#内推# #内推码# #秋招# #英雄游戏#
全部评论
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享
八股战士0offer:虽然但是,你想表达的应该是学习如何agent工程里的提示词工程,而不是训练或者微调模型,这基本上是两个不同的方向。我认为学习agent主要就两个东西:提示词工程和上下文工程。像你说的prompt caching这种优化怎么能想到,建议多读大模型供应商尤其是anthropic的博客,anthropic大概一年前就有很详细的博客讲最佳实践和实现了 点赞 评论 收藏
分享