网易

难是真难
面试官也是真有水平
太菜了,下去沉淀了
#牛客AI配图神器#
全部评论
都问了什么呀
点赞 回复 分享
发布于 09-17 23:05 浙江
网易云音乐吗
点赞 回复 分享
发布于 09-14 18:09 陕西

相关推荐

11-06 05:47
已编辑
Columbia University 算法工程师
最长公共子序列 求序列?中间endpos作用?是否一定包含在最终序列中?(没跑通,时间不够寄了)复盘:没睡醒没想起来该用backtrack来恢复序列,写的方法错了。rand5实现rand10?期望次数?有优化空间吗?(最后一个没答上来)后续复盘:之前我答的rand5(), 若1,3则 += 0, 2,4 += 0,5重骰,这种方式无法优化但对于rand5() * rand5(),若<= 20则直接%,反之重骰,这种方式有优化空间:落在21-25不重骰,直接复用作为另一个rand5Logistic regression?为什么用CE不用MSE?(先说了极大似然估计,追问还有吗,讲了数值稳定性并加上了sigmoid函数后两者梯度的公式推导)二分类指标?解释一下AUROC?实现中怎么做?(acc --> recall, precision, F1 --> AP & AUROC; 写TPR FPR公式 ;离散化,给定若干个threshold,记录点,然后处理成类似柱状图的计算方式)模型训练出现NaN或者loss不下降的情况?简历项目拷打,讲的强化学习介绍一下强化学习的这些策略?DQN -- > PG --> AC --> A2C,没来得及讲PPO,追问Q和V的关系问GRPO的具体reward?(大致按照自己理解讲了一下怎么从PPO来的,核心在同个state做出不同动作多次采样,归一化训练),训练时间与PPO相比?(其实不是太清楚,从策略空间分析了一下,单次epochGRPO更慢,因为多次采样,达到相同效果需要时间更少,因为当策略空间很大时,PPO需要更多采样次数才能达到与GRPO相同的效果,即多次到达同一个state 选择不同action)训练过程除了你讲的多次采样还有区别吗(没答上来)Update: 没想到过了,感谢面试官捞人!
查看11道真题和解析
点赞 评论 收藏
分享
11-01 22:20
门头沟学院 Java
1.你对图数据库有了解么?介绍一下2.你项目里为什么一定要用netty呢3.我现在有10wTPS 的秒杀接口,用Redisson实现了锁,但线上经常出现锁未释放排查发现是watchdog机制失效,你觉得这种情况该如何彻底解决4.你觉得一定要使用分布式锁解决幂等么,不加这个锁可不可以5.你觉得数据库的行锁和Redis分布式锁或者zk的锁有什么区别6.性能?你觉得行锁性能一定会比分布式锁差么7.线上观察到 GC 日志里出现了这样一条 Full GC 日志:[Full GC (Ergonomics) [PSYoungGen: 65536K->0K(76288K)] [ParOldGen: 1750000K->1750000K(1750000K)],你能不能不靠任何工具,手动推断出这个进程可能的内存配置,以及这次GC的本质问题8.如果你们在业务高峰期观察到 Eden 区被频繁触发 GC,但实际对象存活率很低,你怎么看9.我们一个Kafka topic 被 5 个消费组同时消费,每个 group 负责写不同系统。中间某个group偶发失败,但你不能重放整条消息(因为另外几个已经成功),你怎么保证这组失败消息能精准重试?还能保证幂等?10.手撕:给你一个数组,它里面的元素呢都是正整数。再给你一个目标值,要求就是你在这个数组里面找到这个子数组和要大于等于这个目标值,然后返回结果是返回子数组的最小长度。
查看10道真题和解析
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务