字节跳动|今日头条后端暑期实习三面凉经

1.自我介绍

2.Java的垃圾回收机制是什么,可以讲一下吗

3.为什么Java垃圾回收要分新生代、老生代?为什么新生代的回收更加频繁?(答大多数新对象往往生命周期比较短)你有证据证明是这样的吗?(这个。。。不知道要怎么回答)

4.有没有办法降低垃圾回收对性能的影响?(讲了Java1.8其他垃圾回收器,CMS和G1的工作原理)

5.写个算法,长度为n的数组,取值范围[0,n-1],数值可能重复,问怎么判断是否重复
我的思路就是把每个值交换到自己对应的下标上,如果要交换的下标对应的值就是下标本身(比如0对应0),说明一定有重复。如果这遍完成还没有找到,那就再第二遍扫描,如果有值不在对应的下标上,说明这个值是重复的(这里被面试官给问了,如果下标0交换了个3过来,那后面这个3要怎么办呢?这部分答得不好。)(实际上值不在对应下标上并不能说明这个值是重复的,但是可以肯定数组一定有重复)。
思路没啥问题,如果真没有重复的数据,那么所有的数肯定能被交换到对应的下标上,有重复的数据才会导致有数字待在自己不该待的位置上。但是这中间可能被面试官给绕了。。。

6.最近有在看哪些书?(答 高性能MySQL )
7.能讲讲其中一部分内容吗?(讲了MySQL的索引部分)

8.平时参与哪些活动,兴趣爱好是什么。

反问环节:
1.现在是互联网寒冬吗?因为我的同学普遍反馈工作不好找
面试官说他也不知道。说实习转正比较好。如果没有实习经历的话面试要求会更严格。
2.未来往哪方面提升自己比较有性价比,面试官建议我多了解点底层细节,多看看相关书,不要局限于Java,可以了解别的技术栈。

3.15补充:寄了#2022春招##字节跳动##面试题目#
全部评论
过了嘛楼主
2 回复 分享
发布于 2022-03-14 21:43
base深圳吗?
点赞 回复 分享
发布于 2022-03-17 15:28
你主页咋全是凉经😅
点赞 回复 分享
发布于 2022-03-14 18:18

相关推荐

11-01 22:20
门头沟学院 Java
1.你对图数据库有了解么?介绍一下2.你项目里为什么一定要用netty呢3.我现在有10wTPS 的秒杀接口,用Redisson实现了锁,但线上经常出现锁未释放排查发现是watchdog机制失效,你觉得这种情况该如何彻底解决4.你觉得一定要使用分布式锁解决幂等么,不加这个锁可不可以5.你觉得数据库的行锁和Redis分布式锁或者zk的锁有什么区别6.性能?你觉得行锁性能一定会比分布式锁差么7.线上观察到 GC 日志里出现了这样一条 Full GC 日志:[Full GC (Ergonomics) [PSYoungGen: 65536K->0K(76288K)] [ParOldGen: 1750000K->1750000K(1750000K)],你能不能不靠任何工具,手动推断出这个进程可能的内存配置,以及这次GC的本质问题8.如果你们在业务高峰期观察到 Eden 区被频繁触发 GC,但实际对象存活率很低,你怎么看9.我们一个Kafka topic 被 5 个消费组同时消费,每个 group 负责写不同系统。中间某个group偶发失败,但你不能重放整条消息(因为另外几个已经成功),你怎么保证这组失败消息能精准重试?还能保证幂等?10.手撕:给你一个数组,它里面的元素呢都是正整数。再给你一个目标值,要求就是你在这个数组里面找到这个子数组和要大于等于这个目标值,然后返回结果是返回子数组的最小长度。
查看10道真题和解析
点赞 评论 收藏
分享
11-06 05:47
已编辑
Columbia University 算法工程师
最长公共子序列 求序列?中间endpos作用?是否一定包含在最终序列中?(没跑通,时间不够寄了)复盘:没睡醒没想起来该用backtrack来恢复序列,写的方法错了。rand5实现rand10?期望次数?有优化空间吗?(最后一个没答上来)后续复盘:之前我答的rand5(), 若1,3则 += 0, 2,4 += 0,5重骰,这种方式无法优化但对于rand5() * rand5(),若<= 20则直接%,反之重骰,这种方式有优化空间:落在21-25不重骰,直接复用作为另一个rand5Logistic regression?为什么用CE不用MSE?(先说了极大似然估计,追问还有吗,讲了数值稳定性并加上了sigmoid函数后两者梯度的公式推导)二分类指标?解释一下AUROC?实现中怎么做?(acc --> recall, precision, F1 --> AP & AUROC; 写TPR FPR公式 ;离散化,给定若干个threshold,记录点,然后处理成类似柱状图的计算方式)模型训练出现NaN或者loss不下降的情况?简历项目拷打,讲的强化学习介绍一下强化学习的这些策略?DQN -- > PG --> AC --> A2C,没来得及讲PPO,追问Q和V的关系问GRPO的具体reward?(大致按照自己理解讲了一下怎么从PPO来的,核心在同个state做出不同动作多次采样,归一化训练),训练时间与PPO相比?(其实不是太清楚,从策略空间分析了一下,单次epochGRPO更慢,因为多次采样,达到相同效果需要时间更少,因为当策略空间很大时,PPO需要更多采样次数才能达到与GRPO相同的效果,即多次到达同一个state 选择不同action)训练过程除了你讲的多次采样还有区别吗(没答上来)Update: 没想到过了,感谢面试官捞人!
查看11道真题和解析
点赞 评论 收藏
分享
评论
4
27
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务