机器学习面试题与解析2

面试高频题11:

题目:L1、L2的原理?两者区别?

答案解析:

原理:

L1正则是基于L1范数和项,即参数的绝对值和参数的积项;L2正则是基于L2范数,即在目标函数后面加上参数的平方和与参数的积项。

区别:

1.鲁棒性:L1对异常点不敏感,L2对异常点有放大效果。

2.稳定性:对于新数据的调整,L1变动很大,L2整体变动不大。

答案解析

数据分析只需要简单知道原理和区别就行,公式推导不需要,面试过程中也不会出现。

面试高频题12:

题目:boosting 和 bagging的区别

答案解析:

boosting:训练基分类器时采用串行的方法,各个基分类器有依赖,每一层训练时,对前一层分错的样本给与更高的权重,测试时,根据各层分类器的结果的加权得到最终结果。 bagging:集体决策,分而治之。基分类器最好是本身,对样本分布较为敏感。

面试高频题13:

题目:逻辑回归和xgboost有什么区别

答案解析:

逻辑回归:假设数据服从伯努利分布,通过极大似然函数的方法,运用梯度下降来求解参数,来达到数据二分类的目的。 xgboost:通过boosting的思想,由一堆cart树,将每棵树的预测值加在一起就得到了最后的预测值。 1.从模型的角度上来说,两者本质都是监督学习,但是LR是线性模型,XGB是非线性模型。 2.从策略的角度上来说,LR本质是分类器算法,XGB本质是回归算法。 3.从使用的角度上来说,XGB的Loss比较复杂,参数比较多,但是可以支持自定义Loss,会自动求一阶和二阶导数,也就是说其实是一个残差学习框架,应用于适用感知器准则的任何框架。 4.从特征的角度上来说,LR不具备特征筛选的能力,它假设特征之间是相互独立的,只具有线性分界面。 说明定义+从2-3个角度上说一下两者的区别。

面试高频题14:

题目:有关机器学习random forest 和xgboost的区别

答案解析:

RF:采用Bootstrap的随机有放回的抽样,抽样出N份数据集,训练出N个决策树。然后根据N个决策树输出的结果决定最终结果。 xgboost:通过boosting的思想,由一堆cart树,将每棵树的预测值加在一起就得到了最后的预测值。 RF属于集成学习Bagging,而XGB属于集成学习Boosting。 RF是通过减少模型方差提高性能;XGB是通过减少模型偏差提高性能。 对于最终的输出结果而言,RF采用多数投票等;而XGB则是将所有结果累加起来,或者加权累加起来。

面试高频题15:

题目:xgboost的优点

答案解析:

1.利用了损失函数的二阶导数,使得最终值逼近真实值。 2.ou

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

2022年最新整理:数据分析师高频考点与解析,包含top11面试考点和177道高频面试题与解析

全部评论

相关推荐

2025-12-21 22:11
已编辑
哈尔滨工业大学 Java
面完哭了两天,菜是原罪。只能说还是很欠缺,面试官问的问题一下就能看出来我根本没实战过,很多基础知识也很欠缺。因为面试中间就崩溃了面试官后来可以说是达到了一个菩萨的境界,一直说你还会什么我一点一点问,还有你会的我没问吗。我完全破防了一直在道歉说没想到自己准备得这么不好,面试官人很好,一直安慰我其实答得还好的。面完之后开始和豆包模拟面试才发现原来八股我基本上等于啥也不知道,感觉自己可以洗洗跳了。Deep整理的。刚开始大约有五到十分钟忘了录音,前面还有一些没记,大概是一些hashmap的问题、怎么连接上服务器(要求说具体)、输入网址到查询到的全流程。1. 域名与IP的映射关系是怎样的?2. 一个域名能否对应多个IP?一个IP能否对应多个域名?我回答了之后一直反问我因为我说的不对,这时候已经有点破防了。(考完试全忘了,知识基本没有在我光滑的大脑皮层留下痕迹)3. Spring MVC 的分层结构一般分为几层?4. AOP(切面编程)是如何实现的?5. JWT 的组成部分是什么?6. Rabbit MQ 是什么?你在项目中如何使用它?7. 如果Redis和MySQL数据不一致,如何处理?你真的做过吗?延时双删有什么问题?8. 有没有更好的方案保证缓存与数据库的一致性?9. 你是在哈尔滨还是山东?是东北人吗?(因为想知道我是我们学校哪个校区的)10. Spark 的原理你了解吗?Docker 用过吗?11. Hadoop 有哪些组件?12. Spark 的数据结构有哪些?(因为这个岗是数据开发,我也不知道为啥捞我)13. Transformer 模型是哪年的论文?作者/公司是谁?(我真不行了)14. 请解释Transformer中的K、Q、V分别是什么?(我真看过,但是全忘了。。。)15. 你能否讲讲你的科研经历?16. BERT17. 你们是用什么硬件训练的?(CPU/GPU,是否使用Linux)18. 除了这个方向,还对哪些科研方向感兴趣?19. 是否了解NLP或大语言模型(如MOE)?20. 是否了解Launcher for J、On 4G1 等工具?21. 是否用过AI辅助编程工具?如DeepSeek、ChatGPT等?22. 你觉得DeepSeek和GPT哪个更好?DeepSeek能写代码吗(质疑)(我反正自己用起来觉得完全没问题,但是需要自己调试)23. 你用哪个IDE?是否支持接入大模型?24. 是否对比过Claude、GPT-4等其他模型?25. 是否了解CNN等其他AI模型?26. Linux中如何创建一个文件夹?27. 如何一次性创建多层文件夹?28. 如何在一个文件中过滤出包含“error”关键词的行?(我不行了我们学校经常用Linux系统做实验但是命令基本全是我现去找d老师问,只能回答26,其他的不记得呵呵)29. Maven如何进行打包?30. Git在什么场景下使用?31. 加入新公司后,Git操作的基本流程是什么?(如clone、设置remote、分支操作等)32. 什么是Spring Boot和SSM33. MySQL的ACID分别代表什么?(行了到这里已经神智不清了中英文都对应错了,你自己觉得搞笑不)(面试官还安慰我他也记不清了没事)34. 什么是“不可能三角”(CAP理论)?35. 多线程如何创建?除了线程池还有哪些方式?36. JVM的垃圾回收机制是怎样的?37. JVM内存结构有哪些部分?(如堆、栈、方法区等)38. 你常用的JDK版本是什么?到这里已经彻底破防了脑子都不清醒了,面试官说其实我们招实习生还是想要聪明肯干的我问你两个智力题,,,大概是因为我八股说得太差了,所以想找点我可能能答得上来的。还好说出来了要不然就是一个彻头彻尾又懒又蠢的傻货了。39. 抛三个硬币,两正一反的概率是多少?40. 三个都是正面的概率是多少?42. 编程题:找出字符串中第一个不重复的字符(核心函数)破如防,崩如溃。
发面经攒人品
点赞 评论 收藏
分享
秋招无形的压力,从研究生入学的第二天就开始笼罩在了我的身上。我是两年制的硕士,研究生刚入学,恰好第二天华为就到学校宣讲,在老师的建议下听了宣讲会。会后,一大堆词汇涌入脑中:实习、秋招、开发、算法、部门、方向……我开始迷茫,我该怎么规划我的秋招?首先是方向问题。我是两年制的专业硕士,不具备发论文的条件,理论上来说算法这条路是堵死了。但我想了想本科的一些经历,从大二起就在做深度学习的相关项目,大四发表了一篇SCI,这么些内容不用实在有点浪费;硕士期间在组里做的横向项目也是计算机视觉算法相关。最关键的是,开发的那一套内容和八股我是一点不会。在深思熟虑了一个月后,我还是决定俯冲算法。要走算法的话,没有顶级论文就只能去搜广推了。此时我又遇到了困难:研一期间导师不放实习。其实学院有很多放羊的导师,偏偏自己选择了这个只放暑期实习的导师。当时真的很焦虑,因为身边的朋友都是做后端开发的,不断劝我转开发;往届实验室的专硕都是走的开发,没有能参考的案例。那段时间很煎熬。一边做实验室的项目,一边自己自学搜广推的知识。身边的同学有的一入学就跑路出去实习了,有的已经找好导师做科研准备读博了,自己想做算法还在前途未卜,身边的同学和实验室的师兄师姐全是清一色的劝退。南京的冬天很冷。在2024年寒冷的冬天里,我感觉前途就像风中的梧桐叶一般渐渐凋零,随风飘散。我研一期间没有任何一段日常实习,直接就要面对暑期实习的巨大竞争;我研一期间没有发表任何论文,实验室的横向项目没有一个能写到简历上。选择走算法这条路,或许真的是我人生选择的一次寒冬。我知道我要抓紧时间了。整个寒假我学习了很多内容:王树森的推荐系统课,深度学习transformer的八股,大模型的RAG和微调,天池新闻推荐等。我现在已经记不起春节是怎么过的了,我只记得寒假回家后的一个夜里,老爹问我大晚上怎么抱着电脑发笑,我说GPT真是天才,被BERT超过后还能想到把BERT大力出奇迹的思路借鉴过来,还真让GPT力大砖飞成功爽到了。寒假结束回学校已经是2月中旬,暑期实习的招聘陆续开了。我做完了天池新闻推荐的项目,改好了简历,开始了暑期实习的疯狂投递。暑期实习超乎我意料的顺利,7天速通美团的广告算法,后续又拿到了腾讯广告的offer。多方考虑后,最终还是选择了腾讯广告,鸽了美团的入职(代价是美团秋招直接拉黑了我)。腾讯的转正率并不高。经过了一番蠕动,最终仍然转正失败。我原以为有了腾讯的实习经历,秋招也会像实习一样顺利,可是我错了。算法岗位的实习和秋招简直是两个天地,秋招阿里系直接给我简历挂;字节总是一面或者二面就挂,问就是候选人中有更加优秀的,不再推进流程。我被美团拉黑了,秋招根本不捞;京东我投递太晚了,一直泡在池子里。从10月中旬开始,我的面试变得零零星星,机会也越来越少了。秋招时算法的hc还是太少了,而竞争者实在是太多。现在的搜广推,要么有两段及以上的大厂实习,要么有大厂实习+A会,早已不是一段大厂实习就能够畅行无阻的时代了。在这里要感谢拼多多。在所有的互联网大厂中,只有拼多多稳步推荐流程,最终发给了我一个保底的offer。这个秋招让我认识到,我当前的简历和水平仍然不够,至少还需要一段大厂实习才能够去碰一碰BAT的搜广推岗位,可是我已经没有热情去做搜广推了。在腾讯的实习中,我发现广告算法用得更多的是策略,大部分人去搜广推也是在写策略,想做召回/精排模型还要更强的背景和一定的运气。拼多多最终开了一个大包。算了算总包,如果真在拼多多干个三年,税前年薪百万或许也不是梦。而就在拼多多开奖的那一天,华为也打来了oc电话。华为的业务是LLM,方向是好的,base地也是好的,就是开得比拼多多低太多了。经过了一段时间的纠结,我想明白了,比较是无休无止的,要问自己的心理预期——抛开其他offer,华为的这个价我是能接受的。因此,我拒了多多,签了华子,秋招结束。回首整个秋招,我就是算法大军里面很普通的一员,四处碰壁,和大佬offer打牌形成鲜明对比。最终凭借一定的运气拿到了一个满意的offer,也算对当初执着走算法道路的自己有了一个交代。我有时候也问自己,到底是什么支持我走下来算法道路呢?我的回答是认清自己的定位。作为算法候选人,有效的背景无非就是院校/实习/论文。三者有其二,最终就算拿不到大包,也不至于找不到工作。因此,如果你也处于一个迷茫的时期,不妨多方面确认一下自己的定位,心里有底就不会盲目。雄关漫道真如铁,而今迈步从头越。
点赞 评论 收藏
分享
1.GAN和Transformer 这两个分别在你的项目里承担了哪些作用?这两个是怎么帮助你推动模型进行图像或者视频重建并提升性能?2.你的GAN以及生成器和判别器主要负责什么工作的,讲一下他们的核心作用以及怎么协同的3.你做项目的时候是先用的生成器还是判别器,为什么要这样设计呢?4.你的轻量化参差模块在优化Swin transformer发挥的什么作用?5.计算机视觉中多尺度融合是什么含义6.为什么深层次神经网络中提取的图像特征被称为”语义特征”?怎么处理图片信息的,多尺度特征的提取怎么提升的模型性能,你用了什么技术和算法框架去实现的7.在你处理模型时用的什么注意力机制,在大模型图像处理项目时这些模块在整体架构分别承担了什么职责?8.你在里面用的对抗损失函数怎么设计的,怎么结合别的模块使用的9.你用的WGAN,他和原始的GAN是怎么改进梯度问题的,以及损失函数中梯度惩罚项怎么实现的Lipschitz约束10.你说一下逻辑回归他的原理还有适用场景以及如何实现的11.在逻辑回归中,我们一般用交叉墒损失函数,你可以说一下为什么吗?12.你结合一下逻辑回归二分类任务,说一下为什么这种情况经常使用交叉墒损失而不是均方误差损失呢?13.L1L2正则化在机器学习模型中的作用是什么(这里要求写数学公式)14.请详细介绍一下PPO这个在强化学习中的策略优化算法,主要思路和流程是什么15.在PPO的算法损失函数中,有两个操作,一个是clip,还有一个是min,请你说一下这两个操作的方式作用还有他们在PPO中的意义。16.在PPO算法的损失函数设计中,cilp的操作已经能够限制策略更新的幅度确保稳定性,为什么还需要在损失计算中取原始的目标和clip的较小值?如果只保留clip部分,不取较小值会有什么问题?
查看16道真题和解析
点赞 评论 收藏
分享
评论
点赞
12
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务