微派网络二面!我愿称之为面过最难的一次!

1.自我介绍
2.计算机是如何运行我们写的代码的?(这个还好,代码->AST->字节码->机器码)
3.你说的不够详细,我想听的是CPU是如何执行的?(。。。)
4.webapck和vite区别?(bundless,我觉得最大的区别)
5.vite在开发环境,我有一个很大的项目,首页需要加载很多文件,这时候vite还快吗?(我从网络请求上回答的)
6.vite和webpack设计理念上的区别?
7.http1.1并发请求的限制?http2.0也是这样吗?
8.介绍一下虚拟dom的概念,以及他的优势和劣势?
9.React和Vue设计理念的区别和相同点?
10.最近有在看哪些书?
11.为什么很多公司的项目没有使用vite来进行打包呢?(我从生态、成熟度上回答的)
12.amis低代码的原理?(该死,再也不写在简历上写了,本来就是在公司赶鸭子上架一个星期内学的)
13.为什么要使用低代码?(易于维护的回答,他并不满意,还有其他的吗?)
14.使用低代码有哪些痛点?(回答不够灵活,也不是特别满意)
15.那如何解决这个痛点?(低代码暴露了接口,可以自定义组件)
16.为什么要选择amis这个低代码?(性能很好)
17.你擅长使用的框架有哪些?(就Vue。。node也算是)
18.那node和浏览器有什么区别?(两个不同的运行环境。。)
19.你最佩服的人?
20.浏览器请求并发限制?(chrome浏览器允许同一个域名下最多6个并发请求)
21.那是http1.1,http2.0呢?(http2.0采用了多路复用,多个请求共用一个连接)
22.理论上是这样,可是实际呢?(。。。。。)
23.冯诺依曼模型有没有了解过?

20多分钟时面试官就直接进入了反问阶段,问了一下面评和提升点,面试官觉得亮点不够,我说我算法基础不错,为啥没考我手写代码?但他说每个面试官侧重点不一样,他觉得算法对于前端来说不是特别重要,本来是有两道代码题给你的,但是我省略了。。。没必要做了

OK,到此我就知道了面试的结果了,没有必要进行下去了。。。😭😭😭😭😭

原定60分钟的面试,结果25分钟就结束了。。何时才能找到心仪的offer,鼠鼠我好难受
全部评论
他怎么不问怎么造光刻机呢,纯折磨人的面试
1 回复 分享
发布于 04-05 16:27 江苏
佬 虚拟DOM的劣势咋回答的哇
点赞 回复 分享
发布于 05-20 16:50 广东
佬 面的是啥部门
点赞 回复 分享
发布于 05-15 21:00 广东
微派hr说就一两个hc,到现在还在找人面试,看到好多都是面了就挂
点赞 回复 分享
发布于 04-05 10:16 上海
感觉面试官是做计算机史研究的,而不是做前端
点赞 回复 分享
发布于 03-31 15:28 陕西
差不多的问题,最后我两道手撕都撕出来还是挂了
点赞 回复 分享
发布于 03-28 15:39 广东
佬,你是简历上写了低代码吗
点赞 回复 分享
发布于 03-28 14:19 辽宁
点赞 回复 分享
发布于 03-28 12:29 湖北

相关推荐

✴️算法面试中遇到一道实战场景题:在大模型训练中使用GRPO,训到一半 reward 就很容易突然掉下来的原因?GRPO 出现这个问题,需要详细了解强化学习(RL)的基本迭代架构,即 Actor-Critic 架构。知行互动(AC)架构为什么要有 Critic 呢?这就涉及强化学习的算法稳定性问题。与监督学习(SL)相比,RL 实际上是很难稳定的一类训练机制。💣大致的原因如下:RL 本身是处理动态系统的最优控制问题,而 SL 是处理一个静态优化问题。动,就比静更难处理。加上 RL 的数据非稳态,Env-agent 交互机制的数据采集量少,这使得梯度计算的方差更大,方差一大就容易偏离预期目标,算法就容易跑飞了。主流的强化学习算法是怎么解决这一问题的呢?加上 Critic,使用 State-value function 或者 Action-value function 稳定策略梯度的计算过程。更高级一些的算法是采用 Advantage Function,也就是加上了 Baseline,增加梯度计算的稳定性。这是 AC 算法总是优于 REINFORCE 算法的原因之一。✅然而 GRPO 并没有 Critic 部分,原因比较简单,因为 GRPO 是用于训练大模型(1000 亿级别的参数规模),若是使用“知行互动”架构的话,等于需要存储两个大模型。Critic Network和 Actor Network,对存储要求极高。怎么节约存储呢?把 Critic Network 去掉,替换为在线估计 Advantage function 的算法,采用了“时间(算力)”换“空间(存储)”的做法。这就是 GRPO 的设计思想。与之对比,OpenAI 提出的 PPO 算法(也是 GRPO 的基础算法),它的值函数通常是一个与策略模型大小相当的模型,这带来了显著的内存和计算负担。考虑到 OpenAI 并不缺算力资源,不缺存储资源,即使 PPO 算法设计的如此糟糕,照样用的风生水起。🤳回到最初的话题,从原理上看 GRPO 并非完美,与 PPO 相比实际上处于是半斤八两的水平,算法设计存在“稳定性”缺陷,但是为什么 DeepSeek 还能用的比较好呢?因为 DeepSeek 的数据足够多,多到可以“完美”地避开 GRPO 的稳定性缺陷。每次的 Policy Gradient 计算,只要 Batch 数据足够多,就能有效降低 Policy Gradient 的方差,就能获得比较稳定的迭代。当每次使用的数据批量比较小的时候,它的稳定性缺陷将是致命的。这类规模的策略训练,建议优先选择带有 Critic 的强化学习算法。🌟如果大家想了解高质量的项目辅导以及提升面试能力,欢迎后台咨询。    
点赞 评论 收藏
分享
评论
2
15
分享

创作者周榜

更多
牛客网
牛客企业服务