继续来分享下之前的面经~欢迎友好讨论,信息共享1. 详细对比CPU、GPU、NPU的硬件架构优缺点及适用场景2. 为什么NPU适合AI计算?(Unified Buffer、矩阵加速单元)3. NVIDIA GPU的内存组织架构和计算调度逻辑4. 为什么要设计Warp?Warp Scheduler是如何工作的?(掩盖访存延迟)5. GEMM(矩阵乘)在GPU上的经典优化手段(Shared Memory分块、向量化读写、Double Buffer)6. 大规模Reduction(归约)操作怎么做?(Warp级归约 -> Block级归约 -> Global原子加 vs 多Kernel级联)7. 多态的实现机制(编译时多态 vs 运行时多态)8. 构造函数和析构函数可以是虚函数吗?为什么?9. 继承关系下构造与析构的执行顺序。10. 智能指针详解(unique_ptr, shared_ptr, weak_ptr及循环引用解决)