1、自我介绍2、项目拷打3、介绍 DeepSeek 与 Manus,以及他们之间区别4、介绍 LLM Decoder-Only 架构Decoder-Only 架构本质上就是只使用 Transformer 里的 Decoder 结构,通过自回归的方式一个 token 一个 token 地往后生成内容。它的训练目标通常是 next token prediction,也就是根据前面的上下文预测下一个 token。它的关键点在于 Masked Self-Attention。所谓 masked,就是当前位置只能看到前面的 token,看不到后面的 token,这样模型才能按从左到右的方式学习生成。整体结...