Multi-Head Attention和FFN都独立地处理每个位置的向量,不进行位置间的信息交换。
FFN负责在不同位置间混合信息,而Multi-Head Attention则对每个位置的向量进行独立的非线性变换。
Multi-Head Attention在不同位置间混合信息,而FFN则对每个位置的向量进行独立的非线性变换。
Multi-Head Attention和FFN都负责在整个序列的不同位置间进行信息交换。
这道题你会答吗?花几分钟告诉大家答案吧!
扫描二维码,关注牛客网
下载牛客APP,随时随地刷题