提供patch之间的语义关系
为模型提供patch的空间位置信息,因为self-attention本身是排列不变的
减少模型的参数量
增强模型对旋转的不变性
这道题你会答吗?花几分钟告诉大家答案吧!
扫描二维码,关注牛客网
下载牛客APP,随时随地刷题