首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
在标准 Transformer 模型中,自注意力(Self-
[单选题]
在标准 Transformer 模型中,自注意力(Self-Attention)机制是其核心组件。假设输入序列的长度为 N,模型的隐藏层维度(或称为表示维度)为 d,那么标准自注意力模块的计算复杂度主要是?
O(N * d^2)
O(N^2 · d)
O(N · d)
O(N^2 * d^2)
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(21)
分享
纠错
0个回答
添加回答
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
深度学习
难度:
0条回答
21收藏
48浏览
热门推荐
相关试题
在CNN网络中,图A经过核为3x3...
算法工程师
顺丰集团
2019
深度学习
评论
(48)
来自
顺丰科技2019秋招视觉...
下面关于 Kotlin 中异常处理...
Kotlin
评论
(1)
在python3中,下列关于列表的...
Python
评论
(2)
来自
2024年秋招-蚂蚁集团...
在Verilog中,若用如下代码实...
Verilog
评论
(1)
在读多写少的场景中,需要一个 ma...
Go
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题