首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
以下哪一个模型是用EM算法优化的?
[不定项选择题]
以下哪一个模型是用EM算法优化的?
Kmeans
HMM
GMM
DBSCAN
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(16)
分享
纠错
1个回答
添加回答
2
urnotbulbul
说HMM和GMM用EM算法优化,核心原因是:这两个模型都存在“不可观测的隐变量”(如HMM的状态、GMM的样本所属簇),导致其似然函数无法直接用梯度下降等方法最大化,而EM算法正是为“含隐变量的概率模型”设计的高效优化工具。 一、为什么HMM和GMM依赖EM算法? 1. 高斯混合模型(GMM) GMM假设数据由多个高斯分布混合生成,但每个样本具体来自哪个高斯分布(即“簇归属”)是隐变量。 - 直接最大化“观测数据的对数似然”时,因隐变量存在,似然函数会包含“求和嵌套对数”(难以直接求导); - EM算法通过两步迭代解决: - E步:计算每个样本属于各高斯分布的“后验概率(隶属度)”,将隐变量转化为“可观测的概率值”; - M步:基于E步得到的隶属度,更新每个高斯分布的参数(均值、协方差、权重),最大化“期望对数似然”。 2. 隐马尔可夫模型(HMM) HMM用于时序数据,核心是状态序列(如语音的音素状态、文本的语义状态)是隐变量,仅能观测到“状态对应的输出(如语音信号、文字)”。 - 当优化HMM的三大参数(初始状态概率、状态转移概率、观测概率)时,观测数据的似然函数因隐状态序列的存在而无法直接展开; - EM算法(在HMM中常称为“Baum-Welch算法”)通过两步迭代: - E步:用前向-后向算法计算“任意时刻处于某状态的概率”“任意时刻从状态i转移到j的概率”,将隐状态的信息转化为概率统计量; - M步:基于E步的统计量,更新HMM的三大参数,最大化“观测数据的期望对数似然”。
发表于 2025-08-31 18:10:42
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
机器学习
难度:
1条回答
16收藏
106浏览
热门推荐
相关试题
对于logistic regess...
百度
数理统计
机器学习
评论
(2)
请写出贝叶斯公式,请描述朴素贝叶斯...
百度
数理统计
机器学习
评论
(3)
如何判定训练出的模型过拟合?
百度
机器学习
评论
(6)
下列哪些运算不会排序()
SQL
评论
(1)
小O的叶子
树
图
OPPO
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题