首页> 中文学位 >基于高斯混合模型的变分自动编码器
【6h】

基于高斯混合模型的变分自动编码器

代理获取

目录

第1章 绪 论

1.1课题来源

1.2课题背景及研究的目的和意义

1.3本文的主要研究内容

1.4国内研究现状

1.5国外研究现状

1.6论文章节安排

第2章 变分自动编码器

2.1生成式对抗网

2.2标准的自动编码器

2.3变分自动编码器

2.4本章小结

第3章 基于高斯混合模型的变分自动编码器

3.1具有Normalizing flows的变分推理

3.2使用Householder Flow的变分推理

3.3高斯混合模型中KL散度的近似及变分推理

3.4本章小结

第4章 实验结果

4.1实验数据集

4.2模型之间的性能比较

4.3可视化数据

4.4实验结果分析

4.5本章小结

结论

参考文献

声明

致谢

展开▼

摘要

无监督学习作为一种能从无标签数据中学习真实世界的方法,它能把人类从数据的标签化中解放出来。费曼说过:做不出来就没有真正明白,评价无监督学习好坏的方式有很多,其中生成任务就是最直接的一个。只有当我们能生成/创造我们的真实世界,才能说明我们是完完全全理解了它。因此,生成模型成为了近年来无监督学习算法中最流行的算法之一。本文将介绍一种复杂分布无监督学习中最流行的生成模型之一,即变分自动编码器,一种能够自动生成数据的模型,它是将高维复杂图像分布降低成低维简单分布,从而再从低维简单分布中自动生成原始图像。目前的变分自动编码器中隐变量z的后验分布大多满足单个简单分布,比如高斯分布,这就造成低维表示太过简单。然而真实世界中有许多非高斯形态的分布,特别地,对于一些高度扭曲的多峰分布,一个高斯近似往往是不足够的。而数据集的隐空间也可能是任意复杂的分布。
  本研究为了提高后验分布的灵活性,我们把近似后验分布改为高斯混合模型,高斯混合模型的加入大大提高了变分自动编码器在数据集上的边缘似然。为了进一步提高后验分布的灵活性,我们在变分自编码器中引入了Normalizing Flows,并将Normalizing Flows与高斯混合模型结合。Normalizing Flows可以用来指定任意复杂的、灵活的、可缩放的近似后验分布,即一个简单的初始化密度函数通过运用一系列的可逆变换被转移成一个渴望获得的复杂分布。重新推导了高斯混合模型下变分自动编码器的变分下界,并获得了其对应的优化算法。由于Normalizing Flows的加入,高斯混合模型中的每一个单高斯都可以近似全协方差矩阵,即高斯混合模型的所有协方差矩阵都是非对角的,因此,基于高斯混合模型的变分自动编码器又被称为非对角高斯混合变分自动编码器(NDGMVAE)。NDGMVAE使得隐变量z能够更真实地匹配隐变量空间。进一步,为了提高变分自动编码器的图像生成清晰度,改进了变分自动编码器中编码器和解码器的结构,使用了最新的卷积神经网络(CNN)和具有门控机制的神经网络,我们还对不同结构的变分自动编码器的变分下界进行了比较。为了证明新引入的后验分布更加的灵活,能够更真实地匹配隐变量空间,我们基于 MNIST数据集、OMNIGLOT数据集和 Histopathology数据集进行了实验,着重比较了各个数据集下的 log似然的变分下界,并且在 MNIST、OMNIGLOT和Freyfaces数据集上进行了可视化,比较了MNIST对应的隐变量分布。不仅如此,我们还基于不同高斯混合个数、不同高斯混合系数和Normalizing Flows的长度做了相应的实验。总之,新改进地基于高斯混合模型的变分自动编码器在性能和变分推理的各种应用上都有一个明显的提高,并且在理论上也具有优势。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号