变分自编码器(Variational Autoencoder, VAE)通俗教程
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了变分自编码器(Variational Autoencoder, VAE)通俗教程相关的知识,希望对你有一定的参考价值。
最佳阅读体验请前往原文地址: 变分自编码器(Variational Autoencoder, VAE)通俗教程—— 作者:邓范鑫
1. 神秘变量与数据集
现在有一个数据集DX(dataset, 也可以叫datapoints),每个数据也称为数据点。
X是一个实际的样本集合,我们假定这个样本受某种神秘力量操控,但是我们也无从知道这些神秘力量是什么?那么我们假定这股神秘力量有n个,起名字叫power1,power2,…,powern吧,他们的大小分别是z1,z2,…,zn,称之为神秘变量表示成一个向量就是
z也起个名字叫神秘组合。
一言以蔽之:神秘变量代表了神秘力量的神秘组合关系。
用正经的话说就是:隐变量(latent variable)代表了隐因子(latent factor)的组合关系。
这里我们澄清一下隶属空间,假设数据集DX是m个点,这m个点也应该隶属于一个空间,比如一维的情况,假如每个点是一个实数,那么他的隶属空间就是实数集,所以我们这里定义一个DX每个点都属于的空间称为XS,我们在后面提到的时候,你就不再感到陌生了。
神秘变量z可以肯定他们也有一个归属空间称为ZS。
下面我们就要形式化地构造X与Z的神秘关系了,这个关系就是我们前面说的神秘力量,直观上我们已经非常清楚,假设我们的数据集就是完全由这n个神秘变量全权操控的,那么对于X中每一个点都应该有一个n个神秘变量的神秘组合zj来神秘决定。
更多内容点击原文: 变分自编码器(Variational Autoencoder, VAE)通俗教程—— 作者:邓范鑫
以上是关于变分自编码器(Variational Autoencoder, VAE)通俗教程的主要内容,如果未能解决你的问题,请参考以下文章
Variational Auto-encoder(VAE)变分自编码器-Pytorch
Learning Notes变分自编码(Variational Auto-Encoder,VAE)
论文阅读生成模型——变分自编码器(Variational Auto-Encoder,VAE)
NIPS 2016图神经网络论文解读VGAE:图变分自编码器 Variational Graph Auto-Encoders(基于图的VAE)