变分自编码器(Variational Autoencoder, VAE)通俗教程

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了变分自编码器(Variational Autoencoder, VAE)通俗教程相关的知识,希望对你有一定的参考价值。

最佳阅读体验请前往原文地址: 变分自编码器(Variational Autoencoder, VAE)通俗教程—— 作者:邓范鑫

1. 神秘变量与数据集

现在有一个数据集DX(dataset, 也可以叫datapoints),每个数据也称为数据点。

X是一个实际的样本集合,我们假定这个样本受某种神秘力量操控,但是我们也无从知道这些神秘力量是什么?那么我们假定这股神秘力量有n个,起名字叫power1,power2,…,powern吧,他们的大小分别是z1,z2,…,zn,称之为神秘变量表示成一个向量就是

技术分享

z也起个名字叫神秘组合。

 

一言以蔽之:神秘变量代表了神秘力量的神秘组合关系。

用正经的话说就是:隐变量(latent variable)代表了隐因子(latent factor)的组合关系。

 

这里我们澄清一下隶属空间,假设数据集DX是m个点,这m个点也应该隶属于一个空间,比如一维的情况,假如每个点是一个实数,那么他的隶属空间就是实数集,所以我们这里定义一个DX每个点都属于的空间称为XS,我们在后面提到的时候,你就不再感到陌生了。

 

神秘变量z可以肯定他们也有一个归属空间称为ZS。

 

下面我们就要形式化地构造X与Z的神秘关系了,这个关系就是我们前面说的神秘力量,直观上我们已经非常清楚,假设我们的数据集就是完全由这n个神秘变量全权操控的,那么对于X中每一个点都应该有一个n个神秘变量的神秘组合zj来神秘决定。

 

更多内容点击原文: 变分自编码器(Variational Autoencoder, VAE)通俗教程—— 作者:邓范鑫

以上是关于变分自编码器(Variational Autoencoder, VAE)通俗教程的主要内容,如果未能解决你的问题,请参考以下文章

Variational Auto-encoder(VAE)变分自编码器-Pytorch

Learning Notes变分自编码(Variational Auto-Encoder,VAE)

论文阅读生成模型——变分自编码器(Variational Auto-Encoder,VAE)

NIPS 2016图神经网络论文解读VGAE:图变分自编码器 Variational Graph Auto-Encoders(基于图的VAE)

变分自编码器解析

VAE(Variational Autoencoder)的原理