使用变分自编码器VAE
			训练出深度生成模型
谭创创
第十四次课程
课程一:机器学习背景知识以及业务架构介绍
课程二:机器学习实验工具PAI介绍  
课程三:个性化推荐-基于协同过滤的物品推荐
课程四:个性化推荐-基于用户画像的物品推荐  
课程五:文本挖掘-新闻自动分类
课程六:文本挖掘-文本关键信息抽取、相似度分析  
课程七:如何实现图像分类——深度学习TensorFlow 入门篇
课程八:如何实现图像识别——深度学习TensorFlow 基础篇
课程九:如何实现图像识别——深度学习TensorFlow 高级篇
课程十、机器学习PAI之图像分类——Caffe基础篇
课程十一、手把手在线直播实操:机器学习PAI教你如何品酒
课程十二、 CTR中的GBDT+LR融合方案
课程十三、使用深度神经网络进行CTR预测
数据说明
1
原理
2
PAI 上实验
3
数据集介绍
MNIST是一个入门级的计算机视觉数据集,它包含各种手写数字图片,六万的训练集和一万的测试集。
它的图片是被规范处理过的,是一张被放在中间部位的28px*28px的灰度图
train-images-idx3-ubyte: training set images
train-labels-idx1-ubyte: training set labels
t10k-images-idx3-ubyte:  test set images
t10k-labels-idx1-ubyte:  test set labels
数据说明
1
原理
2
PAI 上实验
3
2
1
变分自编码器
无监督学习
深度生成模型
概率图模型  +  神经网络
编码器                                           解码器
Kingma et al. Auto-Encoding Variational Bayes.
Doersch. Tutorial on Variational Autoencoders.
隐变量先验分布 p(z;θ)一般假设为各向同性的标准高斯分布N(z; 0, I)。
可观测变量
隐藏变量
自编码器
重新参数化
编码器
                         KL散度      
                        课程/学习/te/深度/set/机器/推荐/编码器/图像/实验/  
                        
                          课程/学习/te/深度/set/机器/推荐/编码器/图像/实验/  
                        
                        
                        
                        
                    -->