详解凸优化图神经网络强化学习贝叶斯方法等四大主题
Posted DataFunTalk
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了详解凸优化图神经网络强化学习贝叶斯方法等四大主题相关的知识,希望对你有一定的参考价值。
市面上有这么一个训练营,聚集了AI领域未来的精英,大部分学员来自QS前100的学校以及BAT,FLAG等公司,这个训练营正是贪心学院的《机器学习高端训练营》,这个训练营的目的很简单:想培养更多高端的人才,帮助那些即将或者目前从事科研的朋友,同时帮助已从事AI行业的提高技术深度。
在本期训练营(第四期)中我们对内容做了大幅度的更新,一方面新增了对前沿主题的讲解如图神经网络(GCN,GAT等),另外一方面对核心部分(如凸优化、强化学习)加大了对理论层面上的深度。除此之外,也会包含科研方法论、元学习、解释性、Fair learning等系列主题。目前在全网上应该找不到类似体系化的课程。课程仍然采用全程直播授课模式。
那什么样的人适合来参加高阶班呢?
从事AI行业多年,但技术上总感觉不够深入,感觉在技术上遇到了瓶颈;
停留在使用模型/工具上,很难基于业务场景来提出新的模型;
对于机器学习背后的优化理论、前沿的技术不够深入;
计划从事尖端的科研、研究工作、申请AI领域研究生、博士生;
打算进入最顶尖的AI公司比如Google,Facebook,Amazon, 阿里,头条等;
读ICML,IJCAI等会议文章比较吃力,似懂非懂感觉,无法把每个细节理解透;
从优化角度理解机器学习
优化技术的重要性
常见的凸优化问题
线性规划以及Simplex Method
Two-Stage LP
案例:运输问题讲解
凸集的判断
First-Order Convexity
Second-order Convexity
Operations Preserve Convexity
二次规划问题(QP)
案例:最小二乘问题
项目作业:股票投资组合优化
常见的凸优化问题类别
半定规划问题
几何规划问题
非凸函数的优化
松弛化(Relaxation)
整数规划(Integer Programming)
案例:打车中的匹配问题
拉格朗日对偶函数
对偶的几何意义
Weak and Strong Duality
KKT条件
LP, QP, SDP的对偶问题
案例:经典模型的对偶推导及实现
对偶的其他应用
一阶与二阶优化技术
Gradient Descent
Subgradient Method
Proximal Gradient Descent
Projected Gradient Descent
SGD与收敛
Newton's Method
Quasi-Newton's Method
向量空间和图论基础
Inner Product, Hilbert Space
Eigenfunctions, Eigenvalue
傅里叶变化
卷积操作
Time Domain, Spectral Domain
Laplacian, Graph Laplacian
卷积神经网络回归
卷积操作的数学意义
Graph Convolution
Graph Filter
ChebNet
CayleyNet
GCN
Graph Pooling
案例:基于GCN的推荐
Spatial Convolution
Mixture Model Network (MoNet)
注意力机制
Graph Attention Network(GAT)
Edge Convolution
空间域与谱域的比较
项目作业:基于图神经网络的链路预测
拓展1: Relative Position与图神经网络
拓展2:融入Edge特征:Edge GCN
拓展3:图神经网络与知识图谱: Knowledge GCN
拓展4:姿势识别:ST-GCN
案例:基于图的文本分类
案例:基于图的阅读理解
Markov Decision Process
Bellman Equation
三种方法:Value,Policy,Model-Based
Value-Based Approach: Q-learning
Policy-Based Approach: SARSA
Multi-Armed bandits
Epsilon-Greedy
Upper Confidence Bound (UCB)
Contextual UCB
LinUCB & Kernel UCB
案例:Bandits在推荐系统的应用案例
Monte-Carlo Tree Search
N-step learning
Approximation
Reward Shaping
结合深度学习:Deep RL
项目作业:强化学习在游戏中的应用案例
Seq2seq模型的问题
结合Evaluation Metric的自定义loss
结合aspect的自定义loss
不同RL模型与seq2seq模型的结合
案例:基于RL的文本生成
第十四周:贝叶斯方法论简介
贝叶斯定理
从MLE, MAP到贝叶斯估计
集成模型与贝叶斯方法比较
计算上的Intractiblity
MCMC与变分法简介
贝叶斯线性回归
贝叶斯神经网络
案例:基于Bayesian-LSTM的命名实体识别
第十五周:主题模型
生成模型与判别模型
隐变量模型
贝叶斯中Prior的重要性
狄利克雷分布、多项式分布
LDA的生成过程
LDA中的参数与隐变量
Supervised LDA
Dynamic LDA
LDA的其他变种
项目作业:LDA的基础上修改并搭建无监督情感分析模型
Detailed Balance
对于LDA的吉布斯采样
对于LDA的Collapsed吉布斯采样
Metropolis Hasting
Importance Sampling
Rejection Sampling
大规模分布式MCMC
大数据与SGLD
案例:基于分布式的LDA训练
变分法核心思想
KL散度与ELBo的推导
Mean-Field变分法
EM算法
LDA的变分法推导
大数据与SVI
变分法与MCMC的比较
Variational Autoencoder
Probabilistic Programming
案例:使用概率编程工具来训练贝叶斯模型
模型的可解释性
解释CNN模型
解释序列模型
Meta Learing
Fair Learning
技术前瞻
以上是关于详解凸优化图神经网络强化学习贝叶斯方法等四大主题的主要内容,如果未能解决你的问题,请参考以下文章
机器学习强基计划4-3:详解朴素贝叶斯分类原理(附例题+Python实现)
优化预测基于matlab贝叶斯优化LSTM预测含Matlab源码 1329期