优化算法(Optimization algorithms)

Posted easy-wang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了优化算法(Optimization algorithms)相关的知识,希望对你有一定的参考价值。

1.Mini-batch 梯度下降(Mini-batch gradient descent)


batch gradient descent :一次迭代同时处理整个train data

Mini-batch gradient descent: 一次迭代处理单一的mini-batch (X{t} ,Y{t})

技术分享图片

Choosing your mini-batch size : if train data m<2000 then batch ,else mini-batch=64~512 (2的n次方),需要多次尝试来确定mini-batch size

2.指数加权平均数(Exponentially weighted averages):


指数加权平均数的公式:技术分享图片在计算时可视Vt 大概是1/(1-B)的每日温度,如果B是0.9,那么就是十天的平均值,当B较大时, 指数加权平均值适应更缓慢

指数加权平均的偏差修正:

技术分享图片

 3.动量梯度下降法(Gradinent descent with Momentum)


 技术分享图片

 4.RMSprop算法(root mean square prop):


技术分享图片

5.Adam 优化算法(Adam optimization algorithm):

Adam 优化算法基本上就是将Momentum 和RMSprop结合在一起

技术分享图片

技术分享图片

技术分享图片

6.学习率衰减(Learning rate decay):

加快学习算法的一个办法就是随时间慢慢减少学习率,这样在学习初期,你能承受较大的步伐,当开始收敛的时候,小一些的学习率能让你步伐小一些。

技术分享图片

技术分享图片

 

以上是关于优化算法(Optimization algorithms)的主要内容,如果未能解决你的问题,请参考以下文章

近端策略优化算法(Proximal Policy Optimization Algorithms, PPO)

详解生物地理学优化算法(BBO)Biogeography-Based Optimization

Matlab实现算术优化算法(The Arithmetic Optimization Algorithm)

Matlab实现算术优化算法(The Arithmetic Optimization Algorithm)

标准粒子群优化(Particle Swarm Optimization, PSO)算法

Python使用bayesian-optimization包的BayesianOptimization算法构建贝叶斯优化器获取机器学习模型最优超参数组合实战+代码