Day 01
Posted 翻斗花园小美
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Day 01相关的知识,希望对你有一定的参考价值。
- hyperparameters 超参数
- Gradient Descent 梯度下降算法
- 先选一个初始的参数,W 、b,计算θ0对你的loss function的Gradient,也就是计算每一个network里面的参数,w1、w2、b1、b2......等等。对你的L(θ0)的偏微分,计算出这个东西之后,这个gradient其实是一个vector(向量),计算出这个vector之后,就可以去更新参数吧,然后这样计算,持续这个过程,计算θ1、θ2. ..
- 当我们用Gradient Descent方法的时候,跟我们在做Logistic Regression、还有Linear Regression等等,是没有太大的差别的,最大的差别是,在neural network里面,我们有非常非常多的参数,用Backpropagation来做(它也是Gradient Descent,不过它比较有效率去计算vector。)
- Backpropagation之Chain Rule (链式法则) 偏导数
- Sigmoid函数:常见的S型函数
- Optimization 最优化
- Overfitting 过拟合
- Perceptron 感知机
- Backpropagation 反向传播
- Logistic Regression 逻辑回归
- Mean Square error 均方误差
- Discrimination 区分度
- Generation Learning 生成学习
自学it18大数据笔记-第一阶段Java-day05-day06-day07-day08
笔记为自学时随手记录,如有错误,欢迎指正,不胜感激!
笔记分享:自学it18大数据笔记-第一阶段Java-day05-day06-day07-day08——会持续更新……
第一阶段Java-day03-day04见:http://t.cn/R65SR0f
day05笔记见下图:
day06笔记见下图:
day07笔记见下图:
day08笔记见下图:
以上是关于Day 01的主要内容,如果未能解决你的问题,请参考以下文章