原Andrew Ng斯坦福机器学习——Lecture 2_Linear regression with one variable
Posted maxiaodoubao
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了原Andrew Ng斯坦福机器学习——Lecture 2_Linear regression with one variable相关的知识,希望对你有一定的参考价值。
Lecture2 Linear regression with one variable 单变量线性回归
2.1 模型表示.
2.2 代价函数
2.3 代价函数的直观理解 I
2.4 代价函数的直观理解 II
2.5 梯度下降
2.6 梯度下降的直观理解
2.7 梯度下降的线性回归
2.8 接下来的内容
2.1 模型表示
视频: 2 - 1 - Model Representation (8 min)
一、Model representation 模型表示
1、
2、
2.2 代价函数
视频 2 - 2 - Cost Function (8 min)
2.3 代价函数的直观理解 I
参考视频: 2 - 3 - Cost Function - Intuition I (11 min).mkv
视频: 2 - 4 - Cost Function - Intuition II (9 min)
2.4 代价函数的直观理解 II
视频: 2 - 5 - Gradient Descent (11 min)
视频: 2 - 6 - Gradient Descent Intuition (12 min)
2.6 梯度下降的直观理解
视频: 2 - 7 - GradientDescentForLinearRegression (6 min)
视频: 2 - 8 - What_‘s Next (6 min)
2.8 接下来的内容
四、
1、
2、
3、
视频 1 - 4 - Unsupervised Learning (14 min)
五、
以上是关于原Andrew Ng斯坦福机器学习——Lecture 2_Linear regression with one variable的主要内容,如果未能解决你的问题,请参考以下文章
原Andrew Ng斯坦福机器学习——Lecture 6_Logistic Regression
原Andrew Ng斯坦福机器学习——Lecture 2_Linear regression with one variable
原Andrew Ng斯坦福机器学习——Lecture 5 Octave Tutorial—5.5 控制语句: for, while, if 语句
斯坦福公开课-机器学习1.机器学习的动机和应用(吴恩达 Andrew Ng)