00.Andrew机器学习week1

Posted lizyang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了00.Andrew机器学习week1相关的知识,希望对你有一定的参考价值。

## Introduction

机器学习的定义

  • give computers the ability to learn without being explicitly programmed.
    T:明白任务是什么,比如将邮件分为垃圾邮件(1)和正常邮件(0)
    E:有足够的经验来供模型学习
    P:有一定判断来度量学习情况的好坏

课程内容

机器学习算法

  • 监督学习(有label)
  1. 分类:label是离散的(垃圾邮件分类)
  2. 回归:label连续(房价预测)
  • 非监督
  1. 聚类
  2. 降维
  3. 异常检测

其他

强化学习、推荐系统

## Surpervised Learning

定义

利用一组已知类别的样本来调整分类器的参数。也被分为regression和classificaiton问题

举例

  • 对房价进行预测(连续)
    对于连续数据的又称 regression问题

  • 肿瘤预测(离散)
    对于离散数据又称为classification问题。

支持向量机:处理无限长特征

## unsupervised learning

定义

没有标签,只有数据集,判断出不同的聚类

举例

  • 聚类(clustering):算法自动将相同元素分为紧密关系的子集或簇
  1. 网站中将类型相同文章进行分类

  2. 识别不同人,按照基因相同部分进行分类

  • 非聚类
    鸡尾酒问题

    给出混合信号,分理处每个人的独立信号。用octave工具可轻松处理。

  • 工具:octave matlab

## 线性回归算法

监督学习算法的模型

给定一个训练数据集,(x(i),y(i)) 。X表示输入,Y表示输出。得到一个从X->Y的映射函数h.

Hypothesis function

  • 选择参数
  • Cost Function
    评价hypothesis function通过使用代价函数,找到使代价函数最小值的参数。
    (平方差代价函数)

gradient descent algorithm

(梯度下降算法)

  • 定义:不断调整找到使得任何代价函数取值最小的参数θ0,θ1.(不止是线性回归代价函数)

  • 过程:
    同时调整θ0,θ1,直到局部最优解处停止,learning rate不能太大太小。

gradient descent for linear regression

不断调整参数使得假设函数越来越精确。

Matrix and vectors

Matrix

  • def:rectangular array of numbers

vector

  • def:an n*1 matrix
    默认1-index










以上是关于00.Andrew机器学习week1的主要内容,如果未能解决你的问题,请参考以下文章

吴恩达-coursera-机器学习-week1

机器学习- 吴恩达Andrew Ng Week1 知识总结 Introduciton

吴恩达《深度学习》-课后测验-第三门课 结构化机器学习项目(Structuring Machine Learning Projects)-Week1 Bird recognition in the c

python学习week1

Coursera课程《Machine Learning》学习笔记(week1)

Coursera课程《Machine Learning》学习笔记(week1)