[ML]从最简单的撸起-python实现线性拟合数据
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[ML]从最简单的撸起-python实现线性拟合数据相关的知识,希望对你有一定的参考价值。
注明:本文并非教程,仅作为记录本人的日常学习历程而存在。
目标:实现将图中的大量红色X状标记拟合为图中所示的一条蓝色直线
基本思想:吴恩达的coursera机器学习课程变量线性回归章节;递度下降法
实现:
1.引入相关库:这里用到了python的科学计算库numpy和绘图库matplotlib
import numpy as np import matplotlib.pyplot as plt
2.虚拟生成数据:因为入门,暂时找不到现成的数据可以使用,故使用numpy的随机函数生成所需要的数据
#生成数据 data_size = 1000 x = np.random.randint(0,500,size=data_size) y = [] for i in range(data_size): y.append(x[i]*np.random.randint(1,30)+np.random.randint(100,5000)) plt.plot(x,y,‘rx‘)
3.定义拟合必须的参数与函数
因为公式中的x0默认为1,所以原始数据中需要为x0多加一列,可以理解为:x = [ 1,x ]
使用numpy.array的reshape函数生成numpy矩阵运算可用的数据格式。
gradient函数即为该方法的核心。具体公式的推导进程不详。
x = [[1,x[i]] for i in range(data_size)] X = np.array(x).reshape((data_size,2)) Y = np.array(y).reshape((data_size,1)) theta = np.zeros((2,1)) def gradient(x,y,theta): y_pred = x.dot(theta) diff = y_pred - y return np.sum(diff)/len(y)
4.进行拟合
max_iter = 1000 learning_rate = 0.0001 for i in range(max_iter): theta = theta - learning_rate * gradient(X,Y,theta)
5.画出该直线
result_x = np.linspace(0,500,50) result_y = theta[1] * result_x + theta[0] plt.plot(result_x,result_y)
6.总结
到此为止,已经可以拟合出代表数据集的一条直线了。但是,在学习过程中,学习速率的设定及结果的正确性都不得而知,所以,下一步引入代价函数cost function。
以上是关于[ML]从最简单的撸起-python实现线性拟合数据的主要内容,如果未能解决你的问题,请参考以下文章
机器学习之路: python线性回归 过拟合 L1与L2正则化