PyTorch学习1B站刘二大人《PyTorch深度学习实践》——线性模型(Linear Model)
Posted 小龙呀
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorch学习1B站刘二大人《PyTorch深度学习实践》——线性模型(Linear Model)相关的知识,希望对你有一定的参考价值。
b站课程链接:线性模型
1.基本思想:
给出了一组一维数据,定义了一个简单的线性拟合函数,通过穷举法来列出一些权重(拟合函数的系数),并计算这些权重对应的拟合损失函数(使用均方误差(MSE))。
Linear Model:
y
^
=
w
∗
x
\\haty=w*x
y^=w∗x (为了简化模型,未加偏置项b)
Training Loss (Error):
l
o
s
s
=
(
y
^
−
y
)
2
=
(
w
∗
x
−
y
)
2
loss=(\\haty-y)^2=(w*x-y)^2
loss=(y^−y)2=(w∗x−y)2
Mean Square Error:
c
o
s
t
=
1
N
∑
n
=
1
N
(
y
n
^
−
y
n
)
2
cost=\\frac1N\\displaystyle\\sum_n=1^N(\\haty_n-y_n)^2
cost=N1n=1∑N(yn^−yn)2
2.课程代码:
import numpy as np
import matplotlib.pyplot as plt
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
# 定义拟合函数
def forward(x):
return x * w
# 定义损失函数
def loss(x, y):
y_pred = forward(x)
return (y_pred - y) ** 2
# 存放权重(系数)和相应损失
w_list = []
mse_list = []
# 权重使用穷举法
for w in np.arange(0.0, 4.1, 0.1):
print("w=:.2f".format(w))
l_sum = 0
for x_val, y_val in zip(x_data, y_data):
y_pred_val = forward(x_val)
loss_val = loss(x_val, y_val)
l_sum += loss_val
print('\\t',":.2f :.2f :.2f :.2f".format(x_val, y_val, y_pred_val, loss_val))
print('MSE=:.2f'.format(l_sum / 3))
# 存储权重(系数)和相应损失
w_list.append(w)
mse_list.append(l_sum / 3)
# 可视化
plt.plot(w_list, mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()
3.运行结果(部分截图):
以上是关于PyTorch学习1B站刘二大人《PyTorch深度学习实践》——线性模型(Linear Model)的主要内容,如果未能解决你的问题,请参考以下文章
PyTorch学习2B站刘二大人《PyTorch深度学习实践》——梯度下降算法(Gradient Descent)
PyTorch学习2B站刘二大人《PyTorch深度学习实践》——梯度下降算法(Gradient Descent)
PyTorch深度学习——逻辑斯蒂回归(分类问题)(B站刘二大人P6学习笔记)