PyTorch学习1B站刘二大人《PyTorch深度学习实践》——线性模型(Linear Model)

Posted 小龙呀

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorch学习1B站刘二大人《PyTorch深度学习实践》——线性模型(Linear Model)相关的知识,希望对你有一定的参考价值。

b站课程链接:线性模型

1.基本思想:
给出了一组一维数据,定义了一个简单的线性拟合函数,通过穷举法来列出一些权重(拟合函数的系数),并计算这些权重对应的拟合损失函数(使用均方误差(MSE))。

Linear Model: y ^ = w ∗ x \\haty=w*x y^=wx (为了简化模型,未加偏置项b)
Training Loss (Error): l o s s = ( y ^ − y ) 2 = ( w ∗ x − y ) 2 loss=(\\haty-y)^2=(w*x-y)^2 loss=(y^y)2=(wxy)2
Mean Square Error: c o s t = 1 N ∑ n = 1 N ( y n ^ − y n ) 2 cost=\\frac1N\\displaystyle\\sum_n=1^N(\\haty_n-y_n)^2 cost=N1n=1N(yn^yn)2

2.课程代码:

import numpy as np
import matplotlib.pyplot as plt

x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]

# 定义拟合函数
def forward(x):
    return x * w

# 定义损失函数
def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) ** 2

# 存放权重(系数)和相应损失
w_list = []
mse_list = []

# 权重使用穷举法
for w in np.arange(0.0, 4.1, 0.1):
    print("w=:.2f".format(w))
    l_sum = 0
    for x_val, y_val in zip(x_data, y_data):
        y_pred_val = forward(x_val)
        loss_val = loss(x_val, y_val)
        l_sum += loss_val
        print('\\t',":.2f :.2f :.2f :.2f".format(x_val, y_val, y_pred_val, loss_val))
    print('MSE=:.2f'.format(l_sum / 3))
    # 存储权重(系数)和相应损失
    w_list.append(w)
    mse_list.append(l_sum / 3)

# 可视化
plt.plot(w_list, mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()

3.运行结果(部分截图):

以上是关于PyTorch学习1B站刘二大人《PyTorch深度学习实践》——线性模型(Linear Model)的主要内容,如果未能解决你的问题,请参考以下文章

PyTorch学习2B站刘二大人《PyTorch深度学习实践》——梯度下降算法(Gradient Descent)

PyTorch学习2B站刘二大人《PyTorch深度学习实践》——梯度下降算法(Gradient Descent)

PyTorch深度学习——逻辑斯蒂回归(分类问题)(B站刘二大人P6学习笔记)

刘二第八讲,加载数据集

Pytorch反向传播实现——up主:刘二大人《PyTorch深度学习实践》

Pytorch实战笔记