机器学习中的线性代数
Posted Vinicier
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习中的线性代数相关的知识,希望对你有一定的参考价值。
第二章 机器学习中的线性代数知识
线性代数作为数学中的一个重要的分支,广发应用在科学与工程中。掌握好线性代数对于理解和从事机器学习算法相关的工作是很有必要的,尤其是对于深度学习而言。因此,在开始介绍深度学习之前,先集中探讨一些必备的线性代数知识。
2.1 标量,向量,矩阵和张量
标量(scalar):一个标量就是一个单独的数。用斜体表示标量,如 s∈R .
向量(vector):一个向量是一列数,我们用粗体的小写名称表示向量。比如
x
,将向量
x
写成方括号包含的纵柱:
矩阵(matrix):矩阵是二维数组,我们通常赋予矩阵粗体大写变量名称,比如 A 。如果一个矩阵高度是 m ,宽度是 n ,那么说 A∈Rm×n 。一个矩阵可以表示如下:
A=[x11x21x12x22]
张量(tensor):某些情况下,我们会讨论不止维坐标的数组。如果一组数组中的元素分布在若干维坐标的规则网络中,就将其称为张量。用 A 表示,如张量中坐标为 (i,j,k) 的元素记作 Ai,j,k 。
转置(transpose):矩阵的转置是以对角线为轴的镜像,这条从左上角到右下角的对角线称为主对角线(main diagonal)。将矩阵
A
的转置表示为
A⊤
。定义如下:
A=⎡⎣⎢x11x21x31x12x22x32⎤⎦⎥⟹A⊤=[x11x21x21x22x31x32]
2.2 矩阵和向量相乘
矩阵乘法是矩阵运算中最重要的操作之一。两个矩阵
A
和
B
的矩阵乘积(matrix product)是第三个矩阵
C
。矩阵乘法中
A
的列必须和
B
的行数相同。即如果矩阵
A
的形状是
m×n
,矩阵
B
的形状是
n×p
,那么矩阵
C
的形状就是
m×p
。即
具体的地,其中的乘法操作定义为
机器学习的数学基础