Local Sensitivity 局部敏感度
Posted myjs999
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Local Sensitivity 局部敏感度相关的知识,希望对你有一定的参考价值。
记
x
⃗
\\vec x
x为一批的输入数据,是一个
n
×
c
x
n\\times c_x
n×cx的矩阵,
n
n
n是批大小,
c
x
c_x
cx是每条输入数据的维数。
记除去输入层、误差层以外的层数为
L
L
L。这
L
L
L层的每一层的输出记为
y
⃗
l
(
l
=
1
,
⋯
,
L
)
\\vec y_l(l=1,\\cdots,L)
yl(l=1,⋯,L),输入是
x
⃗
(
l
=
1
)
\\vec x(l=1)
x(l=1)或
y
⃗
l
−
1
(
l
>
1
)
\\vec y_{l-1}(l>1)
yl−1(l>1),记为
x
⃗
l
\\vec x_l
xl。误差层的输入是
y
⃗
L
\\vec y_L
yL。层参数的下标自然就是
l
l
l。注意,如果误差计算采用交叉熵误差,那么认为软极函数计算即为第
L
L
L层;如果是欧氏距离误差(MSE)则按前述规则理解。由于MSE事实上需要第
L
L
L层为一个激活函数层,因此可以认为这么做具有实践意义。
记
l
l
l层的局部敏感度为
δ
⃗
l
=
∂
E
∂
y
⃗
l
\\vec\\delta_l=\\frac{\\partial E}{\\partial \\vec y_l}
δl=∂yl∂E也就是误差对这一层输出的偏导数。因此,
δ
⃗
L
\\vec\\delta_L
δL就是误差层输出(也就是误差)对输入的偏导数。
众所周知,我们需要计算
E
E
E对每一层参数的梯度。对于线性层,
∂
E
∂
W
⃗
l
=
δ
⃗
l
∂
y
⃗
l
∂
W
⃗
l
=
δ
⃗
l
x
⃗
l
\\frac{\\partial E}{\\partial \\vec W_l}=\\vec\\delta_l\\frac{\\partial \\vec y_l}{\\partial\\vec W_l}=\\vec\\delta_l\\vec x_l
∂Wl∂E=δl∂Wl∂yl=δlxl。其中的乘法是矩阵乘法。假设
W
⃗
l
\\vec W_l
Wl是
c
x
l
×
c
y
l
c_{x_l} \\times c_{y_l}
cxl×cyl的,
δ
⃗
l
\\vec \\delta_l
δl和
y
⃗
l
\\vec y_l
yl是
n
×
c
y
l
n\\times c_{y_l}
n×cyl的,那么上面那个矩阵乘法正确表述应该是
x
⃗
l
T
δ
⃗
l
\\vec x_l^T\\vec\\delta_l
xlTδl。而
∂
E
∂
b
⃗
l
=
δ
⃗
l
∂
y
⃗
l
∂
b
⃗
l
=
δ
⃗
l
\\frac{\\partial E}{\\partial \\vec b_l}=\\vec\\delta_l\\frac{\\partial\\vec y_l}{\\partial \\vec b_l}=\\vec\\delta_l
∂bl∂E=δAUC 评价指标详解,准确率(ACC),敏感性(sensitivity),特异性(specificity)计算 Python3TensorFlow2入门手册
局部敏感哈希(Locality-Sensitive Hashing, LSH)