Learning with Errors

Posted MrCharles

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Learning with Errors相关的知识,希望对你有一定的参考价值。

【from wiki】
容错学习问题 (通常称LWE问题,是 Learning with errors 的缩写)是一个机器学习领域中的怀疑难解问题。由 Oded Regev 在2005年提出,他因此赢得2018年哥德尔奖。这是一个极性学习问题的一般形式。Regev同时证明了LWE问题至少比几个最坏情况下的格问题要难。这个问题在最近[1][2] 被用作一种难度假设以创建公钥密码系统,例如 Peikert 提出的容错环学习密钥交换。

虽然来自机器学习领域,但是学习时出错问题实际上是理论计算机科学中的计算复杂度问题。用简单易懂的方式来说,问题如下。

14 ⋅ s 1 + 15 ⋅ s 2 + 5 ⋅ s 3 + 2 ⋅ s 4 ≈ 8   m o d   1 7 \\displaystyle 14\\cdot s_1+15\\cdot s_2+5\\cdot s_3+2\\cdot s_4\\approx 8\\bmod 17 14s1+15s2+5s3+2s48mod17
13 ⋅ s 1 + 14 ⋅ s 2 + 14 ⋅ s 3 + 6 ⋅ s 4 ≈ 16   m o d   1 7 \\displaystyle 13\\cdot s_1+14\\cdot s_2+14\\cdot s_3+6\\cdot s_4\\approx 16\\bmod 17 13s1+14s2+14s3+6s416mod17
6 ⋅ s 1 + 10 ⋅ s 2 + 13 ⋅ s 3 + 1 ⋅ s 4 ≈ 3   m o d   1 7 \\displaystyle 6\\cdot s_1+10\\cdot s_2+13\\cdot s_3+1\\cdot s_4\\approx 3\\bmod 17 6s1+10s2+13s3+1s43mod17

我提供类似的许多的线性多项式,让你来求 s 1 ⋯ s 4 \\displaystyle s_1\\cdots s_4 s1s4。这就是容错学习问题。这一问题的关键就在于每个等式都是约等于,有一定误差(所谓的“出错”)。这个误差可以遵循一个离散随机分布,例如,有的时候左边比右边大1,有的时候左边比右边小1,还有的时候两边相等。如果假设所有式子都是直等,那这个问题就太简单了。只要有足够的式子,那么使用常见的高斯消元法,在多项式时间内就能轻易求出 s 1 ⋯ s 4 \\displaystyle s_1\\cdots s_4 s1s4。误差的引入,导致如果你用高斯消元,那么所有的式子加到一起之后误差也加了起来,噪音过大,导致你无法从噪音中读取任何信息。这就是此问题的精华。

以上是关于Learning with Errors的主要内容,如果未能解决你的问题,请参考以下文章

Learning with Errors

Learning with Errors

Deep Learning -- 数据增强

machine learning 机器学习入门(四)

(转) Learning Deep Learning with Keras

Ruby field_with_errors 不 @extend .control-group .error