神经网络与人脑学习力

Posted FPGA2嵌入式

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了神经网络与人脑学习力相关的知识,希望对你有一定的参考价值。

1. 人脑神经网络的质变和量化(个人理解)

    人脑有很多神经细胞,这些神经细胞彼此联系在一起就形成了神经网络,彼此之间的联系通过神经突触等量化联系的强度,最终就实现了对外部信号高级的处理能力。

    在这个过程中,神经细胞的量变引起质变,神经突触等联系神经元对信号处理进行量化就能实现精确复杂的功能,简单说就是神经细胞量变到质变,再加神经突触等量化让人脑神经网络拥有其它生物没有的复杂特性,成为地球上高等的物种。

    有个很奇怪的现象,按照光学知识进入我们大脑的图像其实是倒立的,但为什么我们看到的图像又是正立的,因为我们人脑中的神经网络的神经突触在不断学习和更新,它可以把倒立的图像处理后变成正立的图像。

    1. 如果我们在眼睛前面戴一个凸凸镜将图像倒立后,我们刚开始会看到这个图像是倒立的,但随着时间久了过后,我们在这个倒立图像下可以正常生活和工作;

    2. 如果此时又拿掉凸凸镜,我们又发现图像不正常,我们没法正常生活和工作,需要学习一段时间后,才能和以前一样正常生活和工作

    所以,我们的人脑其实是在不断的大量更新神经突触量化的工作来实现拥有新能力,如果我们能够合理科学的来触发这个量变和量化,就可以更好的学习新的东西,增强我们的学习力。

神经网络与人脑学习力

2. 神经网络学习和学习力类比学习

    模型:不同的神经网络结构就可以组成不同的模型,实现不同的功能,同样人脑也要有结构性思维方式,这样就能快速高效逻辑性很强的去解决问题。

    算力:做AI的时候,会经常说AI的算力是多少,这个算力指的就是AI芯片单位时间内可以运算的能力,这个可以理解为人脑中神经细胞的多少,我们大多数普通人的神经细胞相差不大,这个我们并不比别人差。

    散热:AI芯片或者我们知道目前大部分神经网络都是用GPU做,也就是一个显卡都要配一个大大的散热器来散热,对我们人脑也是一样不要没事瞎想,人脑消耗的能量很大,要让它休息好,科学用脑,爱脑。

    损失函数:神经网络中训练的过程有一个损失函数来评估训练学习的效果,不断反馈和迭代,同样人脑学习的时候,也要有明确的目的,才能让自己的学习效果效率更高。

    层连接:神经网络中有层的概念,通过不同层的联系就可以实现不同的模型,因此,人脑也要有层次的关系,按部就班一步步来,最终就可以更好实现目标。

    Dropout层:神经网络中有一个Dropout,通过丢弃神经元来让神经网络的性能更强大,所以我们的人脑在进化中有遗忘的功能就是为了能更好的学习,该舍弃的时候就该舍弃,人脑需要它。

    权重:神经网络中通过权重来量化连接的强度,而人脑是通过神经突触等来量化强度,所以我们有意来强化自己的神经突触达到增强记忆的目的。

    预训练:神经网络在训练的时候有一个预训练的权重可以加快训练的速度,同样,人脑也有以往人或者自己的经验可以来加快学习的速度,所以我们学习的时候要充分的联系类比。

    迭代:神经网络学习的时候需要通过不断的反馈迭代来学习某种能力,所以我们人脑也在不断的反馈和迭代,我们也应该在学习的过程中注重这种反馈和迭代。

3. 康奈尔笔记法


长按左侧关注

共同学习FPGA2嵌入式


注: 原创不易,未经本人授权,禁止转载,转载必究。


以上是关于神经网络与人脑学习力的主要内容,如果未能解决你的问题,请参考以下文章

《神经网络与机器学习》导言

被誉为“人脑思维第二方式”的神经网络算法模型,今天它来了!

如何通过Python进行深度学习?

深度学习-卷积神经网络-算法比较

惊悚!人脑与卷积神经网络的诡异对应,识别三维图形反应模式非常相似

深度学习与神经网络