人工智能实践:神经网络优化

Posted xiaojianliu

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了人工智能实践:神经网络优化相关的知识,希望对你有一定的参考价值。

损失函数

神经元模型:用数学公式表示为:技术分享图片,f为激活函数。

神经网络:是以神经元为基本单元构成的。

激活函数:引入非线性激活因素,提高模型的表达力。

常用的激活函数有relu、sigmoid、tanh等。

① 激活函数relu: 在Tensorflow中,用tf.nn.relu()表示

    技术分享图片      技术分享图片

            relu()数学表达式                      relu()数学图形

② 激活函数sigmoid:在Tensorflow中,用tf.nn.sigmoid()表示

技术分享图片          技术分享图片       

   sigmoid ()数学表达式                     sigmoid()数学图形

 

 

 

以上是关于人工智能实践:神经网络优化的主要内容,如果未能解决你的问题,请参考以下文章

[好课推荐]人工智能实践:Tensorflow2.0

基于CDN边缘网络智能优化图片和视频

美团外卖推荐智能流量分发的实践与探索

美团外卖推荐智能流量分发的实践与探索

AIOps在携程的践行 | 活动通知

1024分论坛:人工智能创新应用的优化实践和多产业落地