第一句子网 - 唯美句子、句子迷、好句子大全
第一句子网 > 激活函数详解/为什么要用激活函数

激活函数详解/为什么要用激活函数

时间:2022-09-10 03:50:47

相关推荐

激活函数详解/为什么要用激活函数

Rectified Linear Unit(ReLU) - 用于隐层神经元输出Sigmoid - 用于隐层神经元输出Softmax -用于多分类神经网络输出Linear - 用于回归神经网络输出(或二分类问题)

为什么要使用sigmoid,tanh,ReLU等非线性函数?

这个原因大家都知道,为了增加非线性呗!

深度学习的目的是用一堆神经元堆出一个函数大致的样子,然后通过大量的数据去反向拟合出这个函数的各个参数,最终勾勒出函数的完整形状。

那如果激活函数只是线性函数,那一层层的线性函数堆起来还是线性的,这年头线性函数能干啥呀?

肯定不行,这样整个网络表现能力有限,所以要引入非线性的激活函数进来。

就是铅笔不够画的,咱得上带颜色、笔触更丰富的油画笔。> 深度学习常用激活函数之— Sigmoid & ReLU & Softmax

/Leo_Xu06/article/details/53708647?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。