资讯专栏INFORMATION COLUMN

激励函数的作用之sigmoid

Amio / 3387人阅读

摘要:首先看一下这个函数的图像,以值的值做为区分点,在值范围左右的轴数据为范围内的数据。实现核心思想是公式以上我所展示的是函数以及函数所产生的图像,以下我来说一下一般来说我们所希望激励函数应该是什么样子的。

首先看一下这个sigmoid函数的图像,以x值的0值做为区分点,在0值范围左右的y轴数据为0~1范围内的数据。

python实现:

from math import e

from matplotlib import pyplot as plt

xs = []
ys = []

def sigmoid(x):
    y = 1. / (1. + e **(-x))
    return y;

for x in range(-1000,1001):
    x = x * 0.1
    y = sigmoid(x)
    xs.append(x)
    ys.append(y)

print(xs)
print(ys)

plt.plot(xs,ys)
plt.show()

核心思想是公式:

以上我所展示的是sigmoid函数以及函数所产生的图像,以下我来说一下一般来说我们所希望激励函数应该是什么样子的。

通常来说,我们希望一个数据做了激励后,应该能明确的知道结果应该是true或false,但是对于这种函数,如:

def f(x):
    if(x < 0):
    return 0;
    if(x > 0):
    return 1;

所产生的函数是不连续且不可求导的,那么在计算过程中就会非常的不方便,sigmoid其实相当于做了折中处理。且在具体的计算过程中,根据实际情况,也许产生的S(x)可能取值在0~0.5以及0.5~1分别分成两类。也有可能是0~0.8,0.8~1。在具体的计算过程中可能会更灵活。

以上就当一个笔记,后续理解如果有出入,再做修改。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/41106.html

相关文章

  • 聊一聊深度学习中常用激励函数

    摘要:比如说,我们在逻辑回归中用到的函数就是一种激励函数,因为对于求和的结果输入,函数总会输出一个之间的值,我们可以认为这个值表明信号的强度或者神经元被激活和传导信号的概率。通过激励函数引入非线性因素后,使神经网络的表示能力更强了。  showImg(https://segmentfault.com/img/bVbikBg?w=758&h=324);showImg(https://segme...

    hellowoody 评论0 收藏0
  • 卷积神经网络

    摘要:卷积神经网络已经断断续续的学了大半年了,却发现自己还是一头雾水,连基本的概念都没搞清楚。将卷积神经网络的基本概念和原理理了一下,并整理出来,以供大家参考。   卷积神经网络已经断断续续的学了大半年了,却发现自己还是一头雾水,连基本的概念都没搞清楚。这两天在网上查了一些资料,看了一些教程。将卷积神经网络的基本概念和原理理了一下,并整理出来,以供大家参考。注:本文中有些结论是本人对卷积神经...

    hedge_hog 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<