神经网络

神经元模型

  • 神经网络的定义

    由具有适应性的简单单元组成的广泛并行互联的网络,它的组织能够模拟生物神经系统对真实无知所作出的交互反应

image-20200602223144555.png
  • 机器学习中的神经网络指“神经网络学习”,是机器学习与神经网络的交叉部分

  • 神经网络中最基本的成分是神经元模型,它的状态由激活函数、阈值和权值三个概念决定

    • 神经元模型

      1. M-P神经元模型(McCullock-Pitts neuron)


        image-20200602222548424.png
      2. Frank Rossenblatt感知器学习法则


        image-20200602223441829.png
      • 激活函数

        1. 阶跃函数
        • 优点:将输入值映射到0和1两个值
        • 缺点:不具有连续函数的性质


          image-20200602223814738.png
        1. Sigmoid函数
        • 优点:连续且能够把输入的连续实值变换为0和1之间的输出
        • 缺点:
          1. 在深度神经网络中梯度反向传递时导致梯度爆炸和梯度消失,其中梯度爆炸发生的概率非常小,而梯度消失发生的概率比较大
          2. Sigmoid 的 output 不是0均值(即zero-centered)。这是不可取的,因为这会导致后一层的神经元将得到上一层输出的非0均值的信号作为输入。
          3. 其解析式中含有幂运算,计算机求解时相对来讲比较耗时。对于规模比较大的深度网络,这会较大地增加训练时间。


          image-20200602223844538.png
        1. tanh函数(Hyperbolic Tangent)
        • 优点:它解决了Sigmoid函数的不是zero-centered输出问题

        • 缺点:梯度消失(gradient vanishing)的问题和幂运算的问题仍然存在


          image-20200602224140406.png

          image-20200602224642102.png
        • 注:tanh(x)的导数为1-tanh^2(x)

        1. ReLu函数(Rectified Linear Unit线性整流函数)
          f(x) = \max(0,x)
        • 优点:
        1. 解决了gradient vanishing问题 (在正区间)

        2. 计算速度非常快,只需要判断输入是否大于0

        3. 收敛速度远快于sigmoid和tanh

          • 缺点:
          1. ReLU的输出不是zero-centered

          2. Dead ReLU Problem,指的是某些神经元可能永远不会被激活,导致相应的参数永远不能被更新。有两个主要原因可能导致这种情况产生: (1) 非常不幸的参数初始化,这种情况比较少见 (2) learning rate太高导致在训练过程中参数更新太大,不幸使网络进入这种状态。解决方法是可以采用Xavier初始化方法,以及避免将learning rate设置太大或使用adagrad等自动调节learning rate的算法。


            image-20200602225000118.png

          ReLU目前仍是最常用的activation function,在搭建人工神经网络的时候推荐优先尝试!

        4. Leaky Relu函数(PReLu)
          ReLu = \max(\alpha x ,x)

        • 优点:
          1. 人们为了解决Dead ReLU Problem,提出了将ReLU的前半段设为\alpha x而非0,通常\alpha=0.01.
          2. 另一种方式是通过方向传播算法将\alpha训练出来

        • 缺点:理论上来讲,Leaky ReLU有ReLU的所有优点,外加不会有Dead ReLU问题,但是在实际操作当中,并没有完全证明Leaky ReLU总是好于ReLU


          image-20200602225458334.png
        1. ELU (Exponential Linear Units) 函数
          f(x)= \left\{ \begin{array}{lcl} x, &\text{if x>0} \\ \alpha(e^x-1), &\text{otherwise} \end{array} \right. \\
        • 优点:

          1. ELU也是为解决ReLU存在的问题而提出,显然,ELU有ReLU的基本所有优点
          2. 不会有Dead ReLU问题
          3. 输出的均值接近0,zero-centered
        • 缺点

          1. 计算量稍大
          2. 理论上虽然好于ReLU,但在实际使用中目前并没有好的证据ELU总是优于ReLU


            image-20200604094707273.png

感知机

image-20200602231243230.png

image-20200602231257287.png

image-20200602231348582.png
  • 权重调整依据:线性可分收敛定理

    image-20200602232157735.png

    第i个样例被错判为负例,因此对决策面法向量w_t进行调整

  • “异或”难题

image-20200602232514988.png

image-20200602232547983.png

image-20200602232651430.png

多层网络模型

image-20200602233638569.png

image-20200602233703422.png
  • 多层网络模型的两种主要类型
    1. 前向传播
    2. 误差逆传播


      image-20200602234407863.png

标准BP算法

image-20200604094801088.png

image-20200604094850138.png

image-20200604094914347.png
  • 标准BP算法与累积BP算法

    • 标准BP算法:

      • 优点:在累积误差梯度下降缓慢时,标准BP往往会更快获得较好的解,尤其是在训练集D非常大时

      • 缺点:

        1. 参数更新频繁,计算复杂度高
        2. 对不同样例进行更新的效果可能相互抵消
    • 累积BP算法:

      • 优点:读取整个数据集后才对参数进行更新,参数更新频率低
      • 缺点:累积误差梯度下降会比较慢
  • 隐层神经元数量靠“试错法确定”

  • 避免过拟合的策略:

  1. 早停:训练集误差降低但验证集升高,则停止训练,返回具有最小验证集误差的连接权和阈值

  2. 正则化:在误差目标函数中增加一个用于描述网络复杂度的部分
    E=\lambda \frac{1}{m}\Sigma_{k=1}^mE_k+(1-\lambda)\Sigma_{i}w_i^2

参考文献

机器学习 周志华
常用激活函数(激励函数)理解与总结 https://blog.csdn.net/tyhj_sf/article/details/79932893
Rashka:Python Machine Learning

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,463评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,868评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,213评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,666评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,759评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,725评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,716评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,484评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,928评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,233评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,393评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,073评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,718评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,308评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,538评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,338评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,260评论 2 352