其他常见神经网络

局部特征学习算法

  1. 实际中不可能对全网进行全局统一的学习,这会导致过大的资源消耗

  2. 相比之下,比较实际的选择是局部学习,而且输入很多时候确实存在局部结构,比如语音因素、视频的边角特征等。

  3. 找出重要的局部特征,根据这些局部特征进行学习的算法也是神经网络的一个重要的发展趋势,通常采用以下的学习策略:

    • 竞争型学习(competitive learning)是一种常用的无监督学习策略。使用该策略时,网络的输出层神经元相互竞争,并且每次只有一个获胜神经元被激活,其他都被抑制,这种机制也叫”胜者通吃(winner-take-all)“,典型的算法有自组织映射SOM
    • 自适应共鸣/振谐理论(Adaptive Resonance Theory),ART网络是其中的代表,网络有比较层、识别层、识别阈值和重置模块构成。比较层负责接收输入样本并将其传递给识别层神经元,识别层每个神经元对应一个模式类,神经元数目可在训练过程中动态增长以增加新的模式类。
  • 竞争学习算法

    1. 向量归一化:输入的模式向量X和竞争者各细胞的内权向量W_j都先进行归一化。并且每次迭代都要进行归一化操作

    2. 寻找获胜神经元:竞争层各细胞的内权向量W_j与输入向量X进行相似度比较,不论是用欧氏距离还是夹角法,得到的结论都是——与X点积最大的W_j对应的竞争层的细胞j为获胜神经元

    3. 网络输出权值调整:获胜神经元的输出为1,其他神经元的输出为0
      W_j(t+1)=W_j(t)+\alpha (X - W_j)
      在权值更新公式中,\alpha是学习率,随着学习的进展逐渐减小

      由于是无监督的学习算法,所以迭代的终止条件是学习率衰减到一个很小的数\epsilon

ART网络

  • 竞争算法:

    1. 计算输入向量与每个识别层神经元所对应的模式类的代表向量之间的距离,距离最小者获胜
    2. 若输入向量与获胜神经元所对应的代表向量之间的相似度大于识别阈值
    • 当前输入样本将被归为代表向量所属类别
    • 网络连接权更新
    1. 若相似度小于识别阈值
    • 重置模块将在识别层增设一个新的神经元
    • 将代表向量设置为输入向量

    重复以上过程直到收敛

  • 竞争学习算法解决二分类问题(夹角法:无识别阈值的ART网络)

image-20200610012732901.png

image-20200610012751939.png

image-20200610012940218.png

image-20200610012959631.png

SOM神经网络模型与算法

  • SOM(Self-Organizing Map 自组织映射)是一种竞争学习的无监督网络,是一种竞争学习型的无监督神经网络,它能将高维输入映射到低维空间,同时保持数据在高维空间的拓扑结构(高维空间中相似的样本点映射到网络输出层中的邻近神经元)

  • 自组织映射(Self-Organizing Maps,SOM)由芬兰学者 Teuvo Kohonen 提出,是一种无监督的聚类方法,受人类大脑神经元的自组织和侧抑制现象启发。不同外部刺激引起大脑皮层各个区域的反应是不同的;类似地,自组织映射在接受外界输入的模式时,会分为不同的应对区域,各区域对输入模式有着不同的响应。这种分区对应是在训练中逐渐学到的,是一个自组织的过程。另一方面,生物神经元之间存在侧抑制现象,临近的神经元相互激励,较远的神经元相互抑制。响应最强的神经元即获胜神经元,以它为中心,会形成一个区域,距离中心越远激励越弱。

  • SOM网络中的输出层神经元以矩阵方式排列在二维空间中,每个神经元都拥有一个权向量,网络在接收输入向量后将会确定输出层的获胜神经元,它决定了该输入向量在低维空间的位置.SOM的训练目的就是为每个输出层神经元找到合适的权向量,以达到保持拓扑结构的目的


    image-20200611001930903.png
  • 训练过程:

    1. 接收训练样本
    2. 每个输出层神经元计算该样本与自身携带的权向量之间的距离
    3. 选择距离最近的神经元作为竞争获胜者,称为最佳匹配单元
    4. 调整最佳匹配单元及其邻近神经元的权向量,以使得这些权向量与当前输入样本的距离缩小

    重复以上步骤直到收敛

SOM解决旅行商问题

  • 旅行商问题 (Travelling Salesman Problem,TSP) 是计算机科学的经典难题,即在地图上给定一系列城市和各城市之间的距离,求解遍历这些城市的最短路径。虽然旅行商问题很容易描述,但它是一个 NP-完全问题。这意味着,城市越多,解题困难就越大,而且这类问题没有通用解法。因此,目前认为任何次优解都是足够好的,多数情况下现在还没法验证返回的解是否是最优解。
  • SOM 有输入和输出两层神经网络,输出层通常是一个二维的神经元网格(本文是一维的环形结构)。从输入层输入的数据代表着真实世界的模式(Pattern),SOM 的训练目标是把输入数据的模式映射到输出层中。在训练中,输出层神经元的权值向量会被更新,输出层神经元在训练中逐渐学到输入数据背后的模式。对旅行商问题而言,二维城市坐标是网络的输入向量,城市空间位置关系是 SOM 要学习的模式,而网络的输出是一个环形的神经元结构。
image-20200611003142868.png

image-20200611003339844.png

image-20200611003520385.png

image-20200611003613801.png

image-20200611003823395.png

[图片上传失败...(image-51d0e6-1591810827248)]

RBF网络(Radial Bases Function Networks)

  • RBF(Radial Basis Function,径向基函数)网络是一种单隐层前馈神经网络,使用径向基函数作为隐层神经元激活函数,输出层则是对隐层神经元输出的线性组合

  • 假定输入为d维向量x,输出为实值,则RBF网络可表示为
    \phi(x) = \Sigma_{i=1}^qw_i\rho(x,c_i)
    其中q为隐层神经元个数,c_iw_i分别是第i个隐层神经元对应的中心和权重,\rho(x,c_i)是径向基函数,这是某种沿径向对称的标量函数,通常定义为样本x到数据中心c_i之间欧氏距离的单调函数.常用的高斯径向基函数形如
    \rho(x,c_i) = e^{-\beta_i||x-c_i||^2}
    经证明,具有足够多隐层神经元的RBF网络能以任意精度逼近任意连续函数

  • 训练RBF网络:
    1. 确定神经元中心c_i(常用方式:随机采样、聚类)
    2. 利用BP算法等确定参数w_i\beta_i

  • 无监督学习

image-20200611010409462.png
  • 由于隐层激活函数的标准差\sigma_j是固定的而输出权重的可以被优化的,我们事实上只需要找到能优化单层线性网络的权重. 作为一个多层感知机,同样地可以定义累积损失函数
    E = \frac{1}{2}\Sigma_n^N\Sigma_k^K(y_k^n-f_k(x_n))^2
    其中n表示训练样例编号,f_k(x^n)=\Sigma_j^Mw_{kj}\phi_j(x^n)

    分别对权重求偏导数并取0,得到如下等式,具有闭式解
    \frac{\partial E}{\partial w_{kj}} = \Sigma_n(y_k^n-\Sigma_j^Mw_{kj}\phi_j(x^n))=0
    为简单起见令(W)_{kj}=w_{kj},\Phi_{nj}=\phi_j(x^n),(Y)_{nk}={y_k^n}

    得到
    \Phi^T(Y-\Phi W^T) = 0
    由线性回归章节内容,得到闭式解
    W^T = (\Phi^T\Phi)^{-1}\Phi^TY = \Phi^{+}Y
    其中\Phi^+=(\Phi^T\Phi)^{-1}\Phi^T成为\Phi的伪逆矩阵(pseudo-inverse),具有逆矩阵的类似性质

    实际上计算(\Phi^T\Phi)^{-1}时常使用SVD方法避免\Phi^T\Phi奇异对计算的影响

  • 有监督学习

    • 有监督学习会让RBF网络具有更优良的性能,但计算代价较高

    • 类似多层感知机,同样定义一个误差函数:
      E = \Sigma_n^N\Sigma_k^K(y_k^n-f_k(x_n))^2

    • 按照类似误差BP的方式更新权重、均值与标准差
      \Delta w_{jk} = - \eta_w \frac{\partial E}{\partial w_{jk}}\\ \Delta \mu_{jk} = -\eta_{\mu} \frac{\partial E}{\partial \mu_{ij}}\\ \Delta \sigma_j = -\eta_{\sigma}\frac{\partial E}{\partial \sigma_j}

参考资料

机器学习 周志华

如何用自组织映射 (SOM) 解决旅行商问题 (TSP) https://zhuanlan.zhihu.com/p/34121865

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,701评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,649评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,037评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,994评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,018评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,796评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,481评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,370评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,868评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,014评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,153评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,832评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,494评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,039评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,156评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,437评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,131评论 2 356