神经网络和深度学习——学习笔记

人工神经网络是从大脑神经元得到启发,人类构建出的“类脑”模型。如今,神经网络已走向图像识别、语言理解、智能推荐等AI运用场景。

一、走进深度神经网络

神经网络起源于:

1、人的神经元(生物基础)

2、M-P模型:以神经元为逻辑计算单位,对输入信号进行家全球和,再判断是否输出信号(理论起点)

3、感知机:加入权重参数,引入训练算法,可实现线性分类(实用起点)但有局限性,无法有效解决复杂的非线性问题,如图


4、模型对比:M-P模型是感知机的思想雏形,结构上类似,但缺少关键的可调权重和学习机制。


二、神经网络的基本原理:

1、神经元:输入——计算——输出

2、简单神经元模型:输入——权重——偏置——计算

3、激活函数:非线性函数

4、Sigmoid激活函数:

σ(x)=1/(1+e^(-x) )•

图象呈S型曲线,输出范围为0 到 1 ,适合作为概率输出。

5、tanh激活函数:(可输出负值)

tanh(x)=(e^x-e^(-x))/(e^x+e^(-x) )

•输出范围为-1 到 1 ,以0为中心。

6、ReLU激活函数(训练速度快)

f(x)=max(0,x)

•输出范围 为[0, +∞)。

•输入大于0时,输出等于输入。

•输入小于等于0时,输出为0。

7、前向神经网络:输入层、隐藏层、输出层、信息流向(单向)

举例:单层感知器:最简单,不含隐藏层,只处理线性问题

多层感知器:拥有一个或多个隐藏层,能学习非线性函数

8、反向传播算法:

前向传播:模型尝试做出预测

误差计算

解决方案:反向传播

核心思想:从输出层开始,逐层向前计算每一层对误差的影响程度,然后调整对应的权重。每次调整后,模型误差会变小一些。

三、发展历程和成长轨迹

早期探索阶段:虽然感知机引发关注,但其在处理非线性问题能力有限。

发展转折期:•多层感知机 (MLP)、反向传播算法

蓬勃发展阶段(1)- 技术突破:•ReLU激活函数、•硬件与数据

蓬勃发展阶段 (2)- 应用突破:图像识别、语音识别、自然语言处理

蓬勃发展阶段 (3)- 广泛应用及其发展历程

蓬勃发展阶段 (4)- 变通与发展(上):非线性激活函数

蓬勃发展阶段 (5)- 变通与发展(下):反向传播算法

四、多样化的智能结构

1、•卷积神经网络 (CNN):擅长处理图像。

•循环神经网络 (RNN):擅长处理序列数据。

•生成对抗网络 (GAN):擅长生成新数据。

2、CNN关键组件:

•卷积层 (特征提取):输入层、卷积核、

•激活函数 (非线性处理)

•池化层 (降维):最大池化、平均池化

•全连接层 (分类/决策):学习、全局整合

输出层(输出)

应用价值:在计算机视觉(图像分类、目标检测、图像分割、人脸识别、图像搜索)自然语言处理(情感分析、文本分类、语音识别、视频分析)、视频分析等领域有广泛应用

CNN 特点 (对比全连接网络):

•全连接神经网络处理图像的缺点:

•丢失空间信息:将图像展开为向量破坏了像素间的空间结构。

•参数过多:效率低下,训练困难。

•易过拟合:大量参数导致模型泛化能力差。

•CNN的优势:

•局部连接/感受野:卷积核只关注局部区域,保留空间信息。

•权值共享:同一个卷积核在整个图像上滑动,参数量大大减少。

•池化:降低维度,增加特征不变性,减少计算量。

🚀CNN有效解决了上述全连接网络的三个问题。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容