人工神经网络是从大脑神经元得到启发,人类构建出的“类脑”模型。如今,神经网络已走向图像识别、语言理解、智能推荐等AI运用场景。
一、走进深度神经网络
神经网络起源于:
1、人的神经元(生物基础)
2、M-P模型:以神经元为逻辑计算单位,对输入信号进行家全球和,再判断是否输出信号(理论起点)
3、感知机:加入权重参数,引入训练算法,可实现线性分类(实用起点)但有局限性,无法有效解决复杂的非线性问题,如图

4、模型对比:M-P模型是感知机的思想雏形,结构上类似,但缺少关键的可调权重和学习机制。
二、神经网络的基本原理:
1、神经元:输入——计算——输出
2、简单神经元模型:输入——权重——偏置——计算
3、激活函数:非线性函数
4、Sigmoid激活函数:
σ(x)=1/(1+e^(-x) )•
图象呈S型曲线,输出范围为0 到 1 ,适合作为概率输出。
5、tanh激活函数:(可输出负值)
tanh(x)=(e^x-e^(-x))/(e^x+e^(-x) )
•输出范围为-1 到 1 ,以0为中心。
6、ReLU激活函数(训练速度快)
f(x)=max(0,x)
•输出范围 为[0, +∞)。
•输入大于0时,输出等于输入。
•输入小于等于0时,输出为0。
7、前向神经网络:输入层、隐藏层、输出层、信息流向(单向)
举例:单层感知器:最简单,不含隐藏层,只处理线性问题
多层感知器:拥有一个或多个隐藏层,能学习非线性函数
8、反向传播算法:
前向传播:模型尝试做出预测
误差计算
解决方案:反向传播
核心思想:从输出层开始,逐层向前计算每一层对误差的影响程度,然后调整对应的权重。每次调整后,模型误差会变小一些。
三、发展历程和成长轨迹
早期探索阶段:虽然感知机引发关注,但其在处理非线性问题能力有限。
发展转折期:•多层感知机 (MLP)、反向传播算法
蓬勃发展阶段(1)- 技术突破:•ReLU激活函数、•硬件与数据
蓬勃发展阶段 (2)- 应用突破:图像识别、语音识别、自然语言处理
蓬勃发展阶段 (3)- 广泛应用及其发展历程
蓬勃发展阶段 (4)- 变通与发展(上):非线性激活函数
蓬勃发展阶段 (5)- 变通与发展(下):反向传播算法
四、多样化的智能结构
1、•卷积神经网络 (CNN):擅长处理图像。
•循环神经网络 (RNN):擅长处理序列数据。
•生成对抗网络 (GAN):擅长生成新数据。
2、CNN关键组件:
•卷积层 (特征提取):输入层、卷积核、
•激活函数 (非线性处理)
•池化层 (降维):最大池化、平均池化
•全连接层 (分类/决策):学习、全局整合
输出层(输出)
应用价值:在计算机视觉(图像分类、目标检测、图像分割、人脸识别、图像搜索)自然语言处理(情感分析、文本分类、语音识别、视频分析)、视频分析等领域有广泛应用
CNN 特点 (对比全连接网络):
•全连接神经网络处理图像的缺点:
•丢失空间信息:将图像展开为向量破坏了像素间的空间结构。
•参数过多:效率低下,训练困难。
•易过拟合:大量参数导致模型泛化能力差。
•CNN的优势:
•局部连接/感受野:卷积核只关注局部区域,保留空间信息。
•权值共享:同一个卷积核在整个图像上滑动,参数量大大减少。
•池化:降低维度,增加特征不变性,减少计算量。
🚀CNN有效解决了上述全连接网络的三个问题。