AI 常用算法与分类

一、总览

算法 学习方式 任务目标 预测/聚类 机器学习/深度学习 备注
LR 逻辑回归 监督学习 分类 预测 机器学习 线性分类算法,适用于二分类和多分类。
SVM 支持向量机 监督学习 分类/回归 预测 机器学习 高维空间表现好,支持非线性问题(核函数)。
K-Means 聚类 非监督学习 聚类 聚类 机器学习 基于距离的分组算法,适合数值型数据。
PCA 主成分分析 非监督学习 降维 聚类 机器学习 常用于高维数据降维或可视化。
随机森林 监督学习 分类/回归 预测 机器学习 集成学习方法,基于决策树。
Transformer 监督学习 分类/回归/生成 预测 深度学习 基于深度学习的多任务模型,依赖注意力机制。
FM 因子分解机 监督学习 分类/回归 预测 机器学习 常用于推荐系统,处理特征交互。
DeepFM 监督学习 分类/回归 预测 深度学习 因子分解机的深度学习扩展版,加入神经网络。
Two-Tower 双塔模型 监督学习 分类/召回/匹配 预测 深度学习 深度学习模型,用于大规模召回任务。
GMM 高斯混合模型 非监督学习 聚类 聚类 机器学习 基于概率分布的聚类算法,适合数据分布复杂的情况。
自编码器 (Autoencoder) 非监督学习 降维/生成 聚类 深度学习 深度神经网络的无监督学习方法,用于特征提取。
CNN 卷积神经网络 监督学习 分类/检测 预测 深度学习 常用于图像分类、目标检测等视觉任务。
GAN 生成对抗网络 自监督学习 数据生成 预测 深度学习 数据生成任务,如图像生成、风格迁移等。

二、简介

1. Logistic Regression (LR, 逻辑回归)

原理:

  • 逻辑回归是分类问题中常用的线性模型,通过将线性回归结果映射到 (0, 1) 范围来预测概率。
20241230-2593a52f86d74ca4865fea76620f7467.png

应用:

  • 二分类问题:如垃圾邮件分类、信用风险评估
  • 多分类问题(通过 Softmax 回归扩展)
  • 基线模型:用于快速验证数据是否线性可分。

2. 协同过滤 (Collaborative Filtering, CF)

原理:

  • 基于用户行为数据(评分、点击等)的推荐方法。
  • 两种主要形式:
    • 基于用户的协同过滤:根据用户相似性推荐。
    • 基于物品的协同过滤:根据物品相似性推荐。
  • 通常通过矩阵分解(如 SVD、ALS)解决评分矩阵的稀疏性问题。

应用:

  • 推荐系统:电影、音乐、电商商品推荐(如 Netflix、Amazon)。
  • 个性化广告投放。

3. 因子分解机 (Factorization Machine, FM)

原理:

  • FM 是一种扩展的线性模型,可以高效建模稀疏数据的二阶特征交互。

应用:

  • 推荐系统:处理用户与物品的特征交互。
  • CTR 预估:广告点击率预测。

4. 双塔模型 (Two-Tower Model)

原理:

  • 双塔模型由两个子网络(塔)组成,分别对用户和物品的特征进行嵌入,然后通过计算相似度进行匹配。
  • 常用相似度函数:点积或余弦相似度。

应用:

  • 搜索与推荐:如用户与商品、问题与答案的匹配。
  • 大规模召回:从海量候选集中快速找到相关候选项。

5. Transformer

原理:

  • 基于注意力机制的深度学习模型,用自注意力(Self-Attention)代替传统的 RNN/CNN。
  • 主要模块:
    • 多头注意力(Multi-Head Attention)
    • 前馈神经网络(Feed-Forward Network)
    • 残差连接和层归一化(Residual Connections + Layer Normalization)

[图片上传失败...(image-631236-1742465559613)]

应用:

  • 自然语言处理(NLP):机器翻译(如 Google Translate)、文本生成(如 GPT)、问答系统(如 BERT)。
  • 计算机视觉:目标检测、图像生成(如 Vision Transformer, ViT)。
  • 推荐系统:长序列行为建模。

6.卷积神经网络 (CNN)

定义:

CNN 是一种专门为处理数据的空间结构(如图像、视频)设计的深度学习模型,核心是通过卷积操作提取局部特征。

核心组件

1. 卷积层 (Convolutional Layer):
  • 利用卷积核(滤波器)对输入数据进行局部扫描,提取局部特征(如边缘、纹理)。
  • 每个卷积核学习到不同的特征。
2. 池化层 (Pooling Layer):
  • 对卷积层的输出进行降维,减少计算量,保留重要特征。
  • 常见方法:最大池化 (Max Pooling)、平均池化 (Average Pooling)。
3. 激活函数 (Activation Function):
  • 通常使用 ReLU(Rectified Linear Unit),引入非线性。
4. 全连接层 (Fully Connected Layer):
  • 将提取的特征映射到目标空间,用于最终的分类或回归。

特点

  • 局部感受野:通过卷积核只关注数据的一小部分,减少参数量。
  • 参数共享:卷积核的参数在整个输入中共享,提升效率。
  • 强大的特征提取能力:特别适合处理图像、视频等结构化数据。

应用场景

  • 图像分类(如手写数字识别)
  • 目标检测(如自动驾驶中的行人检测)
  • 图像分割(如医学影像分析)
  • 视频处理(如动作识别)

7.循环神经网络 (RNN)

定义

RNN 是一种专门为处理序列数据(如时间序列、文本、语音)设计的神经网络,其特点是具有记忆能力,能够捕捉数据之间的时间依赖性。

核心组件

1. 循环单元 (Recurrent Unit)
  • 每个时刻的输出依赖于当前输入和上一个时刻的隐藏状态 ht−1h_{t-1}ht−1。
  • 状态公式: ht=f(W⋅ht−1+U⋅xt+b)h_t = f(W \cdot h_{t-1} + U \cdot x_t + b)ht=f(W⋅ht−1+U⋅xt+b) 其中,hth_tht 是当前时刻的隐藏状态,xtx_txt 是当前输入。
2. 权重共享:
  • RNN 在所有时间步之间共享参数,便于处理长序列数据。
    缺陷与改进
  • 梯度消失/爆炸:在长序列上,RNN 很难捕捉远距离依赖。
  • 改进版本:
    • LSTM (Long Short-Term Memory):
      • 引入了门机制(输入门、遗忘门、输出门),解决梯度消失问题。
    • GRU (Gated Recurrent Unit):
      • 是 LSTM 的简化版本,计算效率更高。

特点

  • 能够处理变长输入序列。
  • 自然适合时间序列建模。

应用场景

  • 自然语言处理(如情感分析、机器翻译)
  • 语音识别(如语音到文本转换)
  • 时间序列预测(如股票预测、天气预测)
  • 视频分析(如动作识别)

三、分类

1. 按照学习方式分类:监督学习 vs 非监督学习

1. 监督学习

定义:

利用标注数据(输入和对应的标签)训练模型,目标是学习从输入到输出的映射。

应用:

  • 分类:垃圾邮件检测、图像分类
  • 回归:房价预测、股票价格预测

常见算法:

  • 逻辑回归 (Logistic Regression)
  • 支持向量机 (SVM)
  • 决策树与随机森林
  • 神经网络(如 MLP、Transformer)

2. 非监督学习

定义:

无需标注数据,模型在无监督的情况下发现数据中的模式或结构。

应用:

  • 聚类:用户分群、图像分割
  • 降维:数据可视化、特征提取

常见算法:

  • K-Means 聚类
  • 层次聚类 (Hierarchical Clustering)
  • 主成分分析 (PCA)
  • 自编码器 (Autoencoder)

2. 按任务目标分类:预测 vs 聚类

1. 预测(回归与分类)

定义:

  • 预测数据的未来趋势(回归)或所属类别(分类)。

分类问题:

  • 目标:预测离散值,如“是/否”、“类别 A/B/C”。
  • 示例算法:逻辑回归、决策树、深度神经网络

回归问题:

  • 目标:预测连续值,如温度、销量。
  • 示例算法:线性回归、支持向量回归、随机森林回归

2. 聚类

定义:

  • 将数据划分为若干组(簇),组内样本相似,组间样本不同。

目标:

  • 揭示数据的隐藏结构,而无需事先知道类别。

常见算法:

  • K-Means
  • DBSCAN
  • 高斯混合模型 (GMM)
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容