程序:算法+文档 1.需求分析(约束)
2.可行性分析
3.概要设计
4.详细设计
5.检测
特征,经验,探测器 叫 权重(模型)
下采样 池化
数据集:标签:二分类,多分类
训练集80%正常 假如90%(过拟合)
测试集20%异常
验证集
框架:tansflow,Keras
机器学习
matplotlib:
plt语句的使用:import matpotilb.pyplot as plt
import numpy as np
fig=plt.figure(figsize=(6,6),dpl=80)#创建画布大小figsize大小6*6dpl为像素80
x=np.linspace(0,1,1000)
fig.add subplot(2,1,1)#分为2*1图形阵就是两个图并在一起然后选择第一张图片绘图
plt.title('y=x*2&y=x')#标题
plt.xlabel('x')#x轴名称y轴同理
plt.xlim(0,1)#设置x轴范围y轴同理
plt.xticks(0,0.3,0.6,1)#设置x轴刻度y轴同理
plt.plot(x,x**2)#设置线条x和y的关系x为x,y为x**2
plt.legend([xxx])#添加图例
plt.grid()#显示网格线默认显示
plt.legend()#设置图例位置
plt.savefig('C:\Users\童话\Desktop\新建文件夹 (2)\绘图文件.png')#保存图片
plt.show#展示图片
color : 控制颜色, color='green'
linestyle : 线条风格, linestyle='dashed'
marker : 标记风格, marker='o'
markerfacecolor: 标记颜色, markerfacecolor='blue'
markersize: 标记尺寸, markersize=20
label:属于哪个标签
plt.scatter散点折线设置图中线条类型:
监督学习
监督学习是输入 ** 数据和标签** 进行训练学习,数据分为训练集和测试集。训练集用于训练模型,测试集用于验证模型的好坏。监督学习就像学生在学习时已知题目和答案,去学习分析如何解题一样,下次遇到一样的或者类似的题目就会做了。
监督学习包括:
决策树
KNN(K近邻算法)
LDA(线性判别分析)投影+KNN等分类算法可进行分类
Bayes(贝叶斯算法)
线性模型—回归:线性回归(LASSO回归、岭回归)
线性模型—分类:SVM、逻辑回归(Logistic回归)、CNN等
无监督学习
无监督学习输入的仅仅是一堆数据,没有标签,也没有训练集和测试集之分。算法根据数据本身的特征去学习。
无监督学习包括:
降维:
PCA主成分分析(线性降维)
流形学习
聚类:
K-means
层次聚类
强化学习
强化学习是在一定的情景下对做出的行为有一定的反馈。对的行为会被强化,错的行为会被惩罚,这样就使得模型学会了在给定的情景下做出最适当的行为。
生成模型
生成模型学习的是联合概率分布P(x,y),即数据x和标记y同时出现的概率,然后去求出条件概率分布。能够学到数据书怎样生成的。需要大量的数据,数据越多,越接近于真实的模型。所需计算资源多。
判别模型
判别模型学习的是条件概率分布P(y|x),即数据x是标记y的概率。主要学习数据之间的区别。所需计算资源少,不需要大量的数据,分类效果好。
分类:
二分类:逻辑回归(Logistic Regression)
k最近邻(k-Nearest Neighbors)
决策树(Decision Trees)
支持向量机(Support Vector Machine)
朴素贝叶斯(Naive Bayes)
多类别分类:k最近邻(k-Nearest Neighbors)
决策树(Decision Trees)
朴素贝叶斯(Naive Bayes)
随机森林(Random Forest)
梯度Boosting(Gradient Boosting)
机器学习:目的1、识别(1、分类:有监督,非监督
2、聚类)
2、回归:预测
数据预处理分为:特征值和真实值