数据挖掘流程:
(一)数据读取:
读取数据,并进行展示
统计数据各项指标
明确数据规模与要完成任务
(二)特征理解分析
单特征分析,逐个变量分析其对结果的影响
多变量统计分析,综合考虑多种情况影响
统计绘图得出结论
(三)数据清洗与预处理
对缺失值进行填充
特征标准化/归一化
筛选有价值的特征
分析特征之间的相关性
(四)建立模型
特征数据与标签准备
数据集切分
多种建模算法对比
集成策略等方案改进
数据来源:著名的数据分析竞赛网站Kaggle提供的数据集中
1 倒入包
2 数据读起来,先看看啥东西
PassengerId: 乘客编号 Survived :存活情况(存活:1 ; 死亡:0)Pclass :客舱等级 Name : 乘客姓名 Sex : 性别Age : 年龄SibSp : 同乘的兄弟姐妹/配偶数Parch : 同乘的父母/小孩数Ticket : 船票编号Fare : 船票价格Cabin :客舱号Embarked : 登船港口
3 瞅一瞅有木有缺失值
4 整体看看数据啥规模
5不是要预测这大船的获救情况嘛,先看看获救比例咋样
显然,这次事故中没有多少乘客幸免于难。在训练集的891名乘客中,只有大约350人幸存下来,只有38.4%的机组人员在空难中幸存下来。我们需要从数据中挖掘出更多的信息,看看哪些类别的乘客幸存下来,哪些没有。我们将尝试使用数据集的不同特性来检查生存率。比如性别,年龄,登船地点等,但是首先我们得来理解下数据中的特征!
6数据特征分为:连续值和离散值--离散值:性别(男,女) 登船地点(S,Q,C)连续值:年龄,船票价格
7 Pclass --> 船舱等级跟获救情况的关系
人们说金钱不能买到一切。但我们可以清楚地看到,船舱等级为1的被给予很高的优先级而救援。尽管数量在pClass 3乘客高了很多,仍然存活数从他们是非常低的,大约25%。对于pClass1来说存活是63%左右,而pclass2大约是48%。所以金钱和地位很重要。这样一个物欲横流的世界
8 那这些又和性别有关吗?接下来我们再来看看船舱等级和性别对结果的影响
我们用factorplot这个图,看起来更直观一些。我们可以很容易地推断,从pclass1女性生存是95-96%,如94人中只有3的女性从pclass1没获救。显而易见的是,不论pClass,女性优先考虑。
9 Age--> 连续值特征对结果的影响
(二)缺失值填充:平均值,经验值,回归模型预测,剔除掉
正如我们前面看到的,年龄特征有177个空值。为了替换这些缺失值,我们可以给它们分配数据集的平均年龄。但问题是,有许多不同年龄的人。最好的办法是找到一个合适的年龄段!我们可以检查名字特征。根据这个特征,我们可以看到名字有像先生或夫人这样的称呼,这样我们就可以把先生和夫人的平均值分配给各自的组。
好了,这里我们使用正则表达式:[A-Za-z] +)来提取信息
填充缺失值
观察:1)幼儿(年龄在5岁以下)获救的还是蛮多的(妇女和儿童优先政策)。2)最老的乘客得救了(80年)。3)死亡人数最高的是30-40岁年龄组。
因此,无论性别如何,妇女和儿童第一政策都是正确的。
Embarked--> 登船地点
C港生存的可能性最高在0.55左右,而S的生存率最低
观察:1)大部分人的船舱等级是3。2)C的乘客看起来很幸运,他们中的一部分幸存下来。3)S港口的富人蛮多的。仍然生存的机会很低。4)港口Q几乎有95%的乘客都是穷人。
观察:1)存活的几率几乎为1 在pclass1和pclass2中的女人。2)pclass3 的乘客中男性和女性的生存率都是很偏低的。3)端口Q很不幸,因为那里都是3等舱的乘客。港口中也存在缺失值,在这里我用众数来进行填充了,因为S登船人最多呀
sibsip -->兄弟姐妹的数量
这个特征表示一个人是独自一人还是与他的家人在一起。
Fare--> 船票的价格
特征之间的相关性
(三)特征工程和数据清洗
当我们得到一个具有特征的数据集时,是不是所有的特性都很重要?可能有许多冗余的特征应该被消除,我们还可以通过观察或从其他特征中提取信息来获得或添加新特性。
年龄特征:正如我前面提到的,年龄是连续的特征,在机器学习模型中存在连续变量的问题。如果我说通过性别来组织或安排体育运动,我们可以很容易地把他们分成男女分开。如果我说按他们的年龄分组,你会怎么做?如果有30个人,可能有30个年龄值。我们需要对连续值进行离散化来分组。好的,乘客的最大年龄是80岁。所以我们将范围从0-80成5箱。所以80/5=16。
生存率随年龄的增加而减少,不论Pclass。
船票价格
因为票价也是连续的特性,所以我们需要将它转换为数值。
将字符串值转换为数字 因为我们不能把字符串一个机器学习模型
机器学习建模
我们从EDA部分获得了一些见解。但是,我们不能准确地预测或判断一个乘客是否会幸存或死亡。现在我们将使用一些很好的分类算法来预测乘客是否能生存下来:
1)logistic回归
2)支持向量机(线性和径向)
3)随机森林
4)k-近邻
5)朴素贝叶斯
6)决策树
模型的精度并不是决定分类器效果的唯一因素。假设分类器在训练数据上进行训练,需要在测试集上进行测试才有效果
现在这个分类器的精确度很高,但是我们可以确认所有的新测试集都是90%吗?答案是否定的,因为我们不能确定分类器在不同数据源上的结果。当训练和测试数据发生变化时,精确度也会改变。它可能会增加或减少。
为了克服这一点,得到一个广义模型,我们使用交叉验证。
交叉验证
一个测试集看起来不太够呀,多轮求均值是一个好的策略!
1)的交叉验证的工作原理是首先将数据集分成k-subsets。
2)假设我们将数据集划分为(k=5)部分。我们预留1个部分进行测试,并对这4个部分进行训练。
3)我们通过在每次迭代中改变测试部分并在其他部分中训练算法来继续这个过程。然后对衡量结果求平均值,得到算法的平均精度。
这就是所谓的交叉验证。
混淆矩阵 它给出分类器的正确和不正确分类的数量
解释混淆矩阵:来看第一个图
1)预测的正确率为491(死亡)+ 247(存活),平均CV准确率为(491+247)/ 891=82.8%。
2)58和95都是咱们弄错了的。
超参数整定
机器学习模型就像一个黑盒子。这个黑盒有一些默认参数值,我们可以调整或更改以获得更好的模型。比如支持向量机模型中的C和γ,我们称之为超参数,他们对结果可能产生非常大的影响。
结合历史核对结论:
数据分析的目的:通过数据,找出事件背后的原因、规律,用来改进、预防未来相似的事件。