初窥Kaggle竞赛

初窥Kaggle竞赛

原文地址: https://www.dataquest.io/mission/74/getting-started-with-kaggle

1: Kaggle竞赛

我们接下来将要学习如果在Kaggle竞赛上进行一次提交。Kaggle是一个创造算法,与来自全世界的机器学习练习者竞赛的平台。你的算法在给定的数据集中准确率越高你就赢了。Kaggle是一个有趣的途径去联系机器学习技能。
Kaggle网站上有不同的竞赛。有一个是预测哪个成哥在泰坦尼克号上存活下来。在接下去的任务中,我们会探索数据,训练我们第一个模型,然后准备我们第一个提交。无论如何,如果你想要得到提交到Kaggle.com的网站上进行测评,你要在你的电脑上做这些。
我们的数据用的是.csv格式。你可以从这里下载数据。
每行表示一个泰坦尼克号上的一个乘客和他们的信息。让我们先看看这些列。

  • PassengerId -- 一个分配给每个乘客的id号
  • Survived -- 乘客是否存活(1表示存活,0表示不存活)。我们将要对这一列进行预测
  • Pclass -- 乘客所在的等级
  • Name -- 乘客名
  • Sex -- 乘客的性别(male或者female)
  • Age -- 乘客的年龄
  • SibSp -- 乘客在船上兄弟和配偶的数量
  • Parch -- 乘客在船上父母和儿女的数量
  • Ticket -- 乘客票的数量
  • Fare -- 乘客为票付了多少钱
  • Cabin -- 乘客位于哪个船舱
  • Embarked -- 乘客所在位置

一个好的步骤是去思考这些列的含义和我们将预测的。那些变量在逻辑上会影响存活的输出。
我们知道女人和儿童更有可能存活。因此,AgeSex都是很好的预测因素。Pclass也是影响输出的一个因素,因为first class距离船的甲板更近。Fare和乘客的class相关联,也会增加一些信息。兄弟和父母/子女的数量也会换脸到存活与否,这关系到是否有更多人帮助或者尝试救你。
同时,存活率和Embarked, TicketName都有一些联系。
这一步通常称为获取领域知识,而且它对大多数机器学习任务相当重要。我们最大化信息去预测。

2: 观察数据

我们会用python3pandas库和scikit-learn来分析我们的数据并创建一个提交。我们会交互的在code boxes中敲代码,就像你在下看到的一样。如果你对Python不熟悉,你可以先看看我们的课程
第二步就是从观察数据的高层的描述。在这个例子中,我们用pandas库中的.describe()方法观察每个数字列的不同的特征。

# We can use the pandas library in python to read in the csv file.
# This creates a pandas dataframe and assigns it to the titanic variable.
titanic = pandas.read_csv("titanic_train.csv")

# Print the first 5 rows of the dataframe.
print(titanic.describe())

3: 缺失的数据

当用到数据titanic数据集上的.describe()时,你可能注意到Age列的数量是714,而其他的列的数量是891。这暗示在Age列上有缺失的数据。
这意味着数据集不干净,而且我们将清理数据。我们不希望直接移除缺失数据的行,因为更多的数据能帮助我们更好的训练算法。我们也不想除去这一列,因为这一列对我们的分析很重要。
有很多策略处理缺失的数据,一种简单的方法就是用中位数填充缺失的数据。
我们像dictionary一样选择数据集的一列。
titanic["Age"]
我们可以用.fillna方法替换所有缺失的数据。.fillna需要一个参数,就是需要替换的值。
在我们的案例中,我们用中位数填充:
.fillna(titanic("Age").median())
我们接着把结果返回
titanic["Age"] = titanic["Age"].fillna(titanic["Age"].median())

4: 非数据列

当我们用.describe()时,我们可能注意到不是所有列都显示了。只有数字列显示了。我们不能讲非数字列传入机器学习方法并指望他们去理解。
我们必须在训练算法的时候排除这些非数字列(如Name,Sex,Cabin,EmbarkedTicket),或者把他们转变为数字。
我们将忽略Ticket,CabinName列。他们没有太多的信息值得我们提取。大多数值Cabin的值都丢失了(891个乘客中只有204个值),而且这也不是一个关键信息。TicketName列在缺少领域知识的情况下都不能告诉我们票数量意味着什么,还有名字关联了家族是否大或富裕。

5: 转换Sex

Sex列是非数字列,但是我们将保留他--他包含了一些信息。我们可以用一个数字去编码性别列的值。一个机器学习算法将会利用这些进行预测。
为了实现这个,我们首先找到性别列中所有独一无二的性别。我们用0表示male,用1表示female
我们可以选择Sex类中的所有male值:
titanic.loc[titanic["Sex"]=="male","Sex"]
我们可以用0代替这些:
titanic.loc[titanic["Sex"] == "male", "Sex"] = 0

# Find all the unique genders -- the column appears to contain only male and female.
print(titanic["Sex"].unique())

# Replace all the occurences of male with the number 0.
titanic.loc[titanic["Sex"] == "male", "Sex"] = 0
titanic.loc[titanic["Sex"] == "female", "Sex"] = 1
print(titanic["Sex"].unique())

6: 转换Embarked

我们想转换Sex列一样转换Embarked列。

# Find all the unique values for "Embarked".
print(titanic["Embarked"].unique())
titanic["Embarked"]=titanic["Embarked"].fillna('S')
titanic.loc[titanic["Embarked"] == "S", "Embarked"] = 0
titanic.loc[titanic["Embarked"] == "C", "Embarked"] = 1
titanic.loc[titanic["Embarked"] == "Q", "Embarked"] = 2

7: 开始机器学习!

现在我们清理了我们的数据,我们开始探索机器学习。我们看下面的例子:
<pre>
Age Sex Survived
10 0 0
5 1 1
30 0 0
</pre>

如果我们从Age列中预测是否存活,我们可以用线性回归。
线性回归遵循以下等式: y=mx+b,y表示我们要预测的值,m是一个系数叫斜率,x是一列的值,b是一个常数。
我们可以令m=-2,b=20。那么我们就得到了:
<pre>
Age Sex Survived Predictions
10 0 0 -2 * 10 + 20 = 0
5 1 1 -2 * 5 + 20 = 10
30 0 0 -2 * 30 + 20 = -40
</pre>

如果我们将所有大于0的预测转换为1,小于等于0的转为0,那么我们会得到以下结果:
<pre>
Age Sex Survived Predictions
10 0 0 0
5 1 1 1
30 0 0 0
</pre>

这个简单的模型很好的预测了存活结果。线性回归是一个非常有力的算法,但是有一些缺陷:

  • 如果一列和一个输出不是线性相关,那么它不会表现很好。比如,如果有一个老妇人没有存过,假设她的年龄是80,线性回归就不能得到正确结果。
  • 它不能给你存活概率,只有标识是否存活的结果

我们之后讨论如何处理这些问题。现在,我们学习如何自动计算线性回归系数以及如何利用多列得到输出结果。

8: 交叉验证

我们可以利用线性回归预测我们的训练集。
我们想要在不同数据训练算法。我们必须防止过拟合。过拟合是一种模型拟合噪声而不是信号的现象。每个数据集都有他的不存在于所有样品的特点。举个例子,如果我让你用马力和其他特征预测一辆车的最高时速,随机给你有很高时速的车的数据集,你将会创造一个夸大了时速的模型。如果你的模型必须用没有用于预测的数据来评价它的表现。
每一个机器学习算法都有可能过拟合,尽管有些算法会更少地过拟合。如果用训练的数据集评价一个算法,那么是不可能知道这个算法是否表现的好因为它对于噪声过拟合,或者它确实是一个好算法。
幸运的是,交叉验证是一个简单的方法去避免过拟合。我们把数据集分割成几个部分。用3作为例子:

  • 用第一部分和第二部分训练模型,第三部分进行预测
  • 用第一部分和第三部分训练模型,第二部分进行预测
  • 用的二部分和第三部分训练模型,第一部分进行预测

通过这种方法,我们不用训练模型时用到的数据集来评价算法的预测准确率。

9: 进行预测

我们用scikit-learn库进行预测。我们用sklearn的方法将数据分为交叉验证的部分。对每个部分训练一个算法,然后进行预测。最后,我们有一列的预测结果,每个列表项包含了对于相关部分的预测。

# Import the linear regression class
from sklearn.linear_model import LinearRegression
# Sklearn also has a helper that makes it easy to do cross validation
from sklearn.cross_validation import KFold

# The columns we'll use to predict the target
predictors = ["Pclass", "Sex", "Age", "SibSp", "Parch", "Fare", "Embarked"]

# Initialize our algorithm class
alg = LinearRegression()
# Generate cross validation folds for the titanic dataset.  It return the row indices corresponding to train and test.
# We set random_state to ensure we get the same splits every time we run this.
kf = KFold(titanic.shape[0], n_folds=3, random_state=1)

predictions = []
for train, test in kf:
    # The predictors we're using the train the algorithm.  Note how we only take the rows in the train folds.
    train_predictors = (titanic[predictors].iloc[train,:])
    # The target we're using to train the algorithm.
    train_target = titanic["Survived"].iloc[train]
    # Training the algorithm using the predictors and target.
    alg.fit(train_predictors, train_target)
    # We can now make predictions on the test fold
    test_predictions = alg.predict(titanic[predictors].iloc[test,:])
    predictions.append(test_predictions)

10: 评价误差

现在我们有了预测结果,我们可以评价误差。
我们首先需要定义一个误差指标,所以我们计算模型的正确率。从Kaggle竞赛的描述中得到,误差指标是正确预测的百分比。我们用相同的指标来评价算法的表现。
这个指标用predictions表示,由titanic["Survived"]/total number of passengers得到。
在我们做这个之前,我们需要将三个集合的预测结果连城一列。因为每个预测结果是numpy数组,所以我们可以用numpy函数去把他们串联在一起。

import numpy as np

# The predictions are in three separate numpy arrays.  Concatenate them into one.  
# We concatenate them on axis 0, as they only have one axis.
predictions = np.concatenate(predictions, axis=0)

# Map predictions to outcomes (only possible outcomes are 1 and 0)
predictions[predictions > .5] = 1
predictions[predictions <=.5] = 0
cnt=0
for i in range(len(predictions)):
    if(predictions[i]==titanic["Survived"][i]):
        cnt+=1
accuracy=cnt/len(predictions)

11: 逻辑回归

我们有了第一个预测。他不是很好,只有78.3%的正确率。我们可以用逻辑回归去表示[0,1]之间的输出。
逻辑回归可以接收线性回归的输出,然后将他们映射到[0,1]之间。这个映射由logit function完成。
Sklearn有一个逻辑回归的类供我们使用。我们也可以调用sklearn的辅助函数去帮助我们完成交叉验证和评价。

from sklearn import cross_validation

# Initialize our algorithm
alg = LogisticRegression(random_state=1)
# Compute the accuracy score for all the cross validation folds.  (much simpler than what we did before!)
scores = cross_validation.cross_val_score(alg, titanic[predictors], titanic["Survived"], cv=3)
# Take the mean of the scores (because we have one for each fold)
print(scores.mean())

12: 处理测试集

我们的正确率有点像样了,但是还是不够好。我们仍然可以尝试其他方法使他更好,我们会在后面提到。
但是,我们需要再竞赛中进行提交。为了完成这个,我们需要在测试集上做和在训练集上同样的步骤。如果我们不做这些相同的操作,我们不会有有效的预测结果。
这些操作根据我们之前对于列做过的操作进行改变。

titanic_test = pandas.read_csv("titanic_test.csv")
titanic_test["Age"] = titanic_test["Age"].fillna(titanic["Age"].median())
titanic_test.loc[titanic_test["Sex"] == "male", "Sex"] = 0
titanic_test.loc[titanic_test["Sex"] == "female", "Sex"] = 1
titanic_test["Embarked"] = titanic_test["Embarked"].fillna('S')
titanic_test.loc[titanic_test["Embarked"] == "S", "Embarked"] = 0
titanic_test.loc[titanic_test["Embarked"] == "C", "Embarked"] = 1
titanic_test.loc[titanic_test["Embarked"] == "Q", "Embarked"] = 2
titanic_test["Fare"] = titanic_test["Fare"].fillna(titanic_test["Fare"].median())

13: 生成一个提交文件

现在我们有了所有我们需要生成提交的东西。
首先,我们需要在训练数据上训练一个算法。然后我们在测试集上进行预测。最后,我们用预测结果和乘客id生成一个csv文件。
你可以通过调用submission.to_csv("kaggle.csv", index=False)生成输出文件。他会提供你第一次提交所需要的一切东西--它不会给你很好的正确率(大概75%)

# Initialize the algorithm class
alg = LogisticRegression(random_state=1)

# Train the algorithm using all the training data
alg.fit(titanic[predictors], titanic["Survived"])

# Make predictions using the test set.
predictions = alg.predict(titanic_test[predictors])

# Create a new dataframe with only the columns Kaggle wants from the dataset.
submission = pandas.DataFrame({
        "PassengerId": titanic_test["PassengerId"],
        "Survived": predictions
    })
submission.to_csv("kaggle.csv", index=False)

14: 下一步

我们刚刚生成了一个提交文件,但是正确率在提交时不会很高(大概75%)。在测试集上的成绩会比交叉验证集上得到的成绩要低,因为我们在预测不同的数据。在下一个任务中,我们会学习如果产生更好的特征并用更好的模型来提高我们的分数。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,029评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,395评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,570评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,535评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,650评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,850评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,006评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,747评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,207评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,536评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,683评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,342评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,964评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,772评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,004评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,401评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,566评论 2 349

推荐阅读更多精彩内容