利用Logistics Regression罗杰斯特回归预测疝气病马死亡率。
1. 收集数据
收集的数据划分成训练集和测试集,每个样例包括21个特征和1个类别标签。
2. 准备数据
要求数据类型为:数值型;另外,结构化数据格式最佳。
用Python解析文本文件并填充缺失值。
缺失值的填充方式:
--使用可用特征的均值来填补;
--使用特殊值来填补,如-1;
--忽略有缺失值的样本;
--使用相似样本的均值填补缺失值;
--使用另外的机器学习算法预测缺失值;
不同的处理方式之间各有优劣,同时,具体问题需要具体分析,没有普适的处理方法。
3. 分析数据
可视化并观察数据。
4. 训练算法
使用优化算法,找到最佳的系数。
数据样本之间服从罗杰斯特分布。分布函数为:
函数定义:
def sigmod(x):
return 1/(1+exp(-x))
Sigmod函数:
优化算法,主要是梯度算法(下降or上升)。
A. 梯度上升算法
设定循环迭代次数,权重系数的每次更新是通过计算所有样本得出来的。当训练集过于庞大时,不利于计算。
alpha:步长,又称为学习率。
def gradAscent(dataMatIn, classLabels):
dataMat= mat(dataMatIn)
labelMat= mat(classLabels).transpose()
m, n= shape(dataMat)
alpha= 0.001
maxCycles= 500
weights= ones((n,1))
for k in range(maxCycles):
h= sigmod(dataMat*weights)
error= (labelMat- h)
weights= weights+ alpha*dataMat.transpose()*error#省去了数学推导式
return weights
B. 随机梯度上升
对梯度上升算法进行改进。权重系数的每次更新通过训练集的每个记录计算得到。
可以在新样本到来时对分类器进行增量式更新,因而,随机梯度上升算法是一个在线学习算法。
这种参数更新算法:容易受到噪声点的影响。在大的波动停止后,还有一些小的周期性波动。
def stocGradAscent0(dataMat,classLabels):
m, n=shape(dataMat)
alpha= 0.01
weights= ones(n)
for i in range(m):
h= sigmod(sum(dataMat[i]*weights))
error= classLabels[i] - h
weights= weights+ alpha*error*dataMat[i]
return weights
C. 改进的随机梯度上升算法
学习率:变化。随着迭代次数的增多,逐渐变下。
权重系数更新:设定迭代次数,每次更新选择的样例是随机的(不是依次选的)。
def stocGradAscent1(dataMat, classLabels, numIter=150):
m,n= shape(dataMat)
weights= ones(n)
for jin range(numIter):#迭代次数
dataIndex= range(m)
for i in range(m):#依据训练集更新权重系数
alpha= 4/(1.0+j+i) + 0.1
randIndex= int(random.uniform(0,len(dataIndex)))#确保随机性
h= sigmod(sum(dataMat[randIndex]*weights))
error= classLabels[randIndex] - h
weights= weights+ alpha*error*dataMat[randIndex]
del dataIndex[randIndex]
return weights
分类算法
def classifyVector(inX, weights):
prob= sigmod(sum(inX*weights))
if prob> 0.5:
return 1.0
else:
return 0.0
5. 测试算法
为了量化回归效果,使用错误率作为观察指标。根据错误率决定是否回退到训练阶段,通过改变迭代次数和步骤等参数来得到更好的回归系数。
def colicTest():
frTrain= open('horseColicTraining.txt')
frTest= open('horseColicTest.txt')
trainSet= []; trainLabels= []
for line in frTrain.readlines():
line= line.strip().split('\t')
lineArr= []
for i in range(21):
lineArr.append(float(line[i]))
trainSet.append(lineArr)
trainLabels.append(float(line[21]))
trainWeights= stocGradAscent1(array(trainSet),trainLabels)
errorCnt= 0; numTestVec= 0.0
for line in frTest.readlines():
numTestVec+= 1
currLine= line.strip().split('\t')
lineArr= []
for i in range(21):
lineArr.append(float(currLine[i]))
if int(classifyVector(array(lineArr),trainWeights)) != int(currLine[21]):
errorCnt+= 1
errorRate= float(errorCnt)/numTestVec
print ("the error rate of this test is: %f" % errorRate)
return errorRate
通过多次测试,取平均,作为该分类器错误率:
def multiTest():
numTests= 10; errorSum= 0.0
for k in range(numTests):
errorSum+= colicTest()
print ("after %d iterations the average error rate is: %f" %(numTests,float(errorSum)/numTests))
运行结果:
错误率为36.1%。
6. 小结
优点:计算代价不高,易于理解和实现;
缺点:容易欠拟合,分类进度可能不高;
使用数据类型:数值型和标称型数据。
下一章:准备把罗杰斯特回归设计的梯度上升算法的数学推导,梳理一下并证明。
To Be Continued!