3 逻辑回归----复杂边界问题

这里是吴恩达机器学习的编程问题

假如你是芯片厂的技术人员,需要你通过芯片的两次检测来决定,芯片是否丢弃。给出了过去的芯片检测的数据,以及检测结果。
 通过上面的描述可以知道这个一个分类问题,而分类问题,一般采用逻辑回归解决。

首先从文件中导入我们需要的数据
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import scipy.optimize as opt #优化算法需要的包
data_path='F:/BrowserDown/机器学习/machine-learning-ex2/ex2/ex2data2.txt'
data=pd.read_csv(data_path,names=['Test1','Test2','Accept'])
然后对数据进行可视化
def plot_data():
    positive=data[data['Accept'].isin([1])] #注意语法类型:pandas.core.frame.DataFrame
    negative =data[data['Accept'].isin([0])]
    fig,ax=plt.subplots(figsize=(8,5))
    ax.scatter(positive['Test1'],positive['Test2'],s=50,c='b',marker='o',label='Accept')
    ax.scatter(negative['Test1'], negative['Test2'], s=50, c='r', marker='x', label='Not-Accept')
    plt.legend()
    ax.set_xlabel('Test 1 Score')
    ax.set_ylabel('Test 2 Score')
    plt.show()

这里的positive,negative其是两个表格,是将原来的表格通过data['Accept']等于0,或1来区分开。目的是为了在数据可视化时,将正样本与负样本进行区分开来。

可视化结果

图片.png

从可视化化结果来看,可以猜测决策函数是一个复杂的无规则的圆圈,而数据集只有test1,test2 两个特征值,很明显两个特征值是不够的这会造成较高的偏差(欠拟合)。所以我们需要扩充我们的特征值,让我们的具有高阶因子,来表示复杂的圆圈。

特征映射

def feature_mapping(x1,x2,power):
    data ={}
    for i in np.arange(power+1):
        for p in np.arange(i+1):
            data["f{}{}".format(i-p,p)]=np.power(x1,i-p)*np.power(x2,p)
    return pd.DataFrame(data)
x1=data['Test1'].as_matrix()
x2=data['Test2'].as_matrix()
_data=feature_mapping(x1,x2,power=6) 

得到的X=1+x_1+x_1x_2+x_1^2+x_1^2x_2+x_1^2x_2^2+....+x_1^6x_2^6(一共有28项)所以系数的\theta_{x}也应该有28项

图片.png

这个新构造的数据集有118行,28列。高阶函数可以帮助我们很好的拟合我们的数据但是,也会带来过拟合化的烦恼,导致我们方差偏大,泛化程度低,不适用与其他数据,所以这里还有用正则化,来惩罚我们\theta_{x}(不包含x=0)

正则化代价函数和梯度函数

def costReg(theta,X,y,l=1): #/alha=1
    #不惩罚第一项
    _theta=theta[1:]
    reg=(l/(2*len(X)))*(_theta@_theta)
    return cost(theta ,X,y)+reg

def gradient1(theta,X,y):
    return (X.T @ (sigmod(X @theta)-y))/len(X)
#梯度下降函数
#同样不惩罚第一个theta
def gradientReg(theta,X,y,l=1):
    reg=(l/len(X))*theta
    reg[0]=0
    return gradient1(theta,X,y)+reg

这里导入了scipy优化算法来计算我们的最终\theta,而不是直接使用梯度下降算法

优化算法求\theta

#func是需要优化函数,x0传入的是初始值,fprime传入的是下降梯度函数,
#args传入优化函数的需要传入的参数
result2=opt.fmin_tnc(func=costReg,x0=theta,fprime=gradientReg,args=(X,y,2))
final_theta=result2[0]

检测准确度

自此我们就可以计算出\theta的值了,然后看下准确度为0.83

def predict(theta,X):
    probability=sigmod(X@theta)
    return [1 if x>0.5 else 0 for x in probability] #return list
predictions=predict(final_theta,X)
correct=[1 if a==b else 0 for (a,b) in zip(predictions,y)]
accuracy=sum(correct)/len(X)
print(accuracy)
图片.png

最后绘制等高线代表决策边界

x=np.linspace(-1,1.5,250)
xx,yy=np.meshgrid(x,x)  #坐标向量返回坐标矩阵

z=feature_mapping(xx.ravel(),yy.ravel(),6).as_matrix()  #(62500, 28)
z=z @ final_theta
z=z.reshape(xx.shape)
positive = data[data['Accept'].isin([1])]  # 注意语法类型:pandas.core.frame.DataFrame
negative = data[data['Accept'].isin([0])]
fig,ax=plt.subplots(figsize=(8,5))
ax.scatter(positive['Test1'],positive['Test2'],s=50,c='b',marker='o',label='Accept')
ax.scatter(negative['Test1'], negative['Test2'], s=50, c='r', marker='x', label='Not-Accept')
plt.legend()
ax.set_xlabel('Test 1 Score')
ax.set_ylabel('Test 2 Score')
plt.contour(xx,yy,z,0) #等高线
plt.ylim(-0.8,1.2) #设置当前y轴范围
plt.show()

图片.png

CSDN参考链接

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 230,501评论 6 544
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 99,673评论 3 429
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 178,610评论 0 383
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 63,939评论 1 318
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 72,668评论 6 412
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 56,004评论 1 329
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 44,001评论 3 449
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 43,173评论 0 290
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 49,705评论 1 336
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 41,426评论 3 359
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 43,656评论 1 374
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 39,139评论 5 364
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 44,833评论 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 35,247评论 0 28
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 36,580评论 1 295
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 52,371评论 3 400
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 48,621评论 2 380