R基础与机器学习初探

一.R语言基础

1.1 R的数据结构

向量、数据框、矩阵属于最常用的R数据结构,关于基础这里不多讲,简单概括一下

向量,简单来说就是一维数组

矩阵,就是二维数组

数据框,简单理解就是一张excel表,或者理解为关系型数据库的table

1.2 数据读取

读取csv文件:
read.csv(file="",header=TURE,sep="",stringAsFactors=FALSE)

读取文本文件:read.table()

从关系型数据库里读取数据

install.packages("RODBC")           如果安装时报错: sudo apt-get install unixODBC;   sudo apt-get install unixODBC-dev

library(RODBC)

mydb <- odbcConnect("my_dsn",uid="username",pwd="password")

query <- "select * from …………"

df <- sqlQuery(channel=mydb,query,stringAsFactors=FALSE)

odbcClose(mydb)

二.数据探索

2.1 探索数据结构

以一个简单的图像识别数据为例

df <- read.csv("train.csv")

str(df)
'data.frame': 42000 obs. of 785 variables:
$ label : int 1 0 1 4 0 0 7 3 5 3 ...
$ pixel0 : int 0 0 0 0 0 0 0 0 0 0 ...
$ pixel1 : int 0 0 0 0 0 0 0 0 0 0 ...
$ pixel2 : int 0 0 0 0 0 0 0 0 0 0 ...
$ pixel3 : int 0 0 0 0 0 0 0 0 0 0 ...
$ pixel4 : int 0 0 0 0 0 0 0 0 0 0 ...
$ pixel5 : int 0 0 0 0 0 0 0 0 0 0 ...
$ pixel6 : int 0 0 0 0 0 0 0 0 0 0 ...
dim(df)

[1] 42000   785

head(df)

2.2 探索数值型变量以及变量关系

假设我们还不太了解这个数据的特征,那么我们如何进一步理解这些数据呢?首先我们先来看一下summary(df)

summary(df$label)
Min. 1st Qu. Median Mean 3rd Qu. Max. 
0.000 2.000 4.000 4.457 7.000 9.000

可以看到每一个特征的最大、最小、均值、中位数、25%、75%。

df$label是从0到9的数字,也就是我们的目标值

as.factor(df[,1])将label转换为因子

其他列均为0-255的数字,共784列。

这里的数据是将手写数字0-9的图像转换为二维矩阵存储起来,即784=28*28,首列为数字标签。

diff(range(df$pixel358))   某列数据最大差值

 IQR(df$pixel668)   Q3-Q1

quantile(df$pixel771,probs = c(0.01,0.99))     查看百分位数

可视化:

boxplot()

cov()

cor()

aggregate()

pairs()

plot()

CrossTable()

各种统计模型和视图,包括3D散布图、热图、等高图等等以及方差、交叉表、分布模型……

2.3 探索分类变量

table(df$label)    频率

prop.table(table(df$label))      占比重

2.4 处理数据

这里的数据时手写数字的图像,我们尝试将它转化为图像。

我们来看低40张数字:

im <- matrix(as.matrix(df[40,-1]),nrow = 28,ncol = 28)

image(1:28, 1:28, im, col=gray((0:255)/255))

图像是个反着的数字4,很容易认出来。那个机器如何识别出来呢?

三.算法尝试之随机森林

分类算法多种多样,我们可以选择很多种分类器来做分类。这里我们尝试一下随机森林算法。

R里面有randomForest(局限性比较大)包,可以做简单的随机森林算法尝试。party包也有cforest函数。

df <- read.csv("train.csv")
df$label <- as.factor(df$label)
ind <- sample(2,nrow(df),replace=TRUE,prob=c(0.8,0.2))          #随机取样,分为训练数据80%与测试数据20%
trainData <- df[ind==1,]
testData <- df[ind==2,]
rf <- randomForest(label ~ .,data=trainData,ntree=50,proximity=TRUE)     70M数据,80%训练数据,大概需要20多G内存,
plot(rf)    #树图
importance(rf)          #特征重要性
rfPred <- predict(rf,testData)               #预测
table(rfPred,testData$label)              
prop.table(table(rfPred,testData$label))  

就是这样一个简单的流程,都没用到自己写什么优化方案或者建模,测试分类正确率可以达到96%还多,对于新给的test.csv(大概50M测试数据,模型的表现可以达到96%的正确率)。当然,可以选择的算法和优化方案很多,上面写的只是一个探索的流程。其实做一些优化后,准确率可以达到99%。

四.算法尝试之kNN

关于乳腺癌预测的数据

数据探索就简单略过了,数据第一列没什么用,删除wbcd <- wbcd[-1]

第二列是因子(B,M),表示癌症的阴性和阳性

剩余30个特征都是细胞的一些物理特征,算法的目的是通过细胞的特征来判断癌症的阴性和阳性

4.1 数据处理

wbcd <- read.table("wdbc.data",header = FALSE,sep = ",")

wbcd <- wbcd[-1]

因为kNN算法是依据距离来计算的,一般用欧式距离比较易懂。所以这里涉及到数据的转换。

min-max标准化:(x-min(x))/(max(x)-min(x))  #把数值型数据转换到0-1之间,必选数据范围的影响

z-score标准化:(x-mean(x))/StdDev(x)   

4.2 数据准备

library(class)

wbcd <- read.table("wdbc.data",header = FALSE,sep = ",")

wbcd <- wbcd[-1]

normalize <- function(x) {
    return ((x-min(x))/(max(x)-min(x)))
}

wbcd_n <- as.data.frame(lapply(wbcd[,2:31],normalize))

ind <- sample(2,nrow(wbcd_n),replace = TRUE,prob = c(0.8,0.2))

wbcd_pred <- knn(train.data,test.data,wbcd[ind==1,1],k = 10)

CrossTable(x = wbcd_n[ind==2,1],wbcd_pred,prop.chisq = FALSE)

    otal Observations in Table: 117
| wbcd_pred 
wbcd[ind == 2, 1] | B | M | Row Total | 
------------------|-----------|-----------|-----------|
B | 74 | 0 | 74 | 
| 1.000 | 0.000 | 0.632 | 
| 0.961 | 0.000 | | 
| 0.632 | 0.000 | | 
------------------|-----------|-----------|-----------|
M | 3 | 40 | 43 | 
| 0.070 | 0.930 | 0.368 | 
| 0.039 | 1.000 | | 
| 0.026 | 0.342 | | 
------------------|-----------|-----------|-----------|
Column Total | 77 | 40 | 117 | 
| 0.658 | 0.342 | | 
------------------|-----------|-----------|-----------|

还可以通过选择k值,不同的数据标准化,不同的算法,不同的特征来优化准确率。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,911评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,014评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 142,129评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,283评论 1 264
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,159评论 4 357
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,161评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,565评论 3 382
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,251评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,531评论 1 292
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,619评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,383评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,255评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,624评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,916评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,199评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,553评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,756评论 2 335

推荐阅读更多精彩内容