2.0 LASSO


#Lasso回归+交叉验证包
library(glmnet)

#1.数据转矩阵函数:data.matrix()
x <- data.matrix(Vdata2[,12:108])
y <- data.matrix(Vdata2$MACE)


#2.lasso回归
fit<- glmnet(x, y,family="binomial",alpha=1)

#3.可视化结果
plot(fit, xvar="lambda", label=T)

#4.使用交叉验证来确定最佳的lambda。默认nfolds=10
cv.fit <- cv.glmnet(x, y,
                    family="binomial",
                    alpha = 1)
plot(cv.fit)

#5.显示两个惩罚值(调优系数)下的变量及其回归系数
ridge.coef1 <- predict(fit, s=cv.fit$lambda.1se, type = "coefficients");ridge.coef1
ridge.coef2 <- predict(fit, s=cv.fit$lambda.min, type = "coefficients");ridge.coef2



## 这里我们以lambda.1se为最优 λ
best_lambda <- cv.fit$lambda.1se
best_lambda


print(fit)#把fit结果输出,核对λ对应变量数量







©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 0、当我左腿已完成 lasso,对方站起 1、我右脚从对方肱二头肌处收回,踩对方两脚之间的地面 2、左脚踢,右手拉...
    ArKwon阅读 307评论 0 0
  • 岭回归 缩减数据来理解数据如果数据的特征比样本点还多应该怎么办?是否还可以使用线性回归和之前的方法来做预测?答案是...
    侠菩提_Aiden阅读 228评论 0 0
  • 本文转自易学统计基于Lasso回归筛选变量构建Cox模型并绘制Nomogram[https://mp.weixin...
    小易学统计阅读 13,911评论 21 39
  • 阅读本文需要的背景知识点:线性回归算法、一丢丢编程知识 一、引言   上一节我们学习了解决多重共线性的一种方法是对...
    427fff37ce10阅读 10,245评论 0 0
  • 岭回归 岭回归 的损失函数 MSE+L2 岭回归还是多元线性回归 y = wTx 只不过损失函数MSE添加了损失...
    王金松阅读 738评论 0 0