R语言逻辑回归、ROC曲线与十折如何实现交叉验证

本篇内容主要讲解“R语言逻辑回归、ROC曲线与十折如何实现交叉验证”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“R语言逻辑回归、ROC曲线与十折如何实现交叉验证”吧!

1. 测试集和训练集3、7分组

R语言逻辑回归、ROC曲线与十折如何实现交叉验证

australian<-read.csv("australian.csv",as.is=T,sep=",",header=TRUE)
#读取行数
N=length(australian$Y)
#ind=1的是0.7概率出现的行,ind=2是0.3概率出现的行
ind=sample(2,N,replace=TRUE,prob=c(0.7,0.3))
#生成训练集(这里训练集和测试集随机设置为原数据集的70%,30%)
aus_train<-australian[ind==1,]
#生成测试集
aus_test<-australian[ind==2,]

2.生成模型,结果导出

#生成logis模型,用glm函数
#用训练集数据生成logis模型,用glm函数
#family:每一种响应分布(指数分布族)允许各种关联函数将均值和线性预测器关联起来。常用的family:binomal(link='logit')--响应变量服从二项分布,连接函数为logit,即logistic回归
pre<-glm(Y~.,family=binomial(link="logit"),data=aus_train)
summary(pre)
#测试集的真实值
real<-aus_test$Y
#predict函数可以获得模型的预测值。这里预测所需的模型对象为pre,预测对象newdata为测试集,预测所需类型type选择response,对响应变量的区间进行调整
predict.<-predict.glm(pre,type='response',newdata=aus_test)
#按照预测值为1的概率,>0.5的返回1,其余返回0
predict=ifelse(predict.>0.5,1,0)
#数据中加入预测值一列
aus_test$predict=predict
#导出结果为csv格式
#write.csv(aus_test,"aus_test.csv")

3.模型检验

##模型检验
res<-data.frame(real,predict)
#训练数据的行数,也就是样本数量
n=nrow(aus_train)
#计算Cox-Snell拟合优度
R2<-1-exp((pre$deviance-pre$null.deviance)/n)
cat("Cox-SnellR2=",R2,"\n")
#计算Nagelkerke拟合优度,我们在最后输出这个拟合优度值
R2<-R2/(1-exp((-pre$null.deviance)/n))
cat("NagelkerkeR2=",R2,"\n")
##模型的其他指标
#residuals(pre)#残差
#coefficients(pre)#系数,线性模型的截距项和每个自变量的斜率,由此得出线性方程表达式。或者写为coef(pre)
#anova(pre)#方差

4.准确率和精度

true_value=aus_test[,15]
predict_value=aus_test[,16]
#计算模型精确度
error=predict_value-true_value
accuracy=(nrow(aus_test)-sum(abs(error)))/nrow(aus_test)#精确度--判断正确的数量占总数的比例
#计算Precision,Recall和F-measure
#一般来说,Precision就是检索出来的条目(比如:文档、网页等)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了
#和混淆矩阵结合,Precision计算的是所有被检索到的item(TP+FP)中,"应该被检索到的item(TP)”占的比例;Recall计算的是所有检索到的item(TP)占所有"应该被检索到的item(TP+FN)"的比例。
precision=sum(true_value&predict_value)/sum(predict_value)#真实值预测值全为1/预测值全为1---提取出的正确信息条数/提取出的信息条数
recall=sum(predict_value&true_value)/sum(true_value)#真实值预测值全为1/真实值全为1---提取出的正确信息条数/样本中的信息条数
#P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)
F_measure=2*precision*recall/(precision+recall)#F-Measure是Precision和Recall加权调和平均,是一个综合评价指标
#输出以上各结果
print(accuracy)
print(precision)
print(recall)
print(F_measure)
#混淆矩阵,显示结果依次为TP、FN、FP、TN
table(true_value,predict_value)

5.ROC曲线的几个方法

#ROC曲线
#方法1
#install.packages("ROCR")
library(ROCR)
pred<-prediction(predict.,true_value)#预测值(0.5二分类之前的预测值)和真实值
performance(pred,'auc')@y.values#AUC值
perf<-performance(pred,'tpr','fpr')
plot(perf)
#方法2
#install.packages("pROC")
library(pROC)
modelroc<-roc(true_value,predict.)
plot(modelroc,print.auc=TRUE,auc.polygon=TRUE,legacy.axes=TRUE,grid=c(0.1,0.2),
grid.col=c("green","red"),max.auc.polygon=TRUE,
auc.polygon.col="skyblue",print.thres=TRUE)#画出ROC曲线,标出坐标,并标出AUC的值
#方法3,按ROC定义
TPR=rep(0,1000)
FPR=rep(0,1000)
p=predict.
for(iin1:1000)
{
p0=i/1000;
ypred<-1*(p>p0)
TPR[i]=sum(ypred*true_value)/sum(true_value)
FPR[i]=sum(ypred*(1-true_value))/sum(1-true_value)
}
plot(FPR,TPR,type="l",col=2)
points(c(0,1),c(0,1),type="l",lty=2)

6.更换测试集和训练集的选取方式,采用十折交叉验证

australian<-read.csv("australian.csv",as.is=T,sep=",",header=TRUE)
#将australian数据分成随机十等分
#install.packages("caret")
#固定folds函数的分组
set.seed(7)
require(caret)
folds<-createFolds(y=australian$Y,k=10)
#构建for循环,得10次交叉验证的测试集精确度、训练集精确度
max=0
num=0
for(iin1:10){

fold_test<-australian[folds[[i]],]#取folds[[i]]作为测试集
fold_train<-australian[-folds[[i]],]#剩下的数据作为训练集

print("***组号***")

fold_pre<-glm(Y~.,family=binomial(link='logit'),data=fold_train)
fold_predict<-predict(fold_pre,type='response',newdata=fold_test)
fold_predict=ifelse(fold_predict>0.5,1,0)
fold_test$predict=fold_predict
fold_error=fold_test[,16]-fold_test[,15]
fold_accuracy=(nrow(fold_test)-sum(abs(fold_error)))/nrow(fold_test)
print(i)
print("***测试集精确度***")
print(fold_accuracy)
print("***训练集精确度***")
fold_predict2<-predict(fold_pre,type='response',newdata=fold_train)
fold_predict2=ifelse(fold_predict2>0.5,1,0)
fold_train$predict=fold_predict2
fold_error2=fold_train[,16]-fold_train[,15]
fold_accuracy2=(nrow(fold_train)-sum(abs(fold_error2)))/nrow(fold_train)
print(fold_accuracy2)


if(fold_accuracy>max)
{
max=fold_accuracy
num=i
}

}

print(max)
print(num)

##结果可以看到,精确度accuracy最大的一次为max,取folds[[num]]作为测试集,其余作为训练集。

7.得到十折交叉验证的精确度,结果导出

#十折里测试集最大精确度的结果
testi<-australian[folds[[num]],]
traini<-australian[-folds[[num]],]#剩下的folds作为训练集
prei<-glm(Y~.,family=binomial(link='logit'),data=traini)
predicti<-predict.glm(prei,type='response',newdata=testi)
predicti=ifelse(predicti>0.5,1,0)
testi$predict=predicti
#write.csv(testi,"ausfold_test.csv")
errori=testi[,16]-testi[,15]
accuracyi=(nrow(testi)-sum(abs(errori)))/nrow(testi)

#十折里训练集的精确度
predicti2<-predict.glm(prei,type='response',newdata=traini)
predicti2=ifelse(predicti2>0.5,1,0)
traini$predict=predicti2
errori2=traini[,16]-traini[,15]
accuracyi2=(nrow(traini)-sum(abs(errori2)))/nrow(traini)

#测试集精确度、取第i组、训练集精确
accuracyi;num;accuracyi2
#write.csv(traini,"ausfold_train.csv")

总结

到此,相信大家对“R语言逻辑回归、ROC曲线与十折如何实现交叉验证”有了更深的了解,不妨来实际操作一番吧!这里是恰卡编程网网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

发布于 2021-03-13 15:42:51
收藏
分享
海报
0 条评论
157
上一篇:R语言如何实现list类型数据转换 下一篇:大量鲜玉米怎么保鲜
目录

    0 条评论

    本站已关闭游客评论,请登录或者注册后再评论吧~

    忘记密码?

    图形验证码