分享好友 编程语言首页 频道列表

各种分类算法的R语言实现

r语言文章/教程  2023-02-09 07:220
##
##该程序包括了KNN、SVM、朴素贝叶斯分类、人工神经网络、决策树、C5.0、随机森林、adaboost、bagging8种算法的实现
##

#Knn分类算法实现
setwd('H:\\object\\R\\data17_8_02')
library(xlsx)
library(MASS)
library(kknn)
library(class)

#归一化处理
normalize <- function(x){
  num <- x - min(x)
  denom <- max(x) - min(x)
  return(num/denom)
}
#读取数据
data<-read.xlsx("index_relieff_pearson_two.xlsx",1,header=TRUE,as.data.frame=TRUE)
#对数据进行归一化处理
iris_norm <-as.data.frame(lapply(data[,1:7], normalize))
summary(iris_norm)
dim(iris_norm)
data<-cbind(iris_norm,data[,8])
dim(data)
names(data)[8]='degree'

##支持向量机
library(e1071)
set.seed(5)
n=nrow(data)
idx<-sample(1:n,size=round(n/3),replace=F,prob=rep(1/n,n))
traindata=data[-idx,]
testdata=data[idx,]
mymodel<-svm(traindata$degree~.,data=traindata,method="C-classification",kernel="radial",cost=10,gamma=0.1)
#plot(mymodel,data,Petal.Width~Petal.Length,slice=list(Sepal.Width=3,Sepal.Length=4))
pre=predict(mymodel,testdata,type='class')
z0<-table(testdata$degree,pre)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#朴素贝叶斯分类
library(e1071) #导入包e1071
mybeyes=naiveBayes(traindata$degree~.,traindata) #用训练集naiveBayes进行建模
pre.forest<-predict(mybeyes,testdata)
z0<-table(testdata$degree,pre.forest)#用测试集进行精度验证
#table(data$degree,predict(mybeyes,data))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

#人工神经网络
library(nnet) #导入包nnet
#用nnet进行建模,其中linout线性输出单元开关,decay表明权值是递减的,最大迭代次数是1000
mynnet=nnet(traindata$degree~.,linout=F,size=10,decay=0.001,maxit=100,trace=F,data=traindata)
mypre=predict(mynnet,testdata,type='class')
z0<-table(testdata$degree,mypre)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#决策树
library(party) #导入party包
myctree=ctree(traindata$degree~.,traindata)
pre.forest<-predict(myctree,traindata)
table(pre.forest,traindata$degree)
#myctree=ctree(data$degree~.,data)#用iris数据集建立模型
#table(data$degree,predict(myctree)) #分类结果表
#plot(myctree,type = "simple") 

#C5.0算法
library(C50)
set.seed(10)
summary(testdata)
train<-na.omit(traindata)
ls('package:C50')
tc<-C5.0Control(subset =F,CF=0.25,winnow=F,noGlobalPruning=F,minCases =10)
model <- C5.0(traindata$degree ~.,data=traindata,rules=F,control =tc)
pre.forest<-predict(model,traindata)
z0<-table(traindata$degree,pre.forest)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0
plot(model)
C5imp(model)


#随机森林
library(randomForest)
model.forest<-randomForest(traindata$degree~.,data = traindata)
pre.forest<-predict(model.forest,testdata)
z0<-table(testdata$degree,pre.forest)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#n=nrow(iris)
#idx<-sample(1:n,size=round(n/3),replace=T,prob=rep(1/n,n))
#traindata=iris[-idx,]
#testdata=iris[idx,]
#model.forest<-randomForest(Species~.,data = traindata)
#pre.forest<-predict(model.forest,testdata)
#table(pre.forest,testdata$Species)

#K-最近邻算法
library(kknn)
summary(traindata)
summary(testdata)
myknn=kknn(traindata$degree~.,traindata,traindata,distance=1,kernel="triangular",k=8)
fit<-fitted(myknn)
z0<-table(traindata$degree,predict(myknn))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

myknn=kknn(traindata$degree~.,traindata,testdata,distance=1,kernel="triangular",k=8)
fit<-fitted(myknn)
z0<-table(testdata$degree,predict(myknn))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

pcol=as.character(as.numeric(testdata$degree))
plot(testdata[1:3],pch=pcol,col=c("green","red")[(testdata$degree!=predict(myknn))+1])


#adaboost分类算法的实现
library(adabag)
model_adaboost<-boosting(degree~.,data = traindata)
z0<-table(testdata[,17],predict(model_adaboost,testdata)$class)
z0#输出z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算误差率
1-E0

barplot(model_adaboost$importance)#画出变量重要性图
b<-errorevol(model_adaboost,testdata)#计算全体的误差演变
plot(b$error,type="l",main="AdaBoost error vs number of trees")#对误差演变进行画图
#上图可以得知,在第七次迭代后误差率就达到零了,实现预测零误差率


#bagging分类模型的建立
model_bagging<-bagging(degree~.,data=traindata)
z0<-table(testdata[,17],predict(model_bagging,testdata)$class)
z0#查看模型的预测结果
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算误差率
1-E0
barplot(model_bagging$importance)#画出变量重要性图

#对adaboosting和bagging模型做5折交叉验证,这里仅给出训练集和测试集的分类平均误差率
set.seed(1044)
samp<-c(sample(1:47,24),sample(48:230,24)) #进行随机抽样
#adaboosting分类模型
a<-boosting(degree~.,data=data[samp,]) #利用训练集建立adaboost分类模
z0<-table(data[samp,8],predict(a,data[samp,])$class)#查看训练集的预测结果
z0
z1<-table(data[-samp,8],predict(a,data[-samp,])$class)#查看测试集的预测结果
z1
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
E0
E1<-(sum(z1)-sum(diag(z1)))/sum(z1)#计算测试集误差率
E1
#bagging分类模型
b=bagging(degree~.,data=data[samp,])  #利用训练集建立bagging分类模型
z0<-table(data[samp,6],predict(b,data[samp,])$class)#查看训练集的预测结果
z0
z1<-table(data[-samp,6],predict(b,data[-samp,])$class)#查看测试集的预测结果
z1
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
E0
E1<-(sum(z1)-sum(diag(z1)))/sum(z1)#计算测试集误差率
E1


#线性判别分类
library(MASS)
#使用MASS包的lda函数实现线性判别。lda函数以Bayes判别思想为基础。
#当分类只有两种且总体服从多元正态分布条件下,Bayes判别与Fisher判别、距离判别是等价的。
#其中的prior参数表示先验概率
model1<-lda(data$degree~.,data=data,prior=c(1,1,1,1,1)/5)
#当不同类样本的协方差矩阵不同时,则应该使用二次判别
#这里将CV参数设置为T,是使用留一交叉检验(leave-one-out cross-validation),并自动生成预测值
table(data$degree,predict(model1)$class)

ld<-predict(model1)$x
p=ggplot(cbind(data,as.data.frame(ld)),aes(x=LD1,y=LD2))
p+geom_point(aes(colour=degree),alpha=0.8,size=3)

  

查看更多关于【r语言文章/教程】的文章

展开全文
相关推荐
反对 0
举报 0
评论 0
图文资讯
热门推荐
优选好物
更多热点专题
更多推荐文章
拓端tecdat|R语言VAR模型的不同类型的脉冲响应分析
原文链接:http://tecdat.cn/?p=9384目录模型与数据估算值预测误差脉冲响应识别问题正交脉冲响应结构脉冲反应广义脉冲响应参考文献脉冲响应分析是采用向量自回归模型的计量经济学分析中的重要一步。它们的主要目的是描述模型变量对一个或多个变量的冲击的演化

0评论2023-03-16712

Visual Studio 编辑R语言环境搭建
Visual Studio 编辑R语言环境搭建关于Visual Studio 编辑R语言环境搭建具体的可以看下面三个网址里的内容,我这里就讲两个问题,关于r包管理和换本地的r的服务。1.r包管理:Ctrl+72.R本地服务管理:Ctrl+9Visual Studio R官方帮助文档(中文): https://docs

0评论2023-03-16320

拓端tecdat|R语言代写实现向量自回归VAR模型
原文链接:http://tecdat.cn/?p=8478 澳大利亚在2008 - 2009年全球金融危机期间发生了这种情况。澳大利亚政府发布了一揽子刺激计划,其中包括2008年12月的现金支付,恰逢圣诞节支出。因此,零售商报告销售强劲,经济受到刺激。因此,收入增加了。VAR面临的批

0评论2023-03-16915

[译]用R语言做挖掘数据《五》 r语言数据挖掘简单实例
一、实验说明1. 环境登录无需密码自动登录,系统用户名shiyanlou,密码shiyanlou2. 环境介绍本实验环境采用带桌面的Ubuntu Linux环境,实验中会用到程序:1. LX终端(LXTerminal): Linux命令行终端,打开后会进入Bash环境,可以使用Linux命令2. GVim:非常好

0评论2023-03-08418

[译]用R语言做挖掘数据《三》 数据挖掘——基于r语言的实战
一、实验说明1. 环境登录无需密码自动登录,系统用户名shiyanlou,密码shiyanlou2. 环境介绍本实验环境采用带桌面的Ubuntu Linux环境,实验中会用到程序:1. LX终端(LXTerminal): Linux命令行终端,打开后会进入Bash环境,可以使用Linux命令2. GVim:非常好

0评论2023-03-08596

数据科学与R语言: 关于我 Rer
数据科学与R语言: 关于我关于我钱钟书曾说,鸡蛋好吃不一定要去认识下蛋的母鸡。不过人类是社会化的动物,访客和博主都希望有多一些的交流。在2012年元旦之即,写下这篇短文算是我的简介吧。 最早接触的计算机还是一台386,那时作为Geek的成就感来自于迅速的

0评论2023-03-08403

使用R语言和XML包抓取网页数据-Scraping data from web pages in R with XML package
In the last years a lot of data has been released publicly in different formats, but sometimes the data we're interested in are still inside the HTML of a web page: let's see how to get those data. One of the existing packages for doing th

0评论2023-02-12524

R语言的ARIMA模型预测 r语言arima参数估计
R通过RODBC连接数据库stats包中的st函数建立时间序列funitRoot包中的unitrootTest函数检验单位根forecast包中的函数进行预测差分用timeSeries包中diffstats包中的acf和pacf处理自相关和偏自相关stats包中的arima函数模型 

0评论2023-02-09490

更多推荐