看书标记——R语言
- Chapter 1 模式的数据挖掘
- 1.1 聚类分析
- 1.1.1 k-means聚类
- 用法
- 示例
 
- 1.1.2 k-medoids聚类
- 用法
- 示例
- 1.1.3 分层聚类
- 用法
- 示例
 
- 1.1.4 期望最大化(EM)
- 用法
- 示例
 
- 1.1.5 密度估计
- 用法
- 示例
 
 
- 1.2 异常检测
- 1.2.1 显示异常值
- 示例 1
- 示例 2
- 示例 3
 
- 1.2.2 计算异常值
- 示例 1(用name函数创建异常)
- 示例 2(DMwR中的lofactor函数)
 
 
- 1.3 关联规则(购物篮分析)
- 用法
- 示例
 
 
 
 
【数据科学:R语言实战 1】
Chapter 1 模式的数据挖掘
1.1 聚类分析
1.1.1 k-means聚类
步骤:
 (1)从数据中选取k随机行(质心)
 (2)使用Lloyd’s算法确定集群
 (3)与质心的距离对每个数据点进行分配
 (4)将质心重新用与其相关的所有点的平均值代替
 (5)对与质心距离最近的数据重新分配
 (6)循坏3、4,直到数据不再分配
 第三步表示k-means无法与相当稀疏的数据或者有较多异常值的数据一起工作,另外,集群最好有线性形状。
用法
kmeans()
- 参数
 x 待分析的数据矩阵
 centers 集群数量
 iter.max 最大迭代次数
 nstart 随机集的使用次数
 algorithm 算法Hartigan-Wong、Lloyd、Forgy、MacQueen.
 trace跟踪信息
- 属性
 cluster集群分配
 centers集群中心
 totss总平方和
 withinss每个聚类平方和的向量
 tot.withinss距离平方和总量
 betweenss聚类组间平方和
 size每个聚类的数据点数量
 iter执行迭代的次数
 ault专家诊断
示例
x <- rbind(matrix(rnorm(100, sd = 0.3), ncol = 2),matrix(rnorm(100, mean = 1, sd = 0.3), ncol = 2))
x
fit <- kmeans(x,10)
fit
#碎石图选集群数
results <-matrix(nrow=14,ncol=2,dimnames=list(2:15,c("clusters","sumsquares")))
for(1 in 2:15){fit<-kmeans(x,i)results[i-1,1]<-iresults[i-1,2]<-fit$totss}plot(results)
cluster means用于集群分配的平均值的分解
 cluster vector将100个数分配的集群
 cluster sum of squares总平方和94.6%是拟合度的表现。
1.1.2 k-medoids聚类
用法
pam()
- 参数
 x 待分析的数据矩阵(基于diss标记)
 k 集群数量
 diss FALSE(x是矩阵),TRUE(x是相异度矩阵)
 metric euclidean(欧几里得)、manhattan(曼哈顿距离)
 medoids 如果分配到了NULL,就需要开发一组medoids,否则,这是一组初步medoids.
 stand 使用x的度量标准化
 cluster.only TRUE返回聚类
 do.swap 0、1是否进行交换
 keep.diss 0、1是否保存相异点在结果中
 keep.data 0、1是否保留数据在结果中
 trace.lev 跟踪级别,0表示无跟踪信息
示例
medoids.csv数据
library(cluster)
x <- read.table(“medoids.csv”, header=TRUE, sep=",")
result <- pam(x, 2, FALSE, "euclidean")  ##medoids函数
resultsummary(result)
plot(result$data, col = result$clustering)
medoids指定使用第3行和第6行
 clustering vector聚集群
 objective function展示构建阶段和交换阶段的函数值
1.1.3 分层聚类
聚合法和分裂法
用法
hclust()
- 参数
 d 矩阵
 method 附聚法,“ward.D/ward.D2/single/complete/average/mcquitty/median/centroid”
示例
dat <- matrix(rnorm(100), nrow=10, ncol=10)  #以正态数据为例
dat
hc <- hclust(dist(dat));hc
plot(hc)
1.1.4 期望最大化(EM)
mclust函数包里的Mclust函数(基于模型的聚类、分类、密度估计、贝叶斯正则化等,通过EM算法拟合正态混合模型)
用法
Mclust
- 参数
 data 矩阵
 G 使用的集群数量的向量,用于BIC,默认值为1:9
 modelNames 使用的模型名称的向量。当Mclust函数试图决定哪个项目属于某一集群时,函数就会使用模。单变量混合、多变量混合、单一分量数据集有不同的模型名称。(E:等方差;V:变量方差.)
 prior 平均值的可选共轭先验
 control EM 的控制参数列表,默认为List
示例
install.packages(“mclust”)
library(mclust)
data <- read.csv("http://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data")  ##iris数据
fit <- Mclust(data)  ##用EM计算最优匹配
fit
summary(fit)
plot(fit)
log.likelihood:BIC数值的对数似然值
 n:数据量
 df:自由度
 BIC:最优贝叶斯信息准则
 ICL:集成完全数据似然值(ICL与BIC相同,即可对数据点进行分类)
 plot中有四类图
- 用于选择集群数量的BIC数值:用不同的模型表现BIC的情况,多变量实例中,最不适合使用VEV模型。
- 有关聚类的图:选取提供数据最优聚类的分量(x5.1和x1.4会产生距离最近的集群)。
- 有关分类不确定性的图:不同选择对聚类迭代的影响。
- 有关集群的轨道图:每个集群的轨道图,突出显示中心点可能会出现在哪个地方。
1.1.5 密度估计
density(密度估计)、DBSCAN(确定固定点集群的聚类)、OPTICS(确定广泛分布集群的聚类)函数
用法
density()
- 参数
 x 矩阵
 bw 使用的平滑带宽
 adjust 倍增器,用于调节带宽
 kernel 平滑核心(gaussian、rectangle、trianglar、epanechnikov、biweight、cosine、optcosine)
 weights 与x长度一致的权向量
 give.Rkern TRUE表示未预估参数
 N 预估的密度点数
 from,to 最左边点和最右边点
 na.rm TRUE 表示移除缺失值
 bw.nrd0(x)/bw.nrd(x)/bw.ucv(x)/bw.bcv(x)/bw.SJ(x)
示例
data <- read.csv("http://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data")
#计算X5.1的密度
d <- density(data$X5.1)
d
plot(d)
1.2 异常检测
统计测试,基于深度、偏差、距离、密度的方法,高维方法。
1.2.1 显示异常值
示例 1
identify(in boxplot)  #identify函数便于标记散点图的点,boxplot生成盒须图
---------------------------------------------------------------------
y <- rnorm(100)
boxplot(y)
identify(rep(1, length(y)), y, labels = seq_along(y))
示例 2
boxplot函数会自动计算数据集的异常值
x <- rnorm(100)
summary(x)
boxplot.stats(x)$out  ##显示异常值
boxplot(x)
boxplot(mpg~cyl,data=mtcars, xlab="Cylinders", ylab="MPG") ##汽车的数据示例
示例 3
二维的箱线图异常检测(并集而非交集)
x <- rnorm(1000);y <- rnorm(1000)
f <- data.frame(x,y)
a <- boxplot.stats(x)$out;b <- boxplot.stats(y)$out
list <- union(a,b)
plot(f)
px <- f[f$x %in% a,];py <- f[f$y %in% b,]
p <- rbind(px,py)
par(new=TRUE)
plot(p$x, p$y,cex=2,col=2)
#结果并不准确,需结合实际
1.2.2 计算异常值
示例 1(用name函数创建异常)
data <- read.csv("http://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data")
outliers <- function(data, low, high) {
outs <- subset(data, data$X5.1 < low | data$X5.1 > high)
return(outs)
}
outliers(data, 4.5, 7.5)  ## <4.5,>7.5为异常
示例 2(DMwR中的lofactor函数)
install.packages(“DMwR”)
library(DMwR)
nospecies <- data[,1:4]  ##移除“种类”列
scores <- lofactor(nospecies, k=3)   #确定异常值
plot(density(scores)) #画出异常值分布
1.3 关联规则(购物篮分析)
apriori()
用法
- 参数
 data 事务数据
 parameter 默认支持度0.1、置信度0.8、最大长度10
 appearance 用于限制规则中出现的项目
 control 用于调整所用算法的性能
示例
install.packages("arules")
library(arules)
data <- read.csv("http://www.salemmarafi.com/wp-ontent/uploads/2014/03/groceries.csv")
rules <- apriori(data) ;rules  #生成规则
##置信度默认为0.8,三个项目中有15295个事务,有五个规则
inspect(rules)
rules <- apriori(data, parameter = list(supp = 0.001, conf = 0.8))  #当参数修改后,生成500多个规则,但是置信度为0.001