精华内容
下载资源
问答
  • 第一,作者在承担国家教委人文社会科学研究八五规划项目博士点基金项目年代我国居民消费结构及倾向的研究过程中,感到在很多情况下,参数统计方法的运用受到限制,如研究居民消费行为、居民收人等级与消费结构的关系...
  • 关于岩土参数统计计算方法,GB50021—2001《岩土工程勘察规范》引入了随机场理论,得到母体空间均值在置信水平1-α下的单侧置信界限,并采用标准值表述之。但是由于随机场理论方法尚未完全实用化,故而采用了近似简化...
  • 这本参考教材对学习非参数者有很大帮助,思路清晰,内容详细,不是高清版本,但是基本上能顺利阅读,所以上传希望能帮助到大家!
  • 参数统计方法应用 (全书例题R语言实现) 第二章 2.1 例2.1 a <- c(88,12) b <- c(0.95,0.05) chisq.test(a,p = b) $p.value p = 0.001318969 例2.2 a <- c(380,69,43,8) b <- c(0.8,0.12,0.07,...

    非参数统计:方法与应用

    (全书例题R语言实现)

    第二章

    2.1

    例2.1
    a <- c(88,12)
    b <- c(0.95,0.05)
    chisq.test(a,p = b) $p.value p = 0.001318969
    例2.2
    a <- c(380,69,43,8)
    b <- c(0.8,0.12,0.07,0.01)
    chisq.test(a, p = b) $p.value p = 0.1127
    例2.4(续2.2)
    a <- c(380,69,51)
    b <- c(0.8,0.12,0.08)
    chisq.test(a, p = b) p.valuep=0.068052.4a<c(3,8,10,7,2)b<c(0.1174,0.2355,0.328,0.2437,0.0754)chisq.test(a,p=b)p.value p = 0.06805 例2.4 a <- c(3,8,10,7,2) b <- c(0.1174,0.2355,0.328,0.2437,0.0754) chisq.test(a, p = b)p.value p = 0.9929581

    2.2

    例题2.6 (1)
    x = c(-5,-3,-1,0,1,2,4,7,8)
    y = c(1,1,2,1,5,5,3,1,1)
    mu = mean(rep(x,y))
    z = (x-mu)/3
    f0 = pnorm(z, 0, 1)
    n = length(x)
    sn = NULL
    for(i in 1:n){
    sn[i] <- sum(y[1:i])
    }
    Sn <- sn/20
    D = max(abs(Sn-f0))

    例题2.8
    a <-c(11,11,8,9,7,9,12)
    b=rep(1/7,7)
    a=a/sum(a)
    ks.test(jitter(a),jitter(b))

    2.3

    例题2.7
    binom.test(9,10,alternative = ‘greater’,conf.level = 0.9)
    例题2.8
    binom.test(10,12,alternative = ‘greater’,conf.level = 0.9)
    例题2.9
    binom.test(12,14,alternative = ‘two.sided’,conf.level = 0.9)
    例题2.10
    binom.test(1,8,alternative = ‘two.sided’,conf.level = 0.95)
    例题2.11
    binom.test(5,6,alternative = ‘greater’,conf.level = 0.9)
    例题2.12
    binom.test(2,13,alternative = ‘less’,conf.level = 0.9)
    例题2.14
    binom.test(7,18,p=0.25,alternative = ‘greater’,conf.level = 0.9)
    例题2.15
    p1 <- pbinom(3,13,0.75,lower.tail = T)
    p1
    例题2.16
    p2 <- pbinom(3,8,0.5,lower.tail = T)
    p2
    2.4
    例题2.17
    x1 <- c(24.3,25.8,25.4,24.8,25.2,25.1,25,25.5)
    d <- abs(x1-25)
    x2 <- x1[-which(d==0)]
    wilcox.test(x2,alternative = ‘greater’,mu=25)
    例题2.18
    x1 <- c(42,51,31,61,44,55,48)
    x2 <- c(38,53,36,52,33,49,36)
    wilcox.test(x1-x2,alternative = ‘less’,mu=0)
    例题2.21
    y1 <- c(14,12,18,7,11,9,16,15,13,11,18,8,13,10,14,16,
    15,12,17,7,11,9,16,15)
    y2 <- c(10,4,14,6,9,6,12,12,10,5,15,6,9,6,11,12,11,6,
    14,5,10,4,13,10)
    wilcox.test(y1-y2,alternative = ‘two.sided’,exact = F,correct = T,mu=3)
    2.5
    例题2.19
    library(tseries)
    y1 <- c(1,1,0,1,0,0,1,1,1,0)
    runs.test(factor(y1),alternative = ‘two.sided’)
    例题2.20
    y1 <- c(0,0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,1,1,1,1,1,1,1)

    第三章

    3.1

    例题3.1
    x1 <- c(2,2,2,2,3,3,3,3,3,3,2,3,3,2,3)
    x2 <- c(3,4,2,3,2,3,4,4,2,4,4,3,4,4,4)
    n1 <- sum(x1-x2>0)
    n2 <- sum(x1-x2<0)
    n=n1+n2
    binom.test(n1,n,alternative = ‘less’)
    例题3.2
    x <- c(2,3,3,3,3,3,3,3,2,3,2,2,5,2,5,3,1)
    y <- c(4,4,5,5,3,2,5,3,1,5,5,5,4,5,5,5,5)
    n1 <- sum(x-y>0)
    n2 <- sum(x-y<0)
    n=n1+n2
    binom.test(n1,n,alternative = ‘less’)

    3.2

    例题3.3
    x <- c(78,70,67,81,76,72,85,83)
    y <- c(62,58,63,77,80,73,82,78)
    wilcox.test(x,y,paired = T,alternative = ‘two.sided’,
    exact = T,correct = F)
    x <- c(78,70,67,81,76,72,85,83)
    y <- c(62,58,63,77,80,73,82,78)
    wilcox.test(x,y,paired = T,alternative = ‘greater’,
    exact = T,correct = F)

    第四章

    4.1

    例题4.1
    x = c(0.94,1.56,1.15)
    y = c(1.20,1.63,2.26,1.87,2.20,1.30)
    wilcox.test(x,y,paired = F,alternative = ‘less’)
    例题4.2
    x <- c(83,82,84,96,90,64,91,71,75,72)
    y <- c(42,61,52,78,69,81,75,78,78,65)
    wilcox.test(x,y,paired = F,alternative = ‘greater’)

    4.2

    例题4.3
    library(tseries)
    y <- c(0,0,0,1,0,0,1,1,1,0,
    0,0,0,0,1,1,1,1,1,1)
    y <- as.factor(y)
    runs.test(y)

    4.3

    例题4.4
    f1 <- c(60,21,11,4,4)
    f2 <- c(130,50,10,6,4)
    f <- f1+f2
    n1 <- sum(f1);n2 <- sum(f2);n <- sum(f)
    e1 <- f*(n1/n);e2 <- f-e1
    Q <- sum((f1-e1)2/e1)+sum((f2-e2)2/e2)
    qchisq(0.05,df=4,lower.tail = F)
    pchisq(Q,df=4,lower.tail = F)

    4.4

    例题4.5
    f1 <- c(58,51,47,44,22,14)
    f2 <- c(31,46,53,73,51,20)
    s1 <- cumsum(f1)/sum(f1)
    s2 <- cumsum(f2)/sum(f2)
    D <- max(abs(s1-s2));D
    K-S检验
    ks.test(f1,f2,exact = F)
    由于数据不是连续变量,所以采用卡方检验
    f <- f1+f2
    n1 <- sum(f1);n2 <- sum(f2);n <- sum(f)
    e1 <- f*(n1/n);e2 <- f-e1
    Q <- sum((f1-e1)2/e1)+sum((f2-e2)2/e2)
    pchisq(Q,df=5,lower.tail = F)
    例题4.6
    x1 <- c(3.1,2.1,8.2,2.7,3.4,7.9,3.2)
    x2 <- c(5.3,3.7,5.8,3.5,4.8,5.6,6.8,9.3,10.3)
    ks.test(x1,x2,alternative = ‘greater’)
    例题4.7
    x1 <- c(160,138,137)#美国产
    x2 <- c(179,167,148,145,144,139,138)#进口
    ks.test(x1,x2,alternative = ‘two.sided’)

    第五章

    5.1

    例题5.1
    c1=c(1,0,0,1,1,0,0,0,0,1,0,0,1,1,1,0,1,0)
    c2=c(0,0,0,1,0,1,0,1,1,1,0,0,0,1,1,1,0,0)
    c3=c(0,1,1,0,1,0,0,0,1,1,1,1,0,0,0,0,0,0)
    c4=c(1,0,1,0,0,0,1,0,0,0,0,0,1,0,0,0,1,1)
    d1 <- data.frame(c1,c2,c3,c4)
    CochranQ <- function(data){
    y <- apply(data,1,sum)
    x <- apply(data,2,sum)
    k <- ncol(data)
    Q <- (k-1)(ksum(x2)-(sum(x))2)/(k*sum(y)-sum(y^2))
    return(list(Q.value = Q,p.value = pchisq(Q,k-1,lower.tail = F)))}
    CochranQ(d1)
    例题5.2
    c1 <- c(0,0,0,0,1,0,0,0,1,0,0,0,0,0,0,1,0,0)
    c2 <- c(0,1,1,0,0,1,1,1,0,0,1,1,1,1,1,1,0,1)
    c3 <- c(0,1,0,0,1,1,1,0,1,0,1,1,1,1,1,1,1,1)
    d2 <- data.frame(c1,c2,c3)
    CochranQ(d2)
    例题5.3
    c1=c(1,1,0,0,0,0,1,0,0,0,1,0,0,1,1,0,0,1,1,1)
    c2=c(0,1,1,0,1,0,1,1,0,0,0,1,0,0,0,1,0,0,0,1)
    c3=c(0,0,1,1,1,1,0,0,0,0,1,0,1,1,1,1,1,0,1,0)
    d3 <- data.frame(c1,c2,c3)
    CochranQ(d3)

    5.2

    例题5.4
    a1 <- c(1,1,2,3,2,1,1,2,2,2,1,1,1,1,1,1,1,1)
    a2 <- c(3,2,3,2,1,3,2,3,1,1,3,3,2,3,2.5,2,2,2)
    a3 <- c(2,3,1,1,3,2,3,1,3,3,2,2,3,2,2.5,3,3,3)
    d1 <- data.frame(a1,a2,a3)
    friedman.test(as.matrix(d1))
    例题5.5
    c1 <- c(10,2,4,6,3,5,7,6,10,8,5,2,4,6)
    c2 <- c(3,5,10,3,4,4,10,10,5,9,4,5,5,5)
    c3 <- c(6,9,3,10,10,6,6,3,7,7,2,4,10,8)
    c4 <- c(8,4,8,4,6,7,5,5,6,6,6,7,9,10)
    d2 <- data.frame(c1,c2,c3,c4)
    friedman.test(as.matrix(d2))

    第六章

    6.1

    例题6.1
    c1 <- c(22,19,29,24,37,27,28,25,23,26)
    c2 <- c(2,6,16,11,7,18,14,21,10,17)
    c3 <- c(5,1,4,8,9,15,12,20,13,3)
    c4 <- c(30,32,34,36,39,35,40,31,33,38)
    d1 <- list(c1,c2,c3,c4)
    kruskal.test(d1)

    例题6.2
    b1 <- c(60,75,62,76,73,98,86)
    b2 <- c(72,52,68,82,74,64,87)
    b3 <- c(61,85,78,66,70,59,69,79)
    b4 <- c(63,58,65,71,84,77,80,89)
    d2 <- list(b1,b2,b3,b4)
    kruskal.test(d2)
    例题6.3
    c1 <- c(62,56,62,84,90,48,49,64,69,72,
    73,79,89,98,92,52,54,84,82,69,
    56,48,64,72,78,84,86,92,98,62)
    c2 <- c(73,78,92,86,84,69,73,92,98,81)
    c3 <- c(84,86,98,72,69,79,86,84,70,90)
    d3 <- list(c1,c2,c3)
    kruskal.test(d3)

    6.2

    例题6.4
    d4 <- matrix(c(111,18,19,17,644,218,105,119,290,204,113,108,57,49,32,58),nrow = 4)
    chisq.test(d4)
    例题6.4(1)
    d5 <- matrix(c(40,25,20),nrow = 1)
    chisq.test(d5)

    第七章

    7.1

    例题7.1
    u <- c(1,2,5,9,4,6,3,7,10,8)
    v <- c(5,3,9,6,8,4,2,1,7,10)
    RC <- function(u,v){
    D = sum((u-v)^2)
    n <- length(u)
    R <- 1-6D/(n(n^2-1))
    return ®
    }
    RC(u,v)
    例题7.2
    c1 <- c(82,87,60,98,75,89,84,78,80,94,85,68)
    c2 <- c(86,78,65,88,64,90,80,77,76,96,85,70)
    u <- rank(c1)
    v <- rank(c2)
    RC(u,v)
    例题7.3
    c1 <- c(92,90,90,87,81,80,79,77,68,67,65,64,
    61,60,59,55,76,76,74,68,46,42,39,38)
    c2 <- c(56,70,71,76,69,68,62,70,55,66,59,58,
    50,54,43,45,64,63,54,65,34,32,30,31)
    u <- rank(c1)
    v <- rank(c2)
    RC(u,v)
    例题7.4
    c1 <- c(92,90,90,87,81,80,79,77,68,67,65,64,
    61,60,59,55,76,76,74,68,46,42,39,38)
    c2 <- c(56,70,71,76,69,68,62,70,55,66,59,58,
    50,54,43,45,64,63,54,65,34,32,30,31)
    cor.test(c1,c2,method = ‘spearman’)
    例题7.5
    c1 <- c(82,87,60,98,75,89,84,78,80,94,85,68)
    c2 <- c(86,78,65,88,64,90,80,77,76,96,85,70)
    cor.test(c1,c2,method = ‘spearman’)
    例题7.6
    c1 <- c(49,36,127,91,72,34,155,11)
    c2 <- c(39,42,10,25,22,35,15,48)
    cor.test(c1,c2,method = ‘spearman’)
    7.2
    例题7.6(1)
    x <- c(82,87,60,98,75,89,84,78,80,94,85,68)
    y <- c(86,78,65,88,64,90,80,77,76,96,85,70)
    n <- length(c1);u=0;v=0
    for(i in 1:(n-1)){
    for(j in (i+1):n){
    u=u+((x[j]-x[i])(y[j]-y[i])>0)
    v=v+((x[j]-x[i])
    (y[j]-y[i])<0)
    }
    }
    tau <- (u-v)/choose(n,2)
    tau

    例题7.7
    x <- c(82,87,60,98,75,89,84,78,80,94,85,68)
    y <- c(86,78,65,88,64,90,80,77,76,96,85,70)
    cor.test(x,y,method = ‘kendall’)
    例题7.8
    c1 <- c(1,2.5,2.5,4.5,4.5)
    c2 <- c(2,3.5,3.5,1,5)
    cor.test(c1,c2,method = ‘kendall’)
    例题7.8(1)
    c1 <- c(9,16.6,16.2,11.3,16.2,7.1,7.8,4.0,11.2,1.3)
    c2 <- c(7.8,19.3,20.1,7.1,13,4.8,8.9,7.4,10,1.5)
    cor.test(c1,c2,method = ‘kendall’)
    cor.test(c1,c2,method = ‘spearman’)
    例题7.9
    c1 <- c(40,35,30,36,41,45,48)
    c2 <- c(18,0,6,15,24,30,45)
    c3 <- c(2.5,2,1.5,2.4,3,2.8,2.9)
    txy <- cor.test(c2,c3,method = ‘kendall’)$ estimate
    txz <- cor.test(c2,c1,method = ‘kendall’)$ estimate
    tyz <- cor.test(c3,c1,method = ‘kendall’)$ estimate
    T1 <- (txy-txz*tyz)/sqrt((1-txz2)*(1-tyz2))
    T1

    第八章

    8.1

    例题8.1
    c1 <- c(1,2,5,9,4,6,3,7,10,8)
    c2 <- c(1,3,4,7,5,6,2,10,8,9)
    c3 <- c(1,7,6,5,3,4,9,10,2,8)
    c4 <- c(1,5,2,4,6,7,10,3,9,8)
    c5 <- c(1,8,6,10,5,7,2,4,9,3)
    c6 <- c(5,3,9,6,8,2,4,1,7,10)
    data <- data.frame(c1,c2,c3,c4,c5,c6)
    R <- apply(data,1,sum)
    k <- ncol(data)
    n <- nrow(data)
    S <- sum((R-k*(n+1)/2)^2)
    W <- 12S/((k2)*(n3-n));W
    例题8.2
    c1 <- c(5.5,2.5,5.5,4,7,8,1,9,2.5,10)
    c2 <- c(1,3,7.5,7.5,5,2,10,9,4,6)
    c3 <- c(1,4,2.5,2.5,6,8.5,8.5,6,6,10)
    c4 <- c(1,2,3.5,3.5,9,6,8,5,10,7)
    c5 <- c(1,8,6,10,5,7,2,4,9,3)
    c6 <- c(1.5,1.5,7.5,9.5,3.5,6,9.5,3.5,5,7.5)
    data <- data.frame(c1,c2,c3,c4,c5,c6)
    k <- ncol(data)
    n <- nrow(data)
    t <- matrix(nrow = 1,ncol = k)
    for(i in 1:k){
    t[,i] <- sum((table(data[,i]))^3-table(data[,i]))
    }
    sum(t)
    data_r <- apply(data,2,rank)
    R <- apply(data_r,1,sum)
    S <- sum((R-k
    (n+1)/2)^2)
    W <- 12S/((k2)*(n3-n)-ksum(t))
    W
    例题8.3
    pchisq(k*(n-1)*W,n-1,lower.tail = F)

    8.2

    例题8.4
    c1 <- c(1,2,0,3,0,0,0)
    c2 <- c(0,1,3,0,2,0,0)
    c3 <- c(0,0,3,2,0,1,0)
    c4 <- c(0,0,0,2,3,0,1)
    c5 <- c(1,0,0,0,3,2,0)
    c6 <- c(0,2,0,0,0,1,3)
    c7 <- c(1,0,3,0,0,0,2)
    data <- data.frame(c1,c2,c3,c4,c5,c6,c7)
    data <- t(data)
    m=3;k=7;n=7;l=1
    R <- apply(data,2,sum)
    S <- sum((R-km(m+1)/(2n))^2)
    W <- 12
    S/((l2)*n*(n2-1));W
    例题8.5
    Q <- l*(n^2-1)W/(m+1)
    pchisq(Q,n-1,lower.tail = F)
    例题8.6
    P <- n
    (n-1)/2
    alpha <- 0.3
    Z <- qnorm(0.5alpha/P,0.1,lower.tail = F)
    Z1 <- Z
    sqrt(km(m^2-1)/(6*(n-1)))
    R=t(as.data.frame®)
    colnames®=c(‘A’,‘B’,‘C’,‘D’,‘E’,‘F’,‘G’)
    R

    第九章

    9.2

    例题9.1
    c1 <- c(14,67,30)
    c2 <- c(30,105,13)
    c3 <- c(4,60,14)
    data <- data.frame(c1,c2,c3)
    chisq.test(data)
    例题9.2
    Q=23.072;n=sum(data);r=c=3
    phi=sqrt(Q/n)
    C=sqrt(Q/(Q+n))
    V=sqrt(Q/(n*min(r-1,c-1)))

    9.3

    例题9.3
    y1 <- c(18,29,18,12)
    y2 <- c(20,13,16,20)
    d5 <- t(data.frame(y1,y2))
    lie <- function(data){
    n <- sum(data)
    y <- apply(data,1,sum)
    E1 <- n - max(y)
    x <- apply(data,2,max)
    E2 <- n-sum(x)
    return(list(la.value = (E1-E2)/E1, My.value = max(y),
    v1 = n - max(y)))
    }
    lie(d5)
    例题9.4
    y1 <- c(40,182,204,200)
    y2 <- c(42,176,208,148)
    d6 <- data.frame(y1,y2)
    n=sum(d6)
    My=max(apply(d6,1,sum))
    Mx=max(apply(d6,2,sum))
    my=sum(apply(d6,1,max))
    mx=sum(apply(d6,2,max))
    lambda <- (mx+my-Mx-My)/(2n-Mx-My)
    lambda
    例题9.5
    chisq.test(d5)
    d51 <- d5[,-1]
    d52 <- d51[,-2]
    chisq.test(d52)
    例题9.6
    chisq.test(d6)
    例题9.7
    tauy <- function(x){
    n <- sum(x)
    fy <- apply(x,1,sum)#y边际频数
    fx <- apply(x,2,sum)#x边际频数
    E1 <- sum(fy
    (1-fy/n))#自己预测自己的误差
    r <- nrow(x);c <- ncol(x)
    E <- matrix(nrow = r,ncol = c)
    for(j in 1:r){
    for(i in 1:c){
    E[j,i]=x[j,i](1-x[j,i]/fx[i])
    }
    }
    E2 <- sum(E)#考虑x的预测误差
    return ((E1-E2)/E2)
    }
    a1 <- c(3191,2370,1286,935)
    a2 <- c(1120,1183,528,187)
    data <- data.frame(a1,a2)
    tauy(data)
    例题9.8
    taux <- function(x){
    n <- sum(x)
    fy <- apply(x,1,sum)#y边际频数
    fx <- apply(x,2,sum)#x边际频数
    E1 <- sum(fx
    (1-fx/n))#自己预测自己的误差
    r <- nrow(x);c <- ncol(x)
    E <- matrix(nrow = r,ncol = c)
    for(i in 1:c){
    for(j in 1:r){
    E[j,i]=x[j,i](1-x[j,i]/fy[j])
    }
    }
    E2 <- sum(E)#考虑y的预测误差
    return ((E1-E2)/E2)
    }
    a1 <- c(3191,2370,1286,935)
    a2 <- c(1120,1183,528,187)
    data <- data.frame(a1,a2)
    taux(data)
    例题9.9
    tauy(d6)
    例题9.10
    c1 <- c(14,18,8)
    c2 <- c(13,2,15)
    c3 <- c(13,15,2)
    d7 <- data.frame(c1,c2,c3)
    chisq.test(d7)
    tauy(d7)
    例题9.11
    c1 <- c(2,32,10)
    c2 <- c(44,10,2)
    d8 <- data.frame(c1,c2)
    chisq.test(d8)
    tauy(d8)
    taux(d8)
    例题9.12
    gamma <- function(x){
    r <- nrow(x);c <- ncol(x)
    n1 <- matrix(nrow = r-1,ncol = c-1)
    for(i in 1:(r-1)){
    for(j in 1:(c-1)){
    n1[i,j] <- x[i,j]sum(x[(i+1):r,(j+1):c])
    }
    }
    ns <- sum(n1)
    n2 <- matrix(nrow = r-1,ncol = c-1)
    for(i in 1:(r-1)){
    for(j in c:2){
    n2[i,j-1] <- x[i,j]sum(x[(i+1):r,1:(j-1)])
    }
    }
    nd <- sum(n2)
    G <- (ns-nd)/(ns+nd)
    return (list(G=G,ns=ns,nd=nd))
    }
    gamma(t(d8))
    例题9.13
    c1 <- c(60,0)
    c2 <- c(48,12)
    d9 <- data.frame(c1,c2)
    gamma(d9)
    例题9.14
    n <- sum(t(d8))
    G <- gamma(t(d8))G;ns<gamma(t(d8))G;ns <- gamma(t(d8))ns;nd <- gamma(t(d8))$nd
    Z <- G
    sqrt((ns+nd)/(n
    (1-G^2)));Z
    pnorm(Z,lower.tail = T)
    例题9.15
    y1 <- c(38,5,4)
    y2 <- c(18,16,6)
    y3 <- c(4,4,5)
    data <- t(data.frame(y1,y2,y3))
    Sod <- function(data){
    r <- nrow(data);c <- ncol(data)
    n1 <- matrix(nrow = r-1,ncol = c-1)
    for(i in 1:(r-1)){
    for(j in 1:(c-1)){
    n1[i,j] <- data[i,j]sum(data[(i+1):r,(j+1):c])
    }}
    ns <- sum(n1)
    n2 <- matrix(nrow = r-1,ncol = c-1)
    for(i in 1:(r-1)){
    for(j in c:2){
    n2[i,j-1] <- data[i,j]sum(data[(i+1):r,1:(j-1)])
    }}
    nd <- sum(n2)
    n3 <- matrix(nrow = r,ncol = c-1)
    for(i in 1:r){
    for(j in 1:(c-1)){
    n3[i,j] <- data[i,j]sum(data[i,(j+1):c])
    }}
    Ty = sum(n3)
    dyx <- (ns-nd)/(ns+nd+Ty)
    return (dyx)
    }
    Sod(data)
    例题9.16
    x <- apply(data,2,sum);y <- apply(data,1,sum)
    A2 <- (sum(x%
    %t(x))-t(x)%
    %x)0.5
    B2 <- (sum(y%
    %t(y))-t(y)%
    %y)0.5
    A3 <- prod(x);B3 <- prod(y);n <- sum(data)
    s1 <- abs(ns-nd)-n/(2
    (r-1)
    (c-1))
    se <- sqrt((A2B2)/(n-1)-(A2B3+A3B2)/(n(n-1))+(A3B3)/(n(n-1)*(n-2)))
    s1/se
    pnorm(abs(s1/se),lower.tail = F)
    例题9.17
    x1 <- c(4.2,3,2.9,3.2,2.7,3.1,2.3)
    x2 <- c(3.2,2.9,2.7,2.1,1.9,3.1,2.8)
    x3 <- c(3.1,2.8,2.2,1.1,2,2.5)
    y <- c(x1,x2,x3)
    E1 <- sum((y-mean(y))^2)
    E2 <- sum((x1-mean(x1))^2) + sum((x2-mean(x2))^2) + sum((x3-mean(x3))^2)
    eta2 <- (E1-E2)/E1
    eta2
    例题9.18
    k <- 3;n <- length(y)
    f <- (eta2/(k-1))/((1-eta2)/(n-k));f
    pf((eta2/(k-1))/((1-eta2)/(n-k)),k-1,n-k,ncp=0,lower.tail = F)

    第十章

    10.1

    例题10.1
    data <- c(18,25,16,28,15,30,14,28,8,12,6,15)
    data <- array(data,dim = c(2,2,3),dimnames = list(c(‘台式’,‘台地式’),c(‘两代’,‘三代以上’),c(‘热带’,‘温带’,‘寒带’)))
    loglin(data,list(1,2,3))pearson10.2data<c(16,7,1,1,15,34,3,8,5,3,1,3)data<array(data,dim=c(2,2,3),dimnames=list(c(,),c(<40,>=40),c(,,)))df1<loglin(data,list(1,2,3))pearson 例题10.2 data <- c(16,7,1,1,15,34,3,8,5,3,1,3) data <- array(data,dim = c(2,2,3),dimnames = list(c('不吸烟','吸烟'),c('<40','>=40'),c('正常','尚可','异常'))) df1 <- loglin(data,list(1,2,3))df
    chi1 <- loglin(data,list(1,2,3))pearsonpchisq(chi1,df=df1,lower.tail=F)10.3df2<loglin(data,list(2,c(1,3)))pearson pchisq(chi1,df=df1,lower.tail = F) 例题10.3 df2 <- loglin(data,list(2,c(1,3)))df
    chi2 <- loglin(data,list(2,c(1,3)))$pearson
    pchisq(chi2,df=df2,lower.tail = F)
    例题10.4
    c1 <- c(14,67,30)
    c2 <- c(30,105,13)
    c3 <- c(4,60,14)
    data <- data.frame(c1,c2,c3)
    data1 <- log(data)
    meanx <- apply(data1,1,mean)
    meany <- apply(data1,2,mean)
    la <- mean(meanx);la
    la1 <- meanx-la;la1
    la2 <- meany-la;la2
    la12 <- matrix(nrow = 3,ncol = 3)
    for(i in 1:3){
    for(j in 1:3){
    la12[i,j] <- data1[i,j]-meanx[i]-meany[j]+la
    }
    };la12
    例题10.5
    data <- c(16,1,7,1,15,3,34,8,5,1,3,3)
    data <- array(data,dim = c(2,2,3),dimnames = list(c(’<40’,’>=40’),c(‘不吸烟’,‘吸烟’),c(‘正常’,‘尚可’,‘异常’)))
    data2 <- log(data)
    la <- mean(data2);la
    meanx <- apply(data2,1,mean);meanx
    meany <- apply(data2,2,mean);meany
    meanz <- apply(data2,3,mean);meanz
    la1 <- meanx-la;la1
    la2 <- meany-la;la2
    la23 <- matrix(nrow = 2,ncol = 3)
    for(j in 1:2){
    for(k in 1:3){
    la23[j,k] <- (data2[1,j,k]+data2[2,j,k])/2-meany[j]-meanz[k]+la
    }
    };la23
    例题10.6
    data <- c(3,17,4,2,176,197,293,23)
    data <- array(data,dim = c(2,2,2),dimnames = list(c(‘A’,‘B’),c(‘少’,‘多’),c(‘死’,‘活’)))
    chisq.test(data[1,])#A医院,独立
    chisq.test(data[2,])#B医院,独立
    c1 <- c(20,6)
    c2 <- c(373,316)
    data6 <- data.frame(c1,c2)
    chisq.test(data6)#拒绝原假设,故相关

    展开全文
  • Bootstrap核心思想Bootstrap核心思想容易理解,实际操作起来也很容易:对原始数据重复抽样N次得到一系列“相同”统计量的值,对这些值计算标准差、分位数等来构造区间估计。Bootstrap应用举例数学期望的Bootstr...

    最近事情真的太多了,我已经不想,也几乎没有时间再发推文了。但是鉴于距离评论功能的开启只差一个星期的推文,真香!

    今天简单介绍一下Bootstrap估计区间的方法。

    57f855b319d5ddd528a270eed389df28.gif

    Bootstrap核心思想

    Bootstrap核心思想容易理解,实际操作起来也很容易:

    对原始数据重复抽样N次得到一系列“相同”统计量的值,对这些值计算标准差、分位数等来构造区间估计。

    Bootstrap应用举例

    数学期望39fe8c64817e5a924df65f081be0c5b5.png的Bootstrap区间估计,ad00adbc4b64c5325b0c65026be97967.png是一组独立同分布的样本,其数学期望的区间估计步骤:

    (1)计算均值b99702ca6c2c68fc3c54230c45934ca4.png.

    (2)在数据ad00adbc4b64c5325b0c65026be97967.png中有放回抽取(无放回抽取也行)m个样本ba0dd0b339bf42aafa8ea11bcc4af39f.png,m为小于等于n且大于0的任意整数,计算均值1149317f90125f8474d9b6c92f1765f3.png.

    (3)将第(2)步的过程重复进行B次,得到870d059d9a1abc20c445e914035233e0.png.

    (4)找出新样本e7f1552a4854d7e7215be90e3979065d.png的样本分位数

    如:0.025样本分位数8d78dcead98e1a1fe226312c11f25330.png,0.975样本分位数a6d3bfdb370efc05c2c5e3b6549a0795.png,那么μ的95%置信区间为e8e0c3e5fb5e82703a92bdc5bcb10f78.png.

    基于正态近似的Bootstrap方法

    (1)计算均值b99702ca6c2c68fc3c54230c45934ca4.png

    (2)在数据ad00adbc4b64c5325b0c65026be97967.png中有放回抽取(无放回抽取也行)m个样本ba0dd0b339bf42aafa8ea11bcc4af39f.png,m为小于等于n且大于0的任意整数,计算均值1149317f90125f8474d9b6c92f1765f3.png.

    (3)将第(2)步的过程重复进行B次,得到870d059d9a1abc20c445e914035233e0.png.

    (4)有中心极限定理μ的95%近似置信区间为

    d85dba53d9da1942a4b39b5f4bbf3108.png.

    (5)根据Bootstrap样本的046988eb152f92dd619e1cda4152ba08.png估计为

    66e0a7658a791943884dc7cce7206dec.png.

    基于正态近似的Bootstrap 95%置信区间为

    f3e99790cb2e551364045ac2b079c875.png.

    这相当于利用Bootstr方法给出046988eb152f92dd619e1cda4152ba08.png的估计.

    Bootstrap方法的R实现

    #################################################### 四: 标准正态分布均值的置信区间估计############n=1000       ## 样本量x=rnorm(n)   ## n个标准正态分布随机数t.test(x-0)  ## 利用t检验 检验均值是否为0 可以给出基于t分布的95%置信区间Norm.left=mean(x)-qnorm(0.975,0,1)/sqrt(n) ##基于标准正态分布的95%置信区间左端Norm.righ=mean(x)+qnorm(0.975,0,1)/sqrt(n) ##基于标准正态分布的95%置信区间左端list(Norm.left,Norm.righ)##################################################Boostrap方法m=n/2       ## B=1000      ## bootstrap重复次数Exam1=0*seq(1,B,1) ## 设置1个B维的向量Exam2=Exam1for(ii in 1:B){seed1=sample(1:n, m, replace=F) ## 在1:n序列里面“无放回”抽取m个正整数                               ## "replace=F"表示无放回seed2=sample(1:n, m, replace=T) ## 在1:n序列里面“有放回”抽取m个正整数                               ## "replace=T"表示有放回x.boot1=x[seed1]               ## 将seed1作为下标提取出原始数据的样本x.boot2=x[seed2]               ## 将seed2作为下标提取出原始数据的样本Exam1[ii]=mean(x.boot1)        ## 计算“无放回”的均值Exam2[ii]=mean(x.boot2)        ## 计算“有放回”的均值}conf1=c(quantile(Exam1,0.025), quantile(Exam1,0.975)) ## “无放回”置信区间conf2=c(quantile(Exam2,0.025), quantile(Exam2,0.975)) ## “有放回”置信区间list(conf1=conf1, conf2=conf2)########################################################### 基于正态近似和Bootstrap的置信区间### 标准差的Bootstrap估计sd1=sqrt(var(Exam1))   ### 无放回sd2=sqrt(var(Exam2))   ### 有放回Boot.left1=mean(x)-qnorm(0.975,0,1)*sd1 ##基于“无放回”的95%置信区间左端Boot.righ1=mean(x)+qnorm(0.975,0,1)*sd1 ##基于“无放回”的95%置信区间右端Boot.left2=mean(x)-qnorm(0.975,0,1)*sd2 ##基于“有放回”的95%置信区间左端Boot.righ2=mean(x)+qnorm(0.975,0,1)*sd2 ##基于“有放回”的95%置信区间右端list(Boot.left1,Boot.righ1) ## 无放回list(Boot.left2,Boot.righ2) ## 有放回

    57f855b319d5ddd528a270eed389df28.gif

    很快我就要写不下去了哈哈,因为实在是太忙了,如果大家有啥鼓励的话可以在后台留言~

    展开全文
  • 本人这学期学了非参数统计,刚好老师要求将易奶奶这本书上的所有例题用R语言完成,就分享出来,例题包括8-9章的全部代码和第10章的部分。因为这本书有许多的印刷错误,题目编号要结合页码和题号共同确定。 第二章 ...
    本人这学期学了非参数统计,刚好老师要求将易奶奶这本书上的所有例题用R语言完成,就分享出来,例题包括8-9章的全部代码和第10章的部分。因为这本书有许多的印刷错误,题目编号要结合页码和题号共同确定。

    第二章 单样本非参数检验

    P12-例2.1
    R脚本代码如下:
    values <- c(12,88) #题目数据
    pp <- c(0.05,0.95) #期望频率
    result <- chisq.test(values,p = pp) #卡方检验
    result
    

    P13-例2.2
    R脚本代码如下:
    #values 为实际得到的数据
    values <- c(380,69,43,8)
    #pp 为预期概率
    pp <- c(0.8,0.12,0.07,0.01)
    #用chisq.test()函数进行卡方检验
    result <- chisq.test(values,p=pp)
    result
    #结果P值大于0.05,所以无法拒绝原假设
    
    #由于最后一组的期望频数小于5,需要对最后两组进行合并
    values2 <- c(380,69,51)
    pp2 <- c(0.8,0.12,0.08)
    result2 <- chisq.test(values2,p = pp2)
    result2
    #结果合并后的P值仍大于显著性水平,所以仍不可以拒绝原假设
    

    P17-例2.4
    R脚本代码如下:
    x <- 0:6 #A的被选择次数
    f <- c(0,0,3,8,10,7,2) #对应的频数
    theta <- sum(rep(x,f))/sum(6*f) #由样本估计A的概率
    for (i in 0:6) pp[i+1] = dbinom(i,6,theta) #计算期望频率
    f <- c(sum(f[1:3]),f[4:7]) #合并前三组的频数
    p_0 <- c(sum(pp[1:3]),pp[4:7]) #合并前三组的期望频率
    e <- 30*p_0 #期望频数
    Q <- sum((f-e)^2/e) #计算统计量的值
    pchisq(Q,df = 5-1-1,ncp = 0,lower.tail = F) #求出统计量的P值
    #远大于0.05,所以不可以拒绝原假设,认为是二项分布,且A要比B好
    

    P21-例2.5
    R脚本代码如下:
    y <- c(343,27,9,1,1,1,2) #表2-9作者数
    p1 <- y/sum(y) #计算样本数据的概率,注意:不是累积概率
    Vlachy <- function(x) return(0.8389/x^3.055)
    p2 <- c()
    for (i in 1:7) p2[i] = Vlachy(i) #计算出洛特卡分布的分布律,注:仍不是累积概率
    ks.test(p1,p2) #K—S检验,但带有连结
    
    length(unique(p1)) == 7;length(unique(p2)) == 7 #发现是p1中有连结,对它加点噪声
    ks.test(jitter(p1),p2)
    

    P22-例2.6
    R脚本代码如下:
    x <- c(-5,-3,-1,0,1,2,4,7,8)  #表2-11中的到达时间
    f <- c(1,1,2,1,5,5,3,1,1)  #表2-11中的观测频率
    values <- rep(x,f)  #恢复为raw data
    mean <- mean(values); var <- var(values)  #计算对应理论正态分布的两个参数
    sd <- sqrt(var)
    ks.test(values,pnorm,mean,sd)
    
    #可以看到提示不应有连结,所以要对原始数据加入噪声
    ks.test(jitter(values),pnorm,mean,sd)
    

    "结“是非参数统计是经常遇到的情况,简单的说就是有数据重复的情况。而通过加入噪声可以使相同的数据产生十分细小的偏差,从而避免产生”结“。


    P24-例2.8
    R脚本代码:
    num <- c(11,11,8,9,7,9,12) #表2-14交通事故数
    p1 <- num/sum(num) #计算概率
    p2 <- rep(1/7,7) #理论分布
    ks.test(jitter(p1),jitter(p2)) 
    

    P28-例2.7
    R脚本代码如下:
    #n为总的有差异的夫妻数10,success为更保守的对数9
    n = 10 ; success = 9
    result <- binom.test(success,n,alternative = 'greater')
    result$p.value
    

    P28-例2.8
    R脚本代码如下:
    #用before和after记录广告前后的销量
    before <- c(2,2,2,2,2,3,3,3,2,3,2,3,2,3,3)
    after <- c(2,3,3,4,4,2,3,4,3,3,4,2,3,4,4)
    #sign记录广告前后销量相减结果,pos和neg分别记录正负数据
    sign <- after - before
    pos <- sum(sign>0);neg <- sum(sign < 0)
    n <- sum(sign != 0) #不”打结“的记录数
    #分别用正负两个记录数进行两个检验,它们的P值均相同且显著
    pos.test <- binom.test(pos,n,alternative = 'greater')
    neg.test <- binom.test(neg,n,alternative = 'less')
    pos.test$p.value ; neg.test$p.value
    

    P32-例2.9
    R脚本代码如下:
    #对茶和咖啡有差异的样本有n=14个,更喜欢茶的有12个
    n <- 14 ; tea <- 12 ; coffee <- 14-12
    #首先进行喜好是否不同的符号检验
    test1 <- binom.test(tea,n,alternative = 'two.side')
    test1$p.value 
    #再进行是否更偏爱茶的符号检验
    test2 <- binom.test(tea,n,alternative = 'greater')
    test2$p.value
    

    P34-例2.10
    R脚本代码如下:
    #data记录10根钢管的原始数据
    data <- c(9.8,10.1,9.7,9.9,9.8,10,9.7,10,9.9,9.8)
    minus <- data - 10 #原始数据减10,
    pos <- sum(minus > 0) ; n <- sum(minus != 0)
    res <- binom.test(pos,n,alternative = 'two.side')
    res$p.value 
    

    P34-例2.11
    R脚本代码如下:
    #T和C分别代表表2-21的2,3列
    T <- c(13,19,34,24,40,39) ; C <- c(10,7,20,38,22,15)
    minus <- T - C ; n <- sum(minus != 0) #表示非打结数
    pos <- sum(minus > 0 ) ; neg <- sum(minus < 0 ) #分别是正负数
    res <- binom.test(pos,n,alternative = 'greater')
    res$p.value 
    

    P35-例2.12
    R脚本代码如下:
    #first,after分别代表第一胎和之后
    #n,pos,neg分别代表非打结,正号,负号样本数
    first <- c(86,89,91,101,93,85,92,115,72,75,120,106,104)
    after <- c(82,94,96,106,92,90,98,120,74,80,130,110,109)
    minus <- first - after ; n <- sum(minus != 0) 
    pos <- sum(minus > 0) ; neg <- n - pos
    res <- binom.test(neg,n,alternative = 'greater')
    res$p.value 
    

    P40-例2.14
    R脚本代码如下:
    n <- 18 ; neg <- 11 #n为18个经常性顾客,neg为不会增加购买的顾客
    res <- binom.test(neg,n,0.75,alternative = 'less')
    res$p.value
    

    P42-例2.15
    R脚本代码如下:
    first <- c(86,89,91,101,93,85,92,115,72,75,120,106,104)
    after <- c(82,94,96,106,92,90,98,120,74,80,130,110,109)
    minus <- first - after ; pp <- 1 - 0.25
    pos <- sum(minus > -3)
    res <- binom.test(pos,length(minus != 0),pp,alternative = 'less')
    res$p.value
    

    P42-例2.16
    R脚本代码如下:
    data <- c(7.2,8.3,5.6,7.4,7.8,5.2,9.1,5.8) ; n <- length(data)
    p1 <- 0.5 ; p2 <- 0.95 ; p3 <- 0.05
    #中位数检验,5年前中位数为7.5
    t1 <- sum(data > 7.5)
    res1 <- binom.test(t1,n,p1,alternative = 'less')
    res1$p.value 
    #百分之五分位数检验, 5年前5%分位数为7.5
    t2 <- sum(data >= 6) 
    res2 <- binom.test(t2,n,p2,alternative = 'less')
    res2$p.value 
    #百分之95分位数检验,5年前95%分位数为7.5
    t3 <- sum(data >= 9) 
    res3 <- binom.test(t3,n,p3,alternative = 'less')
    res3$p.value 
    

    P46-例2.17
    R脚本代码如下:
    data <- c(24.3,25.8,25.4,24.8,25.2,25.1,25,25.5) #8件铸件重量
    data <- data[data != 25] #去掉无法区分正负的项
    res <- wilcox.test(data,exact = F,alternative = 'greater', mu = 25)
    res$p.value
    

    P48-例2.18
    R脚本代码如下:
    y <- c(42,51,31,61,44,55,48) #原配方的晒黑程度
    x <- c(38,53,36,52,33,49,36) #新配方的晒黑程度
    res <- wilcox.test(x-y,alternative = 'less',mu = 0)
    res$p.value
    

    P49-例2.21
    R脚本代码如下:
    one_hours <- c(14,12,18,7,11,9,16,15,13,11,18,8,13,10,14,16,
                   15,12,17,7,11,9,16,15)  #1小时后的单词数
    two4_hours <- c(10,4,14,6,9,6,12,12,10,5,15,6,9,6,11,12,
                    11,6,14,5,10,4,13,10)  #24小时后的单词数
    minus <- one_hours - two4_hours ; minus <- minus[minus!=3]
    res <- wilcox.test(minus,alternative = 'two.side',mu = 3)
    res$p.value
    

    P55-例2.19
    R脚本代码如下:
    library(tseries)
    value <- c('A','A','B','A','B','B','A','A','A','B')
    res <- runs.test(factor(value),alternative = 'two.side')
    res$p.value
    

    P55-例2.20
    R脚本代码如下:
    library(tseries)
    value <- c(0,0,0,0,rep(1,16),0,0,0,rep(1,7)) #30个产品的好坏记录
    value <- factor(value)
    res <- runs.test(value , alternative = 'less')
    res$p.value
    

    P60-例2.21
    R脚本代码如下:
    #录入原始分数
    score <- c(31,23,36,43,41,44,12,26,43,75,2,3,15,
               13,78,24,13,27,86,61,13,7,6,8)
    #进行普通的游程检验
    fun <- function(x){
      if(x >25) return(1)
      else return(0)
    } #分数大于25的记为1,否则记为0
    flag1 <- sapply(score,fun)
    library(tseries)
    res1 <- runs.test(factor(flag1), alternative = 'two.sided')
    res1$p.value
    
    #进行上下游程检验
    flag2 <- c()
    for (i in 2:length(score)){
      if((score[i]-score[i-1])>0) flag2 <- c(flag2,1)
      else flag2 <- c(flag2,0)
    } #上升的记为1,下降的记为0
    res2 <- runs.test(factor(flag2),alternative = 'two.sided')
    res2$p.value
    
    展开全文
  • 3.非参数统计的检验方法 3.1相关性检验 检验得出的相关性系数是否可信 补充知识:非参数检验方法 概述:一种与总体分布状况无关但可以对总体进行检验的方法,它不依赖于总体的分布,主要是应用于被研究对象未知分布...

    华中农非参数统计

    1.为什么需要非参数统计?

    很多实际问题事先并不知道符合什么分布也没有什么大样本数据,那么我们应该如何获得信息呢?就是通过非参数统计,进行推断,然后得到信息。

    2.非参数统计的概念与参数统计的对比分析

    https://wiki.mbalib.com/wiki/%E9%9D%9E%E5%8F%82%E6%95%B0%E7%BB%9F%E8%AE%A1

    3.非参数统计的检验方法

    3.1相关性检验

    检验得出的相关性系数是否可信

    补充知识:非参数检验方法

    概述:一种与总体分布状况无关但可以对总体进行检验的方法,它不依赖于总体的分布,主要是应用于被研究对象未知分布的情况下,且无需对总体分布的参数(均值,标准差等等)进行统计推断。
    检验方式:1.利用样本数据的大小比较2.样本数据的顺序

    3.1.1Pearson相关性检验(并不是非参数检验方法)

    要求:检验的两个变量均服从正态分布
    步骤:
    1.sas求解概率
    使用假设检验:
    1.提出原假设与设立备择假设
    2.判断概率是否接受原假设

    3.1.2Spearman相关性检验(非参数检验方法)

    功能:利用两个变量的秩次大小检验其相关程度,不依赖于原始变量的分布
    步骤:
    1.对原始数据排序然后对顺序号进行检验
    2.sas求解概率
    使用假设检验:
    1.提出原假设与设立备择假设
    2.判断概率是否接受原假设

    3.1.3Kendall相关性检验(非参数检验)

    功能:与spearman相同,且使用于两个变量为有序分类的情况
    步骤:
    1.sas求解概率
    使用假设检验:
    1.提出原假设与设立备择假设
    2.判断概率是否接受原假设

    3.2两组样本数据的检验

    检验两组数据是否符合同分布,然后进行推广,判断是否为某已知中位数

    3.2.1符号检验

    功能:检验取自总体的配对样本来识别总体分布是否有差异
    补充:什么是配对样本?->从x取出一个再从y取出一个,两者形成配对,所以称两者为配对样本
    在这里插入图片描述
    思想:若x,y同分布,则符号为正负的个数不会相差太远,若出现极端情形则不应识别为同分布(将配对样本进行减法运算,记录符号)
    符号检验法的通用假设:
    原假设:两个总体的分布相同
    备择假设:两个总体分布不相同
    步骤:
    1.sas求解
    2.观察M统计量对应概率与0.05比较,若小于则符合小概率事件,拒绝原假设

    3.2.2中位数检验

    功能:判断总体的中位数是否为已知数a
    在这里插入图片描述
    思想:使用符号检验,将a与样本序列配对的序列(将已知数a与总体序列的数进行减法运算,然后判断返回概率是否小于0.05,小于则拒绝原假设)
    中位数检验法的通用假设:
    原假设:总体中位数为a
    备择假设:总体中位数不为a

    3.2.3秩(顺序号)和检验

    功能:判断总体分布是否有差异
    秩和:反映样本数据大小的顺序和的和
    思想:同分布的两个总体在消除样本容量不同的影响后秩和不会相差太远,若出现极端情形则不应识别为同分布
    秩和检验法的通用假设:
    原假设:两个总体的分布相同
    备择假设:两个总体分布不相同
    步骤:
    1.sas求解
    2.判断卡方统计量及它的概率是否小于0.05,若小于则拒绝原假设

    3.3多组样本数据的检验

    3.3.1多组独立样本的H检验

    独立:随意交换数据位置不会影响结果
    H检验:H检验是单向秩次方差分析(是一种秩和检验法)
    功能:检验多组独立样本是否同分布
    补充:类似于单因素方差分析,但总体分布未知
    H检验法的通用假设:
    原假设:多个总体的分布相同
    备择假设:多个总体分布不完全相同
    步骤:
    1.sas求解
    2.判断卡方统计量及它的概率是否小于0.05,若小于则拒绝原假设

    3.3.2多组相关样本的M检验

    相关:交换数据位置会影响结果
    M检验:行均值得分差异分析
    功能:检验多组相关样本是否同分布
    补充:类似双因素方差分析,但总体(行)分布未知
    M检验法的通用假设:
    原假设:多个总体的分布相同
    备择假设:多个总体分布不完全相同
    步骤:
    1.sas求解
    2.判断行均值得分差异及它的概率是否小于0.05,若小于则拒绝原假设

    展开全文
  • 第九章 列联表中的相关测量 P171-例9.1 R脚本代码如下: chisq <- function(dat){ ...- ncol(dat) #列联表相关参数 fi <- apply(dat,1,sum) #行和 fj <- apply(dat,2,sum) #列和 eij &l...
  • 第五章 k个相关样本的非参数检验 Cochran Q 检验函数 R脚本代码如下: Cochran.test <- function(dat){ k <- ncol(dat) ; n = nrow(dat) #k为数据矩阵的列数,n为行数 y <- apply(dat,1,sum) ; x <- ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,757
精华内容 702
关键字:

参数统计方法应用