精华内容
下载资源
问答
  • 统计分析中常用的抽样方法之一,帮助你迅速学习基本的抽样理论方法。
  • 考纲原文随机抽样(1)理解随机抽样的必要性和重要性.(2)会用简单随机抽样方法从总体中抽取样本;了解分层抽样和系统抽样方法...最常用的简单随机抽样的方法:抽签法和随机数法.3.应用范围:总体中的个体数较少.注...

    考纲原文

    随机抽样

    (1)理解随机抽样的必要性和重要性.

    (2)会用简单随机抽样方法从总体中抽取样本;了解分层抽样和系统抽样方法.

    知识点详解

    一、简单随机抽样

    1.定义:

    设一个总体含有N个个体,从中逐个不放回抽取n个个体作为样本(nN),如果每次抽取时总体内的各个个体被抽到的机会都相等,就把这种抽样方法叫做简单随机抽样.

    2.最常用的简单随机抽样的方法:抽签法和随机数法.

    3.应用范围:总体中的个体数较少.

    注意:不论哪种抽样方法,总体中的每一个个体入样的概率是相同的.

    二、系统抽样

    1.定义:

    当总体中的个体数目较多时,可将总体分成均衡的几个部分,然后按照事先定出的规则,从每一部分抽取一个个体得到所需要的样本,这种抽样方法叫做系统抽样.

    6d8078d798826f47bbde94022b06de90.png

    三、分层抽样

    1.定义:

    在抽样时,将总体分成互不交叉的层,然后按照一定的比例,从各层独立地抽取一定数量的个体,将各层取出的个体合在一起作为样本,这种抽样方法叫做分层抽样.

    2.应用范围:当总体是由差异明显的几个部分组成时,往往选用分层抽样.

    注意:分层抽样是按比例抽样,每一层入样的个体数为该层的个体数乘以抽样比.

    四、三种抽样方法的比较

    2309619956caa3e017a3297d7da6b3c3.png

    考向分析

    考向一 简单随机抽样

    应用简单随机抽样应注意的问题:

    (1)一个抽样试验能否用抽签法,关键看两点:

    一是抽签是否方便;

    二是号签是否易搅匀.

    一般地,当总体容量和样本容量都较小时可用抽签法.

    (2)在使用随机数表时,如遇到三位数或四位数时,可从选择的随机数表中的某行某列的数字计起,每三个或四个作为一个单位,自左向右选取,有超过总体号码或出现重复号码的数字舍去.

    (3)简单随机抽样需满足:

    ①被抽取的样本总体的个体数有限;

    ②逐个抽取;

    ③是不放回抽取;

    ④是等可能抽取.

    考向三 分层抽样

    与分层抽样有关问题的常见类型及解题策略:

    (1)求某一层的样本数或总体个数.可依据题意求出抽样比,再由某层总体个数(或样本数)确定该层的样本(或总体)数.

    (2)求各层的样本数.可依据题意,求出各层的抽样比,再求出各层样本数.

    进行分层抽样时应注意以下几点:

    (1)分层抽样中分多少层、如何分层要视具体情况而定,总的原则是层内样本的差异要小,两层之间的样本差异要大,且互不重叠.

    (2)为了保证每个个体等可能入样,所有层中每个个体被抽到的可能性相同.

    考向四 三种抽样方法的综合

    (1)简单随机抽样的特点:

    总体中的个体性质相似,无明显层次;总体容量较小,尤其是样本容量较小;用简单随机抽样法抽取的个体带有随机性;个体间无固定间距.

    (2)系统抽样的特点:

    适用于元素个数很多且均衡的总体;各个个体被抽到的机会均等;总体分组后,在起始部分抽样时,采用简单随机抽样.

    (3)分层抽样的特点:

    适用于总体由差异明显的几部分组成的情况;分层后,在每一层抽样时可采用简单随机抽样或系统抽样.

    展开全文
  • 抽样调查的领域涉及如何用有效的方式得到样本。这些调查都利用了问卷,而问卷的设计则很有学问。它设计如何用词、问题的次序和问题的选择与...然而每个个体可能的简单随机抽样是一个理想情况。 概率抽样方法 假定...

    抽样调查的领域涉及如何用有效的方式得到样本。这些调查都利用了问卷,而问卷的设计则很有学问。它设计如何用词、问题的次序和问题的选择与组合等等。涉及包括心理学、社会学等知识。问题的语言应该和被调查者的文化水平相适应。那么抽样调查的设计的目的之一是确保样本对总体的代表性,以保证后续推断的可靠性。然而每个个体可能的简单随机抽样是一个理想情况。

    概率抽样方法 假定每个个体出现在样本中的概率是已知的。这种概率相抽样方法使得数据能够进行合理的统计推断。

    非概率抽样方法 对从非概率抽样得到的数据进行推断,它依赖于具体的抽样方案是如何设计的,也依赖于它是如何实施的。

     

    那么概率抽样方法有哪些呢:

    1、系统抽样  也成为每N个名字选择方法(n-th name selection technique),这是先把总体中的每个单元编号,然后随机选取其中之一作为抽样的开始点进行抽样。根据预定的样本量决定"距离"→N,在选取开始点之后,通常从开始点开始按照编号进行所谓等距抽样。 比如 起始点为5,"距离" N = 10,则下面的抽查对象为15号、25号等等。如果编号是随机选取的,则这和简单随机抽样就是等价的了。

     

    2、分层抽样 是简单随机抽样的一个变种,先把要研究的总体分成相对相似或相对齐次的个体组成的类,再在各类中分别抽取简单随机样本。然后把从各类中得到的结果汇总,并对总体进行判断。这里在每类中调查的人数通常是按照该类人的比例,但出于各种考虑,也可能不按照比例,也可能需要加权。(加权的概念:在求若干项的和时,对各项乘以不同的系数,这些系数的和通常为1)

     

    3、整群抽样  是先把总体划分成若干群,和分层抽样不同之处在于,这里的群是由不相似或异类的个体组成的,在单级整群抽样中,先(通常是随机的)从这些群中抽取几群,然后再在这些抽取的群中对个体进行全面调查。在两极整群抽样中,先(通常是随机地)从这些群中抽取几个群,然后再在这些抽取的群中对个体做简单随机抽样。适用于区域抽样,比如对某县的各个村子进行调查,显然这些村子的情况差异不大,否则就会增大误差。主要应用在于区域抽样,群是以区域进行划分的。

     

    4、多级抽样  在群体很大时,往往在抽取若干群之后,再在其中抽取若干子群,甚至再在子群中抽取子群,等等。 这个在每一级都可能再采用不同的抽样方法,所以比较复杂,也称为多级混合型抽样。

     

    非概率抽样方法有哪些呢:

    1、目的抽样  由研究人员主观地选择对象。那么样本多少依赖于与预先就有的知识。

     

    2、方便抽样  通常用于初期的评估。比如,为了调查游客的意见,可能选择不同的时间和旅游景点,随意对愿意停下的游客进行调查。这看起来可能是随机的,其实并不是。

     

    3、判断抽样  凭经验来判断选择样本,通常是方便抽样的延伸。这种比如 研究各县的情况,而研究人员仅在一个县中抽样,那么这个县就具有代表性。

     

    4、定额抽样  先是确定各类及比例(与分层抽样类似),然后利用方便抽样或判断抽样来按比例选取需要的个体数。

     

    5、雪球抽样  用于感兴趣的样本特征较稀有的情况,比如吸毒者,你想调查一个和吸毒者有关的人,然后这个人就会介绍你找到相关的人,可能会产生较大误差。 依赖于一个目标推荐另一个目标的方法。

     

    6、自我选择  是让个体自愿参加调查。

     

    总的来说,科学的数据抽样方法很多,但是往往是各种抽样方法的组合,因为既要考虑精度又要考虑方便性、可行性等。

     

    展开全文
  • *对K个特征进行随机抽样,形成特征子集,样本量确定方法可以有平方根、自然对数等; *每棵树完全生成,不进行剪枝; *每个样本预测结果由每棵树预测投票生成(回归时候,即各棵树叶节点平均) 著名...
  • 本文实例讲述了Python实现...*对K个特征进行随机抽样,形成特征子集,样本量确定方法可以有平方根、自然对数等;*每棵树完全生成,不进行剪枝;*每个样本预测结果由每棵树预测投票生成(回归时候,即各...

    本文实例讲述了Python实现的随机森林算法。分享给大家供大家参考,具体如下:

    随机森林是数据挖掘中非常常用的分类预测算法,以分类或回归的决策树为基分类器。算法的一些基本要点:

    *对大小为m的数据集进行样本量同样为m的有放回抽样;

    *对K个特征进行随机抽样,形成特征的子集,样本量的确定方法可以有平方根、自然对数等;

    *每棵树完全生成,不进行剪枝;

    *每个样本的预测结果由每棵树的预测投票生成(回归的时候,即各棵树的叶节点的平均)

    著名的python机器学习包scikit learn的文档对此算法有比较详尽的介绍: http://scikit-learn.org/stable/modules/ensemble.html#random-forests

    出于个人研究和测试的目的,基于经典的Kaggle 101泰坦尼克号乘客的数据集,建立模型并进行评估。比赛页面及相关数据集的下载:https://www.kaggle.com/c/titanic

    泰坦尼克号的沉没,是历史上非常著名的海难。突然感到,自己面对的不再是冷冰冰的数据,而是用数据挖掘的方法,去研究具体的历史问题,也是饶有兴趣。言归正传,模型的主要的目标,是希望根据每个乘客的一系列特征,如性别、年龄、舱位、上船地点等,对其是否能生还进行预测,是非常典型的二分类预测问题。数据集的字段名及实例如下:PassengerIdSurvivedPclassNameSexAgeSibSpParchTicketFareCabinEmbarked

    103Braund, Mr. Owen Harrismale2210A/5 211717.25S

    211Cumings, Mrs. John Bradley (Florence Briggs Thayer)female3810PC 1759971.2833C85C

    313Heikkinen, Miss. Lainafemale2600STON/O2. 31012827.925S

    411Futrelle, Mrs. Jacques Heath (Lily May Peel)female351011380353.1C123S

    503Allen, Mr. William Henrymale35003734508.05S

    值得说明的是,SibSp是指sister brother spouse,即某个乘客随行的兄弟姐妹、丈夫、妻子的人数,Parch指parents,children

    下面给出整个数据处理及建模过程,基于ubuntu+python 3.4( anaconda科学计算环境已经集成一系列常用包,pandas numpy sklearn等,这里强烈推荐)

    懒得切换输入法,写的时候主要的注释都是英文,中文的注释是后来补充的:-)

    展开全文
  • 随机森林是数据挖掘中... *对K个特征进行随机抽样,形成特征子集,样本量确定方法可以有平方根、自然对数等;  *每棵树完全生成,不进行剪枝;  *每个样本预测结果由每棵树预测投票生成(回归时候

     随机森林是数据挖掘中非常常用的分类预测算法,以分类或回归的决策树为基分类器。算法的一些基本要点:

      *对大小为m的数据集进行样本量同样为m的有放回抽样;

            *对K个特征进行随机抽样,形成特征的子集,样本量的确定方法可以有平方根、自然对数等;

            *每棵树完全生成,不进行剪枝;

            *每个样本的预测结果由每棵树的预测投票生成(回归的时候,即各棵树的叶节点的平均)


      著名的Python机器学习包scikit learn的文档对此算法有比较详尽的介绍: http://scikit-learn.org/stable/modules/ensemble.html#random-forests

      出于个人研究和测试的目的,基于经典的Kaggle 101 泰坦尼克号乘客的数据集,建立模型并进行评估。比赛页面及相关数据集的下载:https://www.kaggle.com/c/titanic

      泰坦尼克号的沉没,是历史上非常著名的海难。突然感到,自己面对的不再是冷冰冰的数据,而是用数据挖掘的方法,去研究具体的历史问题,也是饶有兴趣。言归正传,模型的主要的目标,是希望根据每个乘客的一系列特征,如性别、年龄、舱位、上船地点等,对其是否能生还进行预测,是非常典型的二分类预测问题。数据集的字段名及实例如下:


    PassengerId Survived Pclass Name Sex Age SibSp Parch Ticket Fare Cabin Embarked
    1 0 3 Braund, Mr. Owen Harris male 22 1 0 A/5 21171 7.25   S
    2 1 1 Cumings, Mrs. John Bradley (Florence Briggs Thayer) female 38 1 0 PC 17599 71.2833 C85 C
    3 1 3 Heikkinen, Miss. Laina female 26 0 0 STON/O2. 3101282 7.925   S
    4 1 1 Futrelle, Mrs. Jacques Heath (Lily May Peel) female 35 1 0 113803 53.1 C123 S
    5 0 3 Allen, Mr. William Henry male 35 0 0 373450 8.05   S

    值得说明的是,SibSp是指sister brother spouse,即某个乘客随行的兄弟姐妹、丈夫、妻子的人数,Parch指parents,children


    下面给出整个数据处理及建模过程,基于ubuntu+python 3.4 ( anaconda科学计算环境已经集成一系列常用包,pandas numpy sklearn等,这里强烈推荐)

    懒得切换输入法,写的时候主要的注释都是英文,中文的注释是后来补充的 :-)

    # -*- coding: utf-8 -*-
    """
    @author: kim
    """
    
    from model import * #载入基分类器的代码
    
    #ETL:same procedure to training set and test set
    training=pd.read_csv('train.csv',index_col=0)
    test=pd.read_csv('test.csv',index_col=0)
    SexCode=pd.DataFrame([1,0],index=['female','male'],columns=['Sexcode'])  #将性别转化为01
    training=training.join(SexCode,how='left',on=training.Sex)
    training=training.drop(['Name','Ticket','Embarked','Cabin','Sex'],axis=1) #删去几个不参与建模的变量,包括姓名、船票号,船舱号
    test=test.join(SexCode,how='left',on=test.Sex)
    test=test.drop(['Name','Ticket','Embarked','Cabin','Sex'],axis=1)
    print('ETL IS DONE!')
    
    
    #MODEL FITTING
    #===============PARAMETER AJUSTMENT============
    min_leaf=1
    min_dec_gini=0.0001
    n_trees=5
    n_fea=int(math.sqrt(len(training.columns)-1))
    #==============================================
    
    '''
    BEST SCORE:0.83
    min_leaf=30
    min_dec_gini=0.001
    n_trees=20
    '''
    
    #ESSEMBLE BY RANDOM FOREST
    FOREST={}
    tmp=list(training.columns)
    tmp.pop(tmp.index('Survived'))
    feaList=pd.Series(tmp)
    for t in range(n_trees):
    #    fea=[]
        feasample=feaList.sample(n=n_fea,replace=False)#select feature 
        fea=feasample.tolist()
        fea.append('Survived')
    #        feaNew=fea.append(target)
        subset=training.sample(n=len(training),replace=True) #generate the dataset with replacement
        subset=subset[fea]
    #    print(str(t)+' Classifier built on feature:')
    #    print(list(fea))
        FOREST[t]=tree_grow(subset,'Survived',min_leaf,min_dec_gini) #save the tree
    
    
    #MODEL PREDICTION
    #======================
    currentdata=training
    output='submission_rf_20151116_30_0.001_20'
    #======================
    
    prediction={}
    for r in currentdata.index:#a row
        prediction_vote={1:0,0:0}
        row=currentdata.get(currentdata.index==r)
        for n in range(n_trees):
            tree_dict=FOREST[n] #a tree
            p=model_prediction(tree_dict,row)
            prediction_vote[p]+=1
        vote=pd.Series(prediction_vote)
        prediction[r]=list(vote.order(ascending=False).index)[0]#the vote result
    result=pd.Series(prediction,name='Survived_p')
    #del prediction_vote
    #del prediction
    
    
    #result.to_csv(output)
    
    
    t=training.join(result,how='left')
    accuracy=round(len(t[t['Survived']==t['Survived_p']])/len(t),5)
    print(accuracy)

    上述是随机森林的代码,如上所述,随机森林是一系列决策树的组合,决策树每次分裂,用Gini系数衡量当前节点的“不纯净度”,如果按照某个特征的某个分裂点对数据集划分后,能够让数据集的Gini下降最多(显著地减少了数据集输出变量的不纯度),则选为当前最佳的分割特征及分割点。代码如下:


    # -*- coding: utf-8 -*-
    """
    @author: kim
    """
    
    import pandas as pd
    import numpy as np
    #import sklearn as sk
    import math
    
    
    def tree_grow(dataframe,target,min_leaf,min_dec_gini):
        
        tree={} #renew a tree
        is_not_leaf=(len(dataframe)>min_leaf)
        if is_not_leaf:
            fea,sp,gd=best_split_col(dataframe,target)
            if gd>min_dec_gini:
                tree['fea']=fea
                tree['val']=sp
    #            dataframe.drop(fea,axis=1) #1116 modified
                l,r=dataSplit(dataframe,fea,sp)
                l.drop(fea,axis=1)
                r.drop(fea,axis=1)
                tree['left']=tree_grow(l,target,min_leaf,min_dec_gini)
                tree['right']=tree_grow(r,target,min_leaf,min_dec_gini)
            else:#return a leaf
                return leaf(dataframe[target])
        else:
            return leaf(dataframe[target])
    
        return tree
            
            
    def leaf(class_lable):
        
        tmp={}
        for i in class_lable:
            if i in tmp:
                tmp[i]+=1
            else:
                tmp[i]=1
        s=pd.Series(tmp)
        s.sort(ascending=False)
        
        return s.index[0]
    
    
    def gini_cal(class_lable):
        
        p_1=sum(class_lable)/len(class_lable)
        p_0=1-p_1
        gini=1-(pow(p_0,2)+pow(p_1,2))
        
        return gini
    
    
    def dataSplit(dataframe,split_fea,split_val):
        
        left_node=dataframe[dataframe[split_fea]<=split_val]
        right_node=dataframe[dataframe[split_fea]>split_val]
        
        return left_node,right_node
    
    
    def best_split_col(dataframe,target_name):
        best_fea=''#modified 1116
        best_split_point=0 
        col_list=list(dataframe.columns)
        col_list.remove(target_name)
        gini_0=gini_cal(dataframe[target_name])
        n=len(dataframe)
        gini_dec=-99999999
        for col in col_list:
            node=dataframe[[col,target_name]]
            unique=node.groupby(col).count().index
            for split_point in unique: #unique value
                left_node,right_node=dataSplit(node,col,split_point)
                if len(left_node)>0 and len(right_node)>0:
                    gini_col=gini_cal(left_node[target_name])*(len(left_node)/n)+gini_cal(right_node[target_name])*(len(right_node)/n)
                    if (gini_0-gini_col)>gini_dec:                 
                        gini_dec=gini_0-gini_col#decrease of impurity
                        best_fea=col                    
                        best_split_point=split_point           
            #print(col,split_point,gini_0-gini_col)
                        
        return best_fea,best_split_point,gini_dec
        
    
    def model_prediction(model,row): #row is a df
    
        fea=model['fea']
        val=model['val']
        left=model['left']
        right=model['right']
        if row[fea].tolist()[0]<=val:#get the value
            branch=left
        else:
            branch=right
        if ('dict' in str( type(branch) )):
            prediction=model_prediction(branch,row)
        else:
            prediction=branch
    
        return prediction
    

    实际上,上面的代码还有很大的效率提升的空间,数据集不是很大的情况下,如果选择一个较大的输入参数,例如生成100棵树,就会显著地变慢;同时,将预测结果提交至kaggle进行评测,发现在测试集上的正确率不是很高,比使用sklearn里面相应的包进行预测的正确率(0.77512)要稍低一点 :-(  如果要提升准确率,两个大方向: 构造新的特征;调整现有模型的参数。

    这里是抛砖引玉,欢迎大家对我的建模思路和算法的实现方法提出修改意见。


    转自:http://blog.csdn.net/lo_cima/article/details/50533010


    展开全文
  • 介绍一下抽样方法及实现几种常用的抽样方法:1.简单随机抽样(simple random sampling)将所有调查总体编号,再用抽签法或随机数字表随机抽取部分观察数据组成样本。优点:操作简单,均数、率及相应的标准误计算简单。...
  • [DataAnalysis]常用数据预处理方法汇总

    万次阅读 2018-09-08 18:37:26
    常用的包括聚集、降维、离散化和标准化等 聚集aggregating 将两个或多个对象合并成单个...抽样方法包括:简单随机抽样;分层抽样等。 维归约(降维) 数据集可能包含大量特征,选择维归约是维度降低许多数据挖...
  • 介绍一下抽样方法及实现几种常用的抽样方法:1.简单随机抽样(simple random sampling)将所有调查总体编号,再用抽签法或随机数字表随机抽取部分观察数据组成样本。优点:操作简单,均数、率及相应的标准误计算简单。...
  • 介绍一下抽样方法及实现几种常用的抽样方法:1.简单随机抽样(simple random sampling)将所有调查总体编号,再用抽签法或随机数字表随机抽取部分观察数据组成样本。优点:操作简单,均数、率及相应的标...
  • 在分析数据或进行算法模型训练前有时需要先对数据进行抽样,这里整理了抽样一些知识点。...常用数据抽样方法随机抽样(用最多)该抽样方法是按等概率原则直接从总中抽取n个样本,这种随机样本方法简单,易...
  • 数据预处理——抽样

    千次阅读 2018-02-08 11:16:45
    1 简单随机抽样 3 系统抽样 2 分层抽样 3 渐进抽样 抽样是一种选择数据对象子集进行分析的常用方法。在统计学中,抽样长期用于数据实现调查和最终数据分析;在数据挖掘中,抽样也非常有用。然而在...
  • 几种常用的抽样方法: 1.简单随机抽样(simple random sampling) 将所有调查总体编号,再用抽签法或随机数字表随机抽取部分观察数据组成样本。 优点:操作简单,均数、率及相应的标准误计算简单。 缺点...
  • 介绍一下抽样方法及实现几种常用的抽样方法:1.简单随机抽样(simple random sampling)将所有调查总体编号,再用抽签法或随机数字表随机抽取部分观察数据组成样本。优点:操作简单,均数、率及相应的标准误计算简单...
  • 利用ORACLE实现数据抽样(sample block)

    千次阅读 2015-09-16 20:09:51
    几种常用的抽样方法: 1.简单随机抽样(simple random sampling) 将所有调查总体编号,再用抽签法或随机数字表随机抽取部分观察数据组成样本。 优点:操作简单,均数、率及相应的标准误计算简单。 缺点...
  • 本文转自AI源创评论采样问题是数据科学中常见问题,对此,WalmartLabs 数据科学家 Rahul Agarwal 分享了数据科学家需要了解 5 种采样方法,AI 开发者将... 简单随机抽样假设您要选择一个群体子集,其中该子...
  • 采样问题是数据科学中常见问题,对此,WalmartLabs 数据科学家 Rahul Agarwal 分享了数据科学家需要了解 5 种采样方法,编译...简单随机抽样假设您要选择一个群体子集,其中该子集每个成员被选择概率...
  • 评分卡模型开发(三)--数据集准备

    千次阅读 2018-11-23 10:35:10
    在缺失值和处理完成后,我们就得到了可用作信用风险评级模型开发的样本总体。通常为了验证评级模型的区分能力和...常用的样本抽样方法包括简单随机抽样、分层抽样和整群抽样三种。 简单随机抽样: smp1<-sam...
  • 雷锋网 AI 科技评论按,采样问题是数据科学中常见问题,对此,WalmartLabs 数据科学家 Rahul Agarwal 分享了数据科学家需要了解 5 种采样方法,雷锋网 AI 科技...简单随机抽样假设您要选择一个群体子集,...
  • 采样问题是数据科学中常见问题,对此,WalmartLabs 数据科学家 Rahul Agarwal 分享了数据科学家需要了解 5 种采样方法,AI 开发者将文章编译...简单随机抽样假设您要选择一个群体子集,其中该子集每个成员...
  • 蒙特卡洛算法是以概率和统计理论、方法为基础一种数值计算方法,将所求解问题同一定概率模型相联系,用计算机实现统计模拟或抽样,以获得问题近似解,故又称随机抽样法或统计实验法。 2、适用范围 可以较...
  • 评分卡模型开发-数据集准备

    千次阅读 2017-08-02 23:18:33
    在缺失值和处理完成后,我们就得到了可用作信用风险评级...常用的样本抽样方法包括简单随机抽样、分层抽样和整群抽样三种。 简单随机抽样:smp1(nrow(GermanCredit),10,replace=F)样本集可表示为:train_data=GermanC
  • 抽象方法简单随机抽样和渐进抽样 3.维度约:我觉得翻译不好,英文明细是降维。降维技术:1.PCA(Principal components Analysis)是一种用于连续属性线性代数技术,它找出新属性,这些属性是原属性线性组合...
  • 参数估计基础(一)

    2015-10-23 13:26:33
    这都是当年上概率论与数理统计不好好听课后果啊参数估计方法对于随机变量X分布函数形式已知,但是其参数未知$\theta$情况,可以通过简单随机抽样获得其一组样本,利用样本数据去估计参数即参数估计,方法主要...
  • Matlab关于蒙特卡洛仿真资料讲义和程序举例-第二讲-第五讲.rar 看到有些同学在找这方面资料,的确...下面简单介绍几种产生随机数的常用数学方法。 复制代码 Matlab1.jpg 蒙特卡洛仿真资料

空空如也

空空如也

1 2
收藏数 39
精华内容 15
关键字:

常用的简单随机抽样方法