精华内容
下载资源
问答
  • 浅谈论文数量不代表科研能力水平 近几年我国科技论文数连年大幅度增长,已跻身世界科技论文数10强之列,而“目前中国高校科研能力世界第五”更是让人刮目相看。然而,细细研读“以论文数计算”,笔者感到中国科研...
  • 肯定是经济增长速度,人均消费水平,人均可支配收入啊等等这样的因素。 我们不会去选择那些不相关的,例如人们口味偏辣还是偏淡,每个人每天打几个喷嚏这些因素,跟房价的涨跌几乎没有太大关系啦这就是特征选择,好...

    a1ad4ddc8121fc0e8c79f1bbfe9557d1.png

    为什么要使用特征选择?

    就像是我们要分析今年的房价涨跌,假设我们可以拿到任何的数据,那么在这些数据中我们选择哪些数据用来分析呢?肯定是经济增长速度,人均消费水平,人均可支配收入啊等等这样的因素。 我们不会去选择那些不相关的,例如人们口味偏辣还是偏淡,每个人每天打几个喷嚏这些因素,跟房价的涨跌几乎没有太大关系啦

    这就是特征选择,好的特征能够给我们带来重要的信息,因此在研究一个问题的时候,选择哪些特征作为我们分析的方向,是很重要的

    fb7610b05610d5ba94000bea1c343672.png

    Tfidf中的特征选择

    这里给大家一个直观的例子来认识特征选择,TFidf是一种加权技术,我在[机器学习] 文本学习中提到过,我们来讲一下它是如何工作的:

    例如我们有一堆的邮件,我们想要通过对邮件中关键词的统计来识别这封邮件是谁发的。

    假设每个人都有自己不同的关键词使用偏好,我们利用这一点来识别发送邮件的作者

    可以使用tfidf这个方法来统计每封邮件的关键词(其实会统计出来所有单词的频率,而这个频率是经过处理的频率,并不是一个单词出现的次数多就是多,而是相较于整个邮件库中这个单词出现的平均频率从而加权得到的一个值)

    由于tfidf会统计出来除了停止词(stop words)之外所有的单词,这些单词都可以看作是特征,而单词库中的单词是非常庞大的,我们不可能把所有的单词都进行分析,于是可以对这些单词进行特征选择

    特征选择就是选择一些最能带给我们信息的单词(想想本文的第一张图,特征可以带来信息,但是特征≠信息),那么就需要删除掉一些没有价值的特征

    在这个项目中,我们要删除的就是停止词和会出现在每个邮件中的词,停止词就像是“I”“you”“the”没有意义,而会出现在每个邮件中的词也没有代表价值,所以删掉

    例如在以下一个代码片段中,我们可以看到 vectorizer = TfidfVectorizer(sublinear_tf=True, max_df=0.5,stop_words='english')这个语句,就是把停止词去除掉,然后把在50%的邮件中都会出现的那些单词也删掉

    selector = SelectPercentile(f_classif, percentile=1)这句话就是选择最强大的1%的特征用作我们的特征

    sklearn 中有两大单变量特征选择工具:SelectPercentile 和 SelectKBest。 两者之间的区别从名字就可以看出:SelectPercentile 选择最强大的 X% 特征(X 是参数),而 SelectKBest 选择 K 个最强大的特征(K 是参数)。
    ### text vectorization--go from strings to lists of numbers
        

    特征选择带来的影响

    选择更少的特征,好处就是可以简化运算,但是坏处就是欠拟合,正确率可能不高;而选择更多的特征,虽然误差减小了,但是带来的结果就是过拟合,最终正确率可能也不高,因此我们要选择合适的特征。

    28b4a73038f4eee02eead3a5fdef2a24.png

    因此我们要达到误差和特征数量的一个平衡,可以看一下这个公式,是Lasso Regression中用到的公式,要想达到最好的效果,可以让下面的值最小

    SSE: 误差

    λ:惩罚系数

    β:参数的数量

    那么假如我们引入了很多的参数,虽然SSE的值小了,但是同时λβ的值大了。相反,假如引入的参数小了,但是SSE误差就会变大,为了达到一个好的平衡,需要综合考虑

    使用的时候,找到最小值的那个组合,就是我们要的参数的组合

    决策树中的过拟合

    决策树作为传统算法非常容易过拟合,获得过拟合决策树最简单的一种方式就是使用小型训练集和大量特征。当过拟合的时候,训练集的正确率非常高,而测试集的正确率却很低。

    比方说我们之前提到的“识别邮件是谁发的”,如果我们用到了一个特征是签名,那么正确率就会及其高,而我们的本意是通过分析每个人使用单词的偏好来判断发邮件的是谁。

    在这里,这个签名的特征就是我们需要识别出来的,识别的方法是:

    选择(过拟合)决策树并使用feature_importances_属性来获得一个列表, 其中列出了所有用到的特征的相对重要性(由于是文本数据,因此列表会很长)。 我们建议迭代此列表并且仅在超过阈值(比如 0.2——记住,所有单词都同等重要,每个单词的重要性都低于 0.01)的情况下将特征重要性打印出来。

    代码如下:

    fi

    可以看到有一个feature的重要性高达0.7647058823529412 (利用的是安然的数据包,大家看看结果就行),显示是”sshacklensf“,看起来像是一个异常值,可以把它删掉

    删除这个异常值:

    text

    经过反复的删除最大importance的特征,最终可以得到一个比较好的拟合


    如果你觉得写的很好不要吝惜

    更多的文章,请看本专栏目录:

    任妍Carol:机器学习小白笔记目录zhuanlan.zhihu.com
    34aba0dbad67eb520ac84a61d52e8bba.png
    展开全文
  • 例程数据下载建立基准对于时间序列预测问题...(基准性能水平)完成这个教程,你会发现:在时间序列预测问题中计算基准性能的重要性如何用scratch开发一个persistence模型如何评估通过persistence模型得到预测,并用此...

    例程数据下载

    建立基准对于时间序列预测问题是及其重要的。

    基准效果会告诉你其他模型在解决你的问题的时候的实际效果有多好。

    在这个教程中,你会发现如何制作一个persistence预测,用来对时间序列数据计算其基准性能。(基准性能水平)

    完成这个教程,你会发现:在时间序列预测问题中计算基准性能的重要性

    如何用scratch开发一个persistence模型

    如何评估通过persistence模型得到预测,并用此来建立基准性能

    预测基准性能

    一个基准预测性能提供了一个比较点。

    这是一个衡量所有其他模型技术在解决你的问题时候的参考点,如果模型完成效果等于或者弱于基准,那么该方法应该修正或者放弃。

    用来产生一个预测计算基准性能的方法必须是容易执行的而且naive of problem-specific details。

    在你能够在预测问题上简历一个基准性能之前,你必须有一个测试工具,由如下三个组成:

    1.你打算用来训练和评估模型的数据集

    2.你打算用来估计该技术性能的重采样技术

    3.你打算用来评估预测的性能测试方法(比如均方误差)

    一旦定下之后,你需要选择一个naive技术,使你能够用其进行预测,并计算基准性能。

    你的目标是尽可能快的在你的时间序列问题下得到基准性能,使你能够更好的理解数据集并且开发出更先进的模型。

    计算基准性能预测好的方法的三个基本策略:

    1.简单。一个需要很少或者不需要训练的方法。

    2.快速。一个能够快速执行并且能够简单的做出预测

    3.可重复的。一个确定的方法。意思就是给定同样的输入,都能产生期望输出。

    persistence方法是用来计算基准性能的常用算法。

    persistence算法(‘naive’预测)

    最常见的有监督机器学习基准方法是“零规则算法”

    Persistence Algorithm

    我们将这个部分分为四个模块:

    1.把单一变量数据集转换成监督学习问题

    2.为测试工具建立训练和测试数据集

    3.定义persistence模型

    4.做出预测并且建立基准性能

    5.检查完整的实例并画出输出

    step1  定义监督学习问题

    第一步就是下载数据并构建其滞后表示。意思就是,给出t-1时刻的观测值,预测下一时刻t+1# Create lagged datasetvalues = DataFrame(series.values)

    dataframe = concat([values.shift(1), values], axis=1)

    dataframe.columns = ['t-1', 't+1']print(dataframe.head(5))

    这一小段程序创建了一个数据集并且输出前五行数据集,我们会发现第一行(index =  0)的数据没有历史观测值来做预测。就监督学习预测过程:t-1列为输入变量表示为X,t+1列为输出变量表示为y。t-1    t+1

    0    NaN  266.01  266.0  145.92  145.9  183.13  183.1  119.34  119.3  180.3

    step2 训练 & 测试集

    下一步是将数据集分为训练和测试集。

    我们将前66%的数据作为训练集,剩违下的34%数据作为评估用。在数据分离过程中,需要注意第一行的数据有nan这个值。

    在这种情况下不需要训练,这只是一种习惯。每个训练以及测试集都被剥离成输入和输出变量对。# split into train and test setsX = dataframe.values

    train_size = int(len(X) * 0.66)

    train, test = X[1:train_size], X[train_size:]

    train_X, train_y = train[:,0], train[:,1]

    test_X, test_y = test[:,0], test[:,1]

    step3 Persistence算法

    我们将persistence模型定义为返回输入值的函数。

    举个例子:如果t-1时刻的值为266.0,那么这就被作为persistence模型返回的预测值。而实际的预期值是145.9(来自滞后表示的数据集)# persistence modeldef model_persistence(x):

    return x

    step4 对预测做评估

    现在我们可以利用测试集对模型做预测了,我们利用walk-forward验证方法。

    不需要再训练模型,因此,我们只需要一步步的利用测试集做预测。测试集中的数据每计算出一个预测值,就将其与期望值作比对,并计算均方误差。# walk-forward validationpredictions = list()for x in test_X:

    yhat = model_persistence(x)

    predictions.append(yhat)

    test_score = mean_squared_error(test_y, predictions)print('Test MSE: %.3f' % test_score)

    这种情况下,在测试集上的误差大于17730Test MSE: 17730.518

    step5 完整的例程

    最后,下图显示了训练数据集和来自测试集的预测值情况。

    从persistence模型预测图中看出,模型预测的结果正好比真实值延迟一个时间步。有一个上升趋势和销售数据环比噪音,这凸显了persistence技术的局限性。

    Shampoo Sales Persistence Model

    完整代码如下:from pandas import read_csvfrom pandas import datetimefrom pandas import DataFramefrom pandas import concatfrom matplotlib import pyplotfrom sklearn.metrics import mean_squared_errordef parser(x):

    return datetime.strptime('190'+x, '%Y-%m')

    series = read_csv('shampoo-sales.csv',sep = ';', header=0, parse_dates=[0], index_col=0, squeeze=True, date_parser=parser)# Create lagged datasetvalues = DataFrame(series.values)

    dataframe = concat([values.shift(1), values], axis=1)

    dataframe.columns = ['t-1', 't+1']

    print(dataframe.head(5))# split into train and test setsX = dataframe.values

    train_size = int(len(X) * 0.66)

    train, test = X[1:train_size], X[train_size:]

    train_X, train_y = train[:,0], train[:,1]

    test_X, test_y = test[:,0], test[:,1]# persistence modeldef model_persistence(x):

    return x# walk-forward validationpredictions = list()for x in test_X:

    yhat = model_persistence(x)

    predictions.append(yhat)

    test_score = mean_squared_error(test_y, predictions)

    print('Test MSE: %.3f' % test_score)# plot predictions and expected resultspyplot.plot(train_y)

    pyplot.plot([None for i in train_y] + [x for x in test_y])

    pyplot.plot([None for i in train_y] + [x for x in predictions])

    pyplot.show()

    我们已经看到了利用香皂销售数据拟合persistence模型的例子。

    persistence算法太朴素了,这通常被叫做朴素预测。

    这种方法应用到解决时间序列问题预测中时没什么细节。这使得整个过程容易理解并且能够快速的执行和评估。

    作为一个机器学习从业者,这还能引发大量的改进,写下来。这是有用的因为其可以作为特征引擎的输入,或者可以利用集成学习的方法集成简单模型。

    作者:yuanCruise

    链接:https://www.jianshu.com/p/5a21871334c2

    展开全文
  • 利用随机森林对特征重要性进行评估

    万次阅读 多人点赞 2017-08-18 16:22:48
    随机森林非常简单,易于实现,计算开销也很小,更令人惊奇的是它在分类和回归上表现出了十分惊人的性能,因此,随机森林也被誉为“代表集成学习技术水平的方法”。 本文是对随机森林如何用在特征选择上做一个简单的...

    1 前言

    随机森林是以决策树为基学习器的集成学习算法。随机森林非常简单,易于实现,计算开销也很小,更令人惊奇的是它在分类和回归上表现出了十分惊人的性能,因此,随机森林也被誉为“代表集成学习技术水平的方法”。

    本文是对随机森林如何用在特征选择上做一个简单的介绍。

    2 随机森林(RF)简介

    只要了解决策树的算法,那么随机森林是相当容易理解的。随机森林的算法可以用如下几个步骤概括:

    1. 用有抽样放回的方法(bootstrap)从样本集中选取n个样本作为一个训练集
    2. 用抽样得到的样本集生成一棵决策树。在生成的每一个结点:
    • 随机不重复地选择d个特征
    • 利用这d个特征分别对样本集进行划分,找到最佳的划分特征(可用基尼系数、增益率或者信息增益判别)
    1. 重复步骤1到步骤2共k次,k即为随机森林中决策树的个数。
    2. 用训练得到的随机森林对测试样本进行预测,并用票选法决定预测的结果。

    下图比较直观地展示了随机森林算法(图片出自文献2):

    随机森林算法

    图1:随机森林算法示意图

    没错,就是这个到处都是随机取值的算法,在分类和回归上有着极佳的效果,是不是觉得强的没法解释~

    然而本文的重点不是这个,而是接下来的特征重要性评估。

    3 特征重要性评估

    现实情况下,一个数据集中往往有成百上前个特征,如何在其中选择比结果影响最大的那几个特征,以此来缩减建立模型时的特征数是我们比较关心的问题。这样的方法其实很多,比如主成分分析,lasso等等。不过,这里我们要介绍的是用随机森林来对进行特征筛选。

    用随机森林进行特征重要性评估的思想其实很简单,说白了就是看看每个特征在随机森林中的每颗树上做了多大的贡献,然后取个平均值,最后比一比特征之间的贡献大小。

    好了,那么这个贡献是怎么一个说法呢?通常可以用基尼指数(Gini index)或者袋外数据(OOB)错误率作为评价指标来衡量。

    我们这里只介绍用基尼指数来评价的方法,想了解另一种方法的可以参考文献2。

    我们将变量重要性评分(variable importance measures)用VIMVIMVIM来表示,将Gini指数用GIGIGI来表示,假设有mmm个特征X1,X2,X3,...,XcX_1,X_2,X_3,...,X_cX1X2X3...Xc,现在要计算出每个特征XjX_jXj的Gini指数评分VIMj(Gini)VIM_j^{(Gini)}VIMj(Gini),亦即第jjj个特征在RF所有决策树中节点分裂不纯度的平均改变量。

    Gini指数的计算公式为

    GIm=∑k=1∣K∣∑k′≠kpmkpmk′=1−∑k=1∣K∣pmk2GI_m=\sum_{k=1}^{|K|}\sum_{k' \neq k } p_{mk} p_{mk'}=1-\sum_{k=1}^{|K|}p_{mk}^2GIm=k=1Kk=kpmkpmk=1k=1Kpmk2

    其中,KKK表示有KKK个类别,pmkp_{mk}pmk表示节点mmm中类别kkk所占的比例。

    直观地说,就是随便从节点mmm中随机抽取两个样本,其类别标记不一致的概率。

    特征XjX_jXj在节点mmm的重要性,即节点mmm分枝前后的GiniGiniGini指数变化量为

    VIMjm(Gini)=GIm−GIl−GIrVIM_{jm}^{(Gini)}=GI_m-GI_l-GI_rVIMjm(Gini)=GImGIlGIr

    其中,GIlGI_lGIlGIrGI_rGIr分别表示分枝后两个新节点的GiniGiniGini指数。

    如果,特征XjX_jXj在决策树iii中出现的节点为集合MMM,那么XjX_jXj在第iii颗树的重要性为

    VIMij(Gini)=∑m∈MVIMjm(Gini)VIM_{ij}^{(Gini)}=\sum_{m \in M}VIM_{jm}^{(Gini)}VIMij(Gini)=mMVIMjm(Gini)

    假设RFRFRF中共有nnn颗树,那么

    VIMj(Gini)=∑i=1nVIMij(Gini)VIM_j^{(Gini)}=\sum_{i=1}^{n}VIM_{ij}^{(Gini)}VIMj(Gini)=i=1nVIMij(Gini)

    最后,把所有求得的重要性评分做一个归一化处理即可。

    VIMj=VIMj∑i=1cVIMiVIM_j=\dfrac{VIM_j}{\sum_{i=1}^cVIM_i}VIMj=i=1cVIMiVIMj

    4 举个例子

    值得庆幸的是,sklearnsklearnsklearn已经帮我们封装好了一切,我们只需要调用其中的函数即可。

    我们以UCI上葡萄酒的例子为例,首先导入数据集。

    import pandas as pd
    url = 'http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data'
    df = pd.read_csv(url, header = None)
    df.columns = ['Class label', 'Alcohol', 'Malic acid', 'Ash', 
                  'Alcalinity of ash', 'Magnesium', 'Total phenols', 
                  'Flavanoids', 'Nonflavanoid phenols', 'Proanthocyanins', 
                  'Color intensity', 'Hue', 'OD280/OD315 of diluted wines', 'Proline']
    

    然后,我们来大致看下这时一个怎么样的数据集

    import numpy as np
    np.unique(df['Class label'])
    

    输出为

    array([1, 2, 3], dtype=int64)
    

    可见共有3个类别。然后再来看下数据的信息:

    df.info()
    

    输出为

    <class 'pandas.core.frame.DataFrame'>
    RangeIndex: 178 entries, 0 to 177
    Data columns (total 14 columns):
    Class label                     178 non-null int64
    Alcohol                         178 non-null float64
    Malic acid                      178 non-null float64
    Ash                             178 non-null float64
    Alcalinity of ash               178 non-null float64
    Magnesium                       178 non-null int64
    Total phenols                   178 non-null float64
    Flavanoids                      178 non-null float64
    Nonflavanoid phenols            178 non-null float64
    Proanthocyanins                 178 non-null float64
    Color intensity                 178 non-null float64
    Hue                             178 non-null float64
    OD280/OD315 of diluted wines    178 non-null float64
    Proline                         178 non-null int64
    dtypes: float64(11), int64(3)
    memory usage: 19.5 KB
    

    可见除去class label之外共有13个特征,数据集的大小为178。

    按照常规做法,将数据集分为训练集和测试集。

    from sklearn.cross_validation import train_test_split
    from sklearn.ensemble import RandomForestClassifier
    x, y = df.iloc[:, 1:].values, df.iloc[:, 0].values
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.3, random_state = 0)
    feat_labels = df.columns[1:]
    forest = RandomForestClassifier(n_estimators=10000, random_state=0, n_jobs=-1)
    forest.fit(x_train, y_train)
    

    好了,这样一来随机森林就训练好了,其中已经把特征的重要性评估也做好了,我们拿出来看下。

    importances = forest.feature_importances_
    indices = np.argsort(importances)[::-1]
    for f in range(x_train.shape[1]):
        print("%2d) %-*s %f" % (f + 1, 30, feat_labels[indices[f]], importances[indices[f]]))
    

    输出的结果为

     1) Color intensity                0.182483
     2) Proline                        0.158610
     3) Flavanoids                     0.150948
     4) OD280/OD315 of diluted wines   0.131987
     5) Alcohol                        0.106589
     6) Hue                            0.078243
     7) Total phenols                  0.060718
     8) Alcalinity of ash              0.032033
     9) Malic acid                     0.025400
    10) Proanthocyanins                0.022351
    11) Magnesium                      0.022078
    12) Nonflavanoid phenols           0.014645
    13) Ash                            0.013916
    

    对的就是这么方便。

    如果要筛选出重要性比较高的变量的话,这么做就可以

    threshold = 0.15
    x_selected = x_train[:, importances > threshold]
    x_selected.shape
    

    输出为

    (124, 3)
    

    瞧,这不,帮我们选好了3个重要性大于0.15的特征了吗~

    5 参考文献

    [1] Raschka S. Python Machine Learning[M]. Packt Publishing, 2015.
    [2] 杨凯, 侯艳, 李康. 随机森林变量重要性评分及其研究进展[J]. 2015.

    展开全文
  •  尽管市场的发展步伐正在加快,然而从目前情况看,过高的成本和复杂,已经成为高性能计算技术向主流客户推广的重要障碍。因此,如何将其设计得更加易于部署、更加易于使用和管理,更能有效降低客户的运营成
  • 原因在于自己深深的认识到了英语水平对于一个不愿安于现状的程序员的重要性。很多高质量的学习资源,尤其是和计算机相关的高质量学习资源,基本上都是英文的。像一些先进技术的资料就更不用提了。即使有了中文翻译...

    为什么要写这篇文章呢?原因在于自己深深的认识到了英语水平对于一个不愿安于现状的程序员的重要性。

    很多高质量的学习资源,尤其是和计算机相关的高质量学习资源,基本上都是英文的。像一些先进技术的资料就更不用提了。即使有了中文翻译版本,也要落后至少半年。况且英文原文经过翻译之后,会有很多不准确的、不能表达作者原意的地方,有时便会误导读者。再者,英文水平的高低也会影响程序员写出的代码质量。比如变量的命名、函数的命名,有良好英文功底的程序员写出的代码会有更好的可读性。

    作为一名码农,每天绝大多数的时间都在使用电脑,不管是工作、学习、休息还是娱乐都能通过电脑完成。想要提高英语水平,我个人认为,一个有效的做法就是把电脑操作系统默认语言换成英文。使用Linux操作系统时就更应该如此了,没什么比在命令行中看到中文更让人不爽的了。然后更进一步,就是把使用的软件的默认语言也换成英文,即使这个软件有汉语版本。这么做不是为了装的很厉害,而是当我们真正这样使用一年以后,就会发现自己产生了英语思维,就是直接用英语去思考,而不是还要把英语转换成汉语然后在思考。尤其是码农,通过这种方式,会慢慢的积累很多专业名词,对以后的学习和发展也大有好处。

    最后呢,就是经常光顾一些英文网站,我推荐几个,Hacker NewsGitHubQuoraStack Overflow。这几个网站简直就是程序员必备,谁用谁知道。理论大概就说这么多,但是要学好英语还是需要多多实践呐!

    展开全文
  • 21世纪是信息时代,也是知识经济时代,计算机网络已经成为必不可少的交流工具,不懂计算机程序设计,就不能真正理解计算机的工作原理,进而无法充分 有效地利用计算机这个工具解决学习和... 1 学好程序设计的重要性 ...
  • 随机森林非常简单,易于实现,计算开销也很小,更令人惊奇的是它在分类和回归上表现出了十分惊人的性能,因此,随机森林也被誉为“代表集成学习技术水平的方法”。本文是对随机森林如何用在特征选择上做一个简单的...
  • 针对自动驾驶而言的问题。传感器而言,大家比较关心新技术。在摄像头技术方面,像HDR,夜视镜头,热敏...另外,能不能采用计算摄像技术(computational photography)改进一下如何避免雨呀雪呀什么的干扰,采用超分...
  • 因此,存在在这些条件下使用高水平的诊断成像的趋势。 对于轻度颅脑损伤的患者,使用计算机断层扫描(CT)有许多决策规则。 这项调查旨在确定我们的急诊医师(EP)对这些头部CT规则的认识和使用率。 问卷被从麦加的...
  • 随机森林非常简单,易于实现,计算开销也很小,更令人惊奇的是它在分类和回归上表现出了十分惊人的性能,因此,随机森林也被誉为“代表集成学习技术水平的方法”。  本文是对随机森林如何用在特征选择上做一...
  • 计算机论文提纲.doc

    2021-01-15 15:43:10
    计算机论文提纲 一、开题报告的含义与作用 课题负责人在调查研究的基础上撰写的报请上级...可以说,研究方案水平的高低,是一个课题质量与水平重要反映。 二、写好研究方案应做的基础工作 写好研究方案一方面?..
  • 何况在我们这样大的一个国家,电力行业这么重要,政府不可能放手不管完全自由竞争,问题在于垄断和竞争的度如何掌握,二者如何结合,这是我们电力行业面临的挑战。 电力行业已经开始从生产导向型向市场导向型的巨大...
  • 算法一般具有4个基本特征:可行、确定、有穷、拥有足够的情报。 (2)算法的基本运算和操作 算法的基本运算和操作包括:算术运算、逻辑运算、关系运算、数据传输。 (3)算法的3种基本控制结构 算法的3种基本...
  • 如何写好论文摘要.doc

    2020-12-26 12:39:59
    在知识和信息加速度增长的今天,摘要的重要性更为突出。既为读者阅览起引导作用,更为文献汇编、计算机储存、检索做好准备,成为科技情报的重要****。摘要者,精华也。 作者应重视摘要的书写。写好摘要,既需要严肃...
  • 如何用较低成本实现系统的高可用、易伸缩、可扩展等目标就显得越发重要。为了解决这一系列问题,系统架构也在不断演进。传统的集中式系统已经逐渐无法满足要求,分布式系统被使用在更多的场景中。分布式系统由独立的...
  • 谈谈如何学习离散数学

    千次阅读 2012-09-03 12:41:11
    其二是在离散数学的学习过程中,培训自学能力、抽象思维能力和逻辑推理能力,以提高专业理论水平。因此学习离散数学对于计算机、通信等专业后续课程的学习和今后从事计算机科学等工作是至关重要的。但是由于离散数学...
  • 随着人们生活水平的提高以及计算机技术、通信技术和网络技术的发展,计算机、通信、消费电子相互间的系统集成即 3C 的融合,使信息家电 IA(Information Appliance)达到了人与信息的完美结合。   家电网络化、...
  • 对于现代企业应用程序来说,服务器负载平衡是一项非常重要的计算机资源。 无论应用程序是在云中还是本地数据中心中,负载平衡均可以通过像服务器、网段和存储器这样的计算机设备对网络流量进行指引和优化。负载平衡...
  • 点击蓝字关注收到每日精彩视频 点上面“…”分享期中备考重要性和策略开学已经近两个月了,同学们即将迎来对学习成果的一次大检阅期中考试。面对期中考试,我们如何准备才能把平时的学习成果以最大的水平发挥出来,...
  • 我们使用回路树对偶形式论,将H→γγ非积分双振幅的有用性质从一回路水平扩展到两回路水平。... 这种计算的成功对开发完全本地的四维框架以按照从前到后,从头到尾的顺序计算物理可观察物起着至关重要的作用。
  • 可行分析报告现在,市场竞争越来越激烈,规模越来越大,消费者要求越来越高,小型商店在这样的环境下,如何提高工作质量和管理水平显得越来越重要,由于手工操作的繁琐混乱并且容易出错,不易及时统计商品的销售和...
  • YouTube是各种教育和娱乐内容的重要来源。通过提供一种新的,可访问的方式来在短时间内传达大量信息,插入YouTube视频确实可以将您的演示文稿提升到一个新的水平。 PowerPoint允许从用户计算机插入视频或链接在线...
  • 这是因为激光目标模拟的准确影响到系统的整体仿真 和可靠,甚至可以说目标仿真系统的研制水平决定仿真大系统水平。因此,目标仿真是提高半实物仿真系统整体 的关键,“如何逼真地模拟激光目标”就成为仿真中...
  • 在持续需要更高性能和效率的实时电源转换领域,投资可扩展且可持续的工业和汽车电源转换解决方案对设计人员来说至关重要。这种需求反之导致对实时控制系统资源的需求,例如在伺服驱动系统,电力与电网基础设施和车载...
  • 很多家长也开始意识到从小培养孩子计算机思维,让孩子学习一门编程语言的重要性。目前市面上的编程课程种类繁多,五花八门。家长应该如何选择孩子的第一门编程语言呢?很多家长可能会选择让孩子学习C++、Java之类的...

空空如也

空空如也

1 2 3 4 5 ... 11
收藏数 210
精华内容 84
关键字:

如何计算重要性水平