精华内容
下载资源
问答
  • 随机森林计算特征重要性The feature importance describes which features are relevant. It can help with a better understanding of the solved problem and sometimes lead to model improvement by utilizing ...

    随机森林计算特征重要性

    The feature importance describes which features are relevant. It can help with a better understanding of the solved problem and sometimes lead to model improvement by utilizing feature selection. In this post, I will present 3 ways (with code) to compute feature importance for the Random Forest algorithm from scikit-learn package (in Python).

    功能重要性描述了哪些功能是相关的。 它可以帮助您更好地了解已解决的问题,有时还可以利用特征选择来改进模型。 在这篇文章中,我将介绍3种方法(使用代码),以scikit-learn包(在Python中)为随机森林算法计算功能重要性。

    内置随机森林重要性 (Built-in Random Forest Importance)

    The Random Forest algorithm has built-in feature importance which can be computed in two ways:

    随机森林算法具有内置的特征重要性,可以通过两种方式计算:

    • Gini importance (or mean decrease impurity), which is computed from the Random Forest structure. Let’s look at how the Random Forest is constructed. It is a set of Decision Trees. Each Decision Tree is a set of internal nodes and leaves. In the internal node, the selected feature is used to make a decision on how to divide the data set into two separate sets with similar responses within. The features for internal nodes are selected with some criterion, which for classification tasks can be Gini impurity or information gain, and for regression is variance reduction. We can measure how each feature decreases the impurity of the split (the feature with the highest decrease is selected for internal node). For each feature, we can collect how on average it decreases the impurity. The average over all trees in the forest is the measure of the feature importance. This method is available in scikit-learn the implementation of the Random Forest (for both classifier and regressor). It is worth mentioning that in this method, we should look at the relative values of the computed importances. This biggest advantage of this method is the speed of computation - all needed values are computed during the Radom Forest training. The drawback of the method is a tendency to prefer (select as important) numerical features and categorical features with high cardinality. What is more, in the case of correlated features it can select one of the features and neglect the importance of the second one (which can lead to wrong conclusions).

      基尼重要性 (或平均减少杂质),由随机森林结构计算得出。 让我们看看随机森林是如何构建的。 它是一组决策树。 每个决策树都是一组内部节点和叶子。 在内部节点中,所选功能用于决定如何将数据集分为两个单独的集合,并在其中进行类似的响应。 内部节点的特征按某些标准选择,对于分类任务可以是基尼杂质或信息增益,对于回归是方差减少。 我们可以测量每个特征如何减少分割的杂质(为内部节点选择具有最大减少的特征)。 对于每个功能,我们可以收集平均如何减少杂质。 森林中所有树木的平均值是特征重要性的度量。 scikit-learn可以使用此方法来scikit-learn随机森林的实现 (对于分类器和回归器)。 值得一提的是,在这种方法中,我们应该查看计算出的重要性的相对值。 此方法的最大优点是计算速度-在Radom Forest训练期间计算所有需要的值。 该方法的缺点是倾向于倾向于(选择作为重要的)具有高基数的数字特征和分类特征。 而且,在具有相关特征的情况下,它可以选择特征之一,而忽略第二个特征的重要性(这可能导致错误的结论)。

    • Mean Decrease Accuracy — is a method of computing the feature importance on permuted out-of-bag (OOB) samples based on a mean decrease in the accuracy. This method is not implemented in the scikit-learn package. The very similar to this method is permutation-based importance described below in this post.

      平均降低准确性 -是一种基于准确性的平均降低来计算置换袋装(OOB)样本的特征重要性的方法。 scikit-learn包中未实现此方法。 与此方法非常相似的是下文中介绍的基于置换的重要性。

    I will show how to compute feature importance for the Random Forest with scikit-learn package and Boston dataset (house price regression task).

    我将展示如何使用scikit-learn软件包和Boston数据集(房价回归任务)来计算随机森林的特征重要性。

    # Let's load the packagesimport numpy as npimport pandas as pdfrom sklearn.datasets import load_bostonfrom sklearn.model_selection import train_test_splitfrom sklearn.ensemble import RandomForestRegressorfrom sklearn.inspection import permutation_importanceimport shapfrom matplotlib import pyplot as plt
    plt.rcParams.update({'figure.figsize': (12.0, 8.0)})
    plt.rcParams.update({'font.size': 14})

    Load the data set and split for training and testing.

    加载数据集并拆分以进行训练和测试。

    boston = load_boston()
    X = pd.DataFrame(boston.data, columns=boston.feature_names)
    y = boston.target
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=12)

    Fit the Random Forest Regressor with 100 Decision Trees:

    使随机森林回归器具有100个决策树:

    rf = RandomForestRegressor(n_estimators=100)
    rf.fit(X_train, y_train)

    To get the feature importances from the Random Forest model use the feature_importances_ argument:

    要从“随机森林”模型中获取要素重要性,请使用feature_importances_参数:

    rf.feature_importances_array([0.04054781, 0.00149293, 0.00576977, 0.00071805, 0.02944643,
    0.25261155, 0.01969354, 0.05781783, 0.0050257 , 0.01615872,
    0.01066154, 0.01185997, 0.54819617])

    Let’s plot the importances (chart will be easier to interpret than values).

    让我们来画出重要性(图表比值更容易解释)。

    plt.barh(boston.feature_names, rf.feature_importances_)

    To have an even better chart, let’s sort the features, and plot again:

    为了获得更好的图表,让我们对特征进行排序,然后再次绘图:

    sorted_idx = rf.feature_importances_.argsort()
    plt.barh(boston.feature_names[sorted_idx], rf.feature_importances_[sorted_idx])
    plt.xlabel("Random Forest Feature Importance")
    Image for post

    基于排列的重要性 (Permutation-based Importance)

    The permutation-based importance can be used to overcome drawbacks of default feature importance computed with mean impurity decrease. It is implemented in scikit-learn as permutation_importance method. As arguments it requires trained model (can be any model compatible with scikit-learn API) and validation (test data). This method will randomly shuffle each feature and compute the change in the model's performance. The features which impact the performance the most are the most important one.

    基于置换的重要性可用于克服使用平均杂质减少计算出的默认特征重要性的缺点。 它在scikit-learn作为permutation_importance方法实现。 作为参数,它需要训练有素的模型(可以是与scikit-learn API兼容的任何模型)和验证(测试数据)。 该方法将随机地对每个功能进行随机排序,并计算模型性能的变化。 最影响性能的功能是最重要的功能。

    Permutation importance can be easily computed:

    排列重要性很容易计算:

    perm_importance = permutation_importance(rf, X_test, y_test)

    To plot the importance:

    绘制重要性:

    sorted_idx = perm_importance.importances_mean.argsort()
    plt.barh(boston.feature_names[sorted_idx], perm_importance.importances_mean[sorted_idx])
    plt.xlabel("Permutation Importance")
    Image for post

    The permutation-based importance is computationally expensive. The permutation-based method can have problems with highly-correlated features, it can report them as unimportant.

    基于排列的重要性在计算上很昂贵。 基于置换的方法可能会遇到功能高度相关的问题,可以将其报告为不重要的。

    从SHAP值计算重要性 (Compute Importance from SHAP Values)

    The SHAP interpretation can be used (it is model-agnostic) to compute the feature importances from the Random Forest. It is using the Shapley values from game theory to estimate how does each feature contributes to the prediction. It can be easily installed ( pip install shap) and used with scikit-learn Random Forest:

    可以使用SHAP解释(与模型无关)来计算随机森林中的特征重要性。 它使用博弈论中的Shapley值来估计每个特征如何对预测做出贡献。 它可以轻松安装( pip install shap )并与scikit-learn随机森林一起使用:

    explainer = shap.TreeExplainer(rf)
    shap_values = explainer.shap_values(X_test)

    To plot feature importance as the horizontal bar plot we need to use summary_plot the method:

    要将要素重要性绘制为水平条形图,我们需要使用summary_plot方法:

    shap.summary_plot(shap_values, X_test, plot_type="bar")
    Image for post

    The feature importance can be plotted with more details, showing the feature value:

    可以使用更多细节绘制特征重要性,以显示特征值:

    shap.summary_plot(shap_values, X_test)
    Image for post

    The computing feature importances with SHAP can be computationally expensive. However, it can provide more information like decision plots or dependence plots.

    SHAP对计算功能的重要性在计算上可能很昂贵。 但是,它可以提供更多信息,例如决策图或依赖图。

    摘要 (Summary)

    The 3 ways to compute the feature importance for the scikit-learn Random Forest was presented:

    提出了三种计算scikit-learn随机森林特征重要性的方法:

    • built-in feature importance

      内置功能的重要性
    • permutation-based importance

      基于置换的重要性
    • computed with SHAP values

      用SHAP值计算

    In my opinion, it is always good to check all methods and compare the results. I’m using permutation and SHAP based methods in MLJAR’s AutoML open-source package mljar-supervised. I'm using them because they are model-agnostic and works well with algorithms not from scikit-learn: Xgboost, Neural Networks (keras+tensorflow), LigthGBM, CatBoost.

    我认为,检查所有方法并比较结果总是好的。 我在MLJAR的AutoML开源软件包mljar-supervised使用基于置换和SHAP的方法。 我之所以使用它们,是因为它们与模型无关,并且可以很好地与scikit-learn算法配合使用:Xgboost,神经网络(keras + tensorflow),LigthGBM,CatBoost。

    重要笔记 (Important Notes)

    • The more accurate model is, the more trustworthy computed importance is.

      模型越准确,计算出的重要性就越值得信赖。
    • The computed importances describe how important features are for the machine learning model. It is an approximation of how important features are in the data

      计算出的重要性描述了机器学习模型的重要特征。 这是数据中重要特征的近似值

    The mljar-supervised is an open-source Automated Machine Learning (AutoML) Python package that works with tabular data. It is designed to save time for a data scientist. It abstracts the common way to preprocess the data, construct the machine learning models, and perform hyper-parameters tuning to find the best model. It is no black-box as you can see exactly how the ML pipeline is constructed (with a detailed Markdown report for each ML model).

    mljar监督的是可处理表格数据的开源自动机器学习(AutoML)Python软件包。 它旨在为数据科学家节省时间。 它抽象了预处理数据,构建机器学习模型以及执行超参数调整以找到最佳模型的通用方法。 这不是黑盒子,因为您可以确切地看到ML管道的构造方式(每个ML模型都有详细的Markdown报告)。

    Image for post
    The example report generated with a mljar-supervised AutoML package.
    使用mljar监督的AutoML软件包生成的示例报告。

    Originally published at https://mljar.com on June 29, 2020.

    最初于 2020年6月29日 发布在 https://mljar.com 上。

    翻译自: https://towardsdatascience.com/the-3-ways-to-compute-feature-importance-in-the-random-forest-96c86b49e6d4

    随机森林计算特征重要性

    展开全文
  • 对计算机专业来说学历真的重要吗?

    万次阅读 多人点赞 2019-09-27 09:21:37
    我本科学校是渣渣二本,研究生...先说结论,无论赞不赞同,它本质就是这样:对于技术类工作而言,学历五年以内非常重要,但有办法弥补。五年以后,不重要。 目录: 张雪峰讲述的事实 我看到的事实 为什么会这样 ...

    我本科学校是渣渣二本,研究生学校是985,现在毕业五年,校招笔试、面试,社招面试参加了两年了,就我个人的经历来说下这个问题。

    这篇文章很长,但绝对是精华,相信我,读完以后,你会知道学历不好的解决方案,记得帮我点赞哦。

    先说结论,无论赞不赞同,它本质就是这样:对于技术类工作而言,学历五年以内非常重要,但有办法弥补。五年以后,不重要。

    目录:

    • 张雪峰讲述的事实
    • 我看到的事实
    • 为什么会这样
    • 非一流毕业生校招怎么办
    • 非一流毕业生社招怎么办

    一、张雪峰讲述的事实

    腾讯娱乐的《演说家》节目播出后,“教育界的相声家”张雪峰老师又双叒上热搜了。

    只不过这次不是讲段子,而是针对考研和学历问题和节目嘉宾“怼”了起来···

    张雪峰认为,考研是一种提升改变的机会

    一辩 局座张召忠

    在张雪峰老师讲述完自己的观点之后,局座发问:“马云、马化腾、乔布斯等都没有考研,学历并不高,怎么论证这一点呢?”

    张雪峰老师回答说:“那是二十年前的事情了,时代不同,环境不同了。再者,乔布斯本身是从常青藤名校退学的,你要先达到名校这个高度,而在中国要考名校是很难的。”

    考了名校还不读?河南、山东考生听了想打人......

    二答 鲁豫

    鲁豫问张雪峰老师:你是因为真的相信考研会改变一些人的人生还是因为自己做这行所以才这么说?

    张雪峰老师连续说了三遍:我是真的相信!还举了一个老家齐齐哈尔大学的例子。

    我们进入社会后发现,几乎所有的大企业,都在告诉我们:学历不重要,能力更重要。

    但是,500强的企业只会去那些一流的大学招聘,而不会去一些二三流的大学!有些企业甚至在招聘信息上直接注明要求985、211院校毕业。

    理想很美好,现实却很骨感。正如张雪峰老师所说:学历不重要,是500强公司最大的谎言!

    一辩 局座张召忠

    三怼 马丁

    整个节目的爆点就在张雪峰老师与马丁的互怼之间,这反应,这口才,也是没sei了 ......

    节目播出之后,立刻引起网友热议,局面却是一边倒的站在了张雪峰老师这边。

    @RNQJ666:什么时候学历都是重要的?到社会工作才深刻理解书到用时方恨少。

    @蜗詹: 你总是嘲笑我念书没用,我却永远不会嘲笑你没念过什么书,这就是差别。

    @甜瓜uu:升学,升的不只是学历,还有圈子,层次。

    @大气庄重的我:作为一个上市七年,成员基本211起的公司的hr ,我表示,能力是最关键的,但没有学历你的机会和机遇就比别人少了太多。

    马丁拿自己公司的员工的学历背景来论证学历不重要,本身就是一道伪命题。

    因为作为老板的马丁本人就不是低学历者,还是上的名牌大学,他是青年政治学院的毕业生,这可不是一般人可以考上。据学校官网介绍,这所学校是在1948年创建的中央团校基础上于1985年12月命名组建的,是共青团中央直属的唯一一所普通高等学校。(根正苗红,一点儿都不普通好伐~)

    而且,马丁毕业后,曾在清华大学人文学院做过讲师,这又是什么概念?正是青年政治学院的学历背景,才为马丁提供了在清华教书的基本学历保障。

    过硬学历的拥有者,享受了学历带来的种种优厚待遇,还做了那些非211、985毕业的员工的老板,现在却告诉你,学历不重要,这本身不就是一道伪命题么?

    有些人会说,我学历就是很低,但是我一样成功了。首先,每个人对成功的定义不一样;其次,有些人的成功是不可复制的;再者,获得成功的过程一定离不开学习,世上没有不劳而获的成功,只是学习的方向和方式不一样而已。

    节目中,张雪峰老师还拿网络直播界红人MC天佑作为一个例子,他的人生很励志,从一个卖烤串的成为一名人气MC,按照我们现在对成功的一般定义,他是成功的,但是有几个普通人可以做到像MC天佑现在这样,人们在鼓吹无学历也能成功时,忘了它还有一个大bug——比例问题啊。

    二、我看到的事实

    1、二本毕业后

    因为是广西的渣渣二本,XX学院(我就不提了,以免伤到校友)。我们同学毕业后,大部分同学啥都没学会。想继续从事计算机的,花了三四万,去参加培训。更多的同学是直接转行。

    校招?根本没有校招好吗!去我们学校校招的都是些工厂招工的,你会去?

    没办法,硬着头皮去广州找工作,2011年,一个月2500!一个学计算机的,还没工厂流水线挣的多!这就是现实,而且非常难找,只能进些创业公司,稍大一点的,没实战经验,没实习经历,又是个渣渣二本,根本没人要!

    有人会说,是不是你能力不行啊?是的,相比别人,我可能能力不行。但相比我的同学,我可是他们中最优秀的,我连续三年得国家励志奖学金。每年的学校一等奖学金都会有我的。我虽然没有实习经历,但我大三就开始学软件开发,我自己开发的桌面软件有四款。(后来考研,教授就是看重我的实战能力才招我的)

    我跟我另一个同学,走了完全不同的道路。我看清了之后,我考研去了。他仍然坚持技术改变命运。结果是,在北京打拼的八年,去年去面试阿里,进了面试,仍被刷了。

    这就是事实!!!血的事实!!!

    2、研究生后的生活

    我考研报考的是中国科学院,2011年中科院大部分的研究所的分数线都是315,只有软件所和计算所的分数特别高,我报考的软件所分数张是343,而我恰恰考了342!差一分进不了面试,只能中科院内其它所调剂。申请调剂了无数次,一回回给各个所的招生老师打电话,最终等来的是一句句的:我们只接受985\211学校的同学调剂,虽然你分数比较高,但不满足硬性要求。

    这就是事实!!!

    经过曲折的调剂过程,我最终进了中国海洋大学。这个学校是他们眼中的985/211

    人生得到了完全的改变!!!!

    在研究生过程中,接触和负责的项目无数,动不动就是国家级的,虽然你自己觉得没什么技术含量,但头衔拿出来就是鲜亮!!!

    因为有了本科毕业时的经验,所以,我读研过程中,我非常勤奋。努力增强自己的技术水平。

    有了学校和技术能力的加持。在毕业校招时,在所有同学前,第一个进了阿里。

    另外,我想说的是,我的同学们的情况,我们整个计算机学院的研究生84个人。全部都是进的一线计算机公司,百度、腾讯、阿里巴巴、360、华为、美团等,有些不太想走技术路线的,进的也都是银行总部等核心单位。

    这就是事实!!!我眼中的事实!!!!

    鼓吹学历不重要的,都是扯淡!!!!

    3、工作后的看到的事实

    工作几年后,做了校招、社招的面试官,知道了一些行业秘密,这里告诉你

    校招:

    在通知你笔试前,会有简历筛选环节,校招筛选简历系统中,如果你的学校,不在它筛选范围内,那你的简历是被直接丢弃的。

    社招:

    对于已经有了工作经验的,学历就显得不那么重要,因为工作经验和技术水平可以弥补。在社招时,所有的简历是HR先过,觉得可以了才会给部门负责人。

    一般的公司都有硬性要求,非一本或非985/211的学生,五年以内工作经验的(有的是三年),直接筛掉,根本不会走到部门负责人那里。

    每个大公司看重学历的程度都不同,像阿里巴巴,就不是特别看重。注意,不是特别看重,不等于不看重,等会跟你说什么是特别看重。在阿里,也有二本的同学,也在普通本科的同学。好像给人一种不看重学历的样子。我曾经单独去问过一个二本的同学,人家全国ACM竞赛第三名!!!普通本科进来的,很多都是通过实习转正的,根本不是通过校招!

    而什么是特别看重呢?我曾经给一个公司内推一个同学,他在阿里工作了两年,华东科技大学的。能进阿里,肯定能力挺强,但被HR拒了,因为是,他们公司的招聘要求是:五年以内的,非985/211不要,五年以后的可以放开。

    对于这样的公司我很心痛,我也写了一篇文章来专门讲述这个事实,大家可以去看下:

    启舰:揭密!大厂招聘内幕!你真的能进大厂?​

    与HR的对决:

    后来,我专门咨询过HR,为什么会有这种筛选,学校并不能代表个人啊,学校不好,但并不表示人家能力都不行啊,总归有好的啊。谁又能保证,清华北大里没渣渣?

    结果,我被diss的很惨。他说,你让我校招去二本学校?一类学校的学生都还招不完,我为什么要去二本学校!!!二本学校的学生不可否认地有人才,但你知道我劳师动众地把那么多的面试专家、项目主管搬过去校招,通过率我怎么保证?我敢这么说,只要今年我校招去了二本学校,来年我就得滚蛋!

    发现这个HR太难沟通了,我就换了个HR,问问社招的事情。

    问题是:为什么社招仍然有学校的限制,比如三年以内需要是985/211的?

    HR回:其实,不光我们这么限制,在大公司的HR界都有普遍的认同。因为社招HR给项目主管简历,并不是HR本身的意愿。我也是非211学校出身,所以,我并不会有任何的歧视。之前,我也曾把二本、专科的同学的简历发给项目主管。结果面试通过率非常的低。你想想,一个主管,每天那么多事,年薪一两百万,天天跑去面试,每次面试必须满一小时(公司规定),结果凤毛麟角的通过率。结果,我被投诉了。差点丢了饭碗。所以,任何的规则,都是有原因的。

    三、非一流校招同学怎么办

    前面提到,非一流校招,会经过校招系统筛选,大概率是收不到笔试通知的。

    没关系,霸笔!!!霸面!!!!走起来!!!

    参加霸笔、霸面,最重要的目的,是把自己的简历给到面试官,能让他们眼前一亮的机会。所以,最关键的是如何让他们眼前一亮!!!

    敲黑板!!!在校招开始前,面试眼前一亮三步准备:参加竞赛、参加实习、增加项目经验

    1、参加竞赛:

    在大学期间,有很多的算法竞赛、ACM竞赛,尽量参加全国性的,有含金量的比赛,这才能眼前一亮。

    2、参加实习

    去大公司实习,相比校招进入大公司,那是简单很多,二本学校的学生,也能进得去实习。而且在大公司都有实习生转正的机会,我所呆过的公司,只要你去实习了,表现的不错,基本上100%转正。

    即便进不去大公司实习,在校招时,有实习经历,也会是简历上很重要的一项。而且一般有实习经历,就会有项目经验,这真是一举两得。

    3、增加项目经验

    如果实在没时间实习,或者实习中没做什么项目的话,那怎么办呢?在简历中最重要的就是项目经验了,如何解决呢?

    敲黑板!!!没有项目经验就造项目经验!!!!

    现在网上那么多的实战教程、github上遍地的源码分享,都可以为你所用。

    在面试时,这些项目经验都可以写上,最关键的是自己要弄通、弄会,尽量先仿一遍,自己再从头到尾自己再写一遍,把所有涉及到的知识点都弄通弄会。面试的时候,就实话实说,就说你自己仿的,没有关系,做为面试官,我们更看重的是你会啥并且你是不是真的会。

    我精心整理了计算机各个方向的从入门、进阶、实战的视频课程和电子书,都是技术学习路上必备的经验,跟着视频学习是进步最快的,而且所有课程都有源码,直接跟着去学!!!

    只要关注微信公众号【启舰杂谈】后回复你所需方向的关键字即可,比如『Android』、『java』、『ReactNative』、『H5』、『javaweb』、『面试』、『机器学习』、『web前端』、『设计模式』等关键字获取对应资料。(所有资料免费送,转发宣传靠大家自愿)

    在准备好了这些后,就可以开始准备校招了,参考这篇:

    启舰:大厂秋招面试官教你准备2020秋季校招​

     

    四、非一流社招同学怎么办

    社招同学其实是有优势的,因为在已经有工作经验的情况下,学历并不是那么重要的,起码不像校招时,直接机筛就给筛掉了,社招同学可以有以下途径来进入大公司。

    1、混圈子、混人脉、靠内推

    你知道六人定律吗?就是说想认识世界上的任何一个人,最多通过六个人的桥接就可以认识!!

    这就是圈子和人脉的重要性,你有同学、朋友、同事,他们任何一个人进了大公司,都可以内推你,而且在内推时,是可以直接跳过HR,直接把简历给他们主管的。

    凡做过主管的都会有经验,不看僧面看佛面,也会给你个面试机会,会让你过来聊聊,不然,他没办法给内推你的人交待!

    所以,跟同学、朋友、同事处好关系,用得着!

    2、靠猎头

    如果目前你还没有那些人脉,没关系,也有方案,去找猎头,猎头很好找,简历发到猎聘网,就会有猎头找你了。

    虽然猎头会跟很多大公司有合作关系,也自然能把你的简历推到大公司里,但这里有两点关键条件:

    • 需要走正规流程,先经对应公司HR筛选,再到部门主管,无跳级可能
    • 猎头看不看得上你,主要看个人简历内容,即个人实力,所以这部分还得靠自己,如何靠自己,看第三点

    3、靠自己

    其实无论走什么捷径进入面试环节,在面试时除了自己,谁也帮不了你,所以,如何把自己能力提升是非常非常重要的部分。另外,需要注意的是,在自己学习时,要有方向,一方面要提升名气,使简历发光,一方面深入学习,要有真本事。

    1、提升名气、使简历发光

    这部分仍然是为了能顺利进入面试做的,提升自己在行业中的名气,计算机中有三个途径能提升自己的行业名气。

    (1)、Github提交MergeRequest,自造轮子

    在所有的技术面试环节,github所提交的开源项目,是一个非常能展示实力的存在,只要你在简历上写了gitHub地址,所有的技术面试官和简历筛选官,都会去看你的代码,直接看你的技术实力。

    而且它的流行程度及star量,能提升你的行业影响力,在简历上是一个非常闪光的存在。

    如果恰巧,他们的项目中有你的开源组件,那恭喜你,这次基本上过了。

    如果你的开源组件非常流行,那恭喜你,等着大公司来私信你吧。你将会被争抢,此时,谁还会再关心你的学历?

    (2)、写博客、写书

    坚持写博客,当他们经常能搜到你的博客时,就会公认你的影响力和技术实力,在计算机领域,很多人都是靠博客起来的,比如鸿洋、郭霖等等,包括我。你以为,他们一上来就能让出版社约稿?

    都是持续产出博客,博客关注者多了,出版社觉得你写得好,才会主动找你,邀请你写书的。

    写博客、写书能使你在行业有一定的地位,当他们在简历上看到你的名字时候,就会油然产生一种大牛的感觉,还在在意你的学历?

    我就是写博客、写书的受益者,在我面试VIVO时,表现的并不好,因为我创业一年,Android知识从来没复习过,很多知识都遗忘了,还没来得及复习,就让我去面试了。

    他们原以为,我是一个特别厉害的人物,安排三个技术专家同时面,结果,一问三不知。不过,最后,还是给了我OFFER。因为他们公认我的能力是足够的,只是时间过了太久,有所遗忘,拾起来就好了。相反,如果没有这个行业影响力,那这次铁定是挂了。

    (3)、最根本:深入学习,提升能力

    前面讲了如何提升行业影响的方法,但根本的根本,还是要提升自己的实力,因为在面试时,是要面技术的,所有的外包装都会被揭穿,深入的技术复习只能靠大家自己了。

    我精心整理了计算机各个方向的从入门、进阶、实战的视频课程和电子书,都是技术学习路上必备的经验,跟着视频学习是进步最快的,而且所有课程都有源码,直接跟着去学!!!

    只要关注微信公众号【启舰杂谈】后回复你所需方向的关键字即可,比如『Android』、『java』、『ReactNative』、『H5』、『javaweb』、『面试』、『机器学习』、『web前端』、『设计模式』等关键字获取对应资料。(所有资料免费送,转发宣传靠大家自愿)

    视频内容非常多,总共2184G、一千六百多册电子书,九百多套视频教程,涉及43个方向。我整理了很长时间,有些资料是靠买的,希望大家能最快的提升自己。帮我点个赞吧。

    启舰:全网2184G计算机各方向视频教程/电子书汇总​

     

    愿所有的同学都能如愿去到自己想去的公司,帮我点个赞吧。

     

    建议阅读:

    启舰:职场中有哪些典型的「学生思维」?

    2019年Android开发的前景如何?

    学习flutter需要先学习安卓原生吗?​

    应届生如何跟踪校招信息?​

     

    本人所有文章均受版权保护平台签约保护,著作权归启舰所有,未经授权,转载必究,谢谢合作。

    展开全文
  • 此文觉得非常有逻辑,而且有很多量子计算方面的常识介绍。大部分资料都是网络公开的,这里做了一个汇集。因此,转发到博客里。 文章目录 (一)量子是个啥? (二)各种量子技术都是啥? (三)量子计算机有啥用?...

    写在前面

    此文觉得非常有逻辑性,而且有很多量子计算方面的常识介绍。大部分资料都是网络公开的,这里做了一个汇集。因此,转发到博客里。

    文章目录

    (一)量子是个啥?

    (二)各种量子技术都是啥?

    (三)量子计算机有啥用?

    (四)量子计算机怎么做?

    (五)当前量子计算实验研究的各路高手都是谁?

    (六)量子计算到底难在哪?进展到哪一步了?

    (七)量子计算何时商业化?

    (八)中国的量子计算处于什么水平?

    (九)结束语:我们为什么研究量子计算?

    前言

    首先也最重要的是,我们在谈论任何科技进展的时候都必须分清三个概念:科学事实、理论构想、未来展望。

    科学事实必须是清晰、准确、可重复的实验结果。确凿的实验事实是最扎实的科学知识。例如,氢原子有一个质子和一个电子,正常人有23对染色体等等。当前量子计算机的研究也是建立在非常坚实的实验基础之上——后面会讲到,在过去的二十多年里,科学家已经在量子物理的两条新战线上分别取得了里程碑式的重大进展。

    理论构想是依据已知科学事实、通过逻辑推演得出的预言或设计。再精妙的理论构想也要经过实验检验之后才能被称为事实。例如,1916年,爱因斯坦在广义相对论的基础上提出了引力波的预言;但是这个构想直到1974年天体物理学家 Russell Hulse 和 Joseph Taylor 用 Arecibo 射电望远镜发现脉冲双星 PSR 1913 16 后才首次得到明确验证(敲黑板,并不是最近的 LIGO 实验)。不过,不是所有的理论家都像爱因斯坦一样伟大。科学史上,优美的理论预言最终没能通过实验的检验是再常见不过的事。

    另一类未能实现的理论构想存在于工程设计中。很多童鞋可能都知道达·芬奇的“飞机”设计手稿,这里我们说另外一个例子——英国数学家和工程师 Charles Babbage 最早在1837年设计出了一种叫分析机 (Analytical Engine) 的机械计算机。用现代的计算理论看,分析机就是一台图灵完备 (Turing-complete) 的通用计算机,它有内存、有算数逻辑单元、有指令集、有条件与循环控制,编程方式很接近今天的汇编语言,理论上可以用纯机械方式完成现代电子计算机的所有运算。1843年,英国数学家 Ada Lovelace(著名诗人拜伦的女儿)为分析机编写了一段伯努利数的计算程序,被认为是地球上的第一只程序猿。但是,分析机的复杂与精密程度超过了十九世纪机械工程的水平,Babbage 生前也没能为此得到足够的经济支持,于是这个原本可以成为人类第一台通用计算机的伟大设计就永远地停留在了图纸上,直到一百年后电子计算机问世。

    其实,今天我们研究的量子计算机很像当年 Babbage 的分析机——都是非常精妙的理论构想,但在工程实践上都超前于时代,并且量子计算机的超前程度要远大于分析机。今天的“量子算法”研究者也很像当年的 Ada Lovelace——在给一台现实中还不存在的机器写程序。探索未来是基础研究非常迷人的地方;但我们同是要明白,不是所有构想都能成为现实,量子计算机从理论设计到真正问世中间有很长很长的路要走。

    未来展望不用多说,举一个例子就够了:“二十一世纪是生命科学的世纪。”

    事实、理论和展望在科研中都是必要的,但它们可靠性依次显著降低。科技炒作的核心手段之一就是在宣传中把构想当作事实,把主观展望当作客观结论。当下关于量子计算的种种“大新闻”大多如此。所以请大家在阅读下文的时候特别注意三者的区别。分清这几个概念,在我看来是比具体知识更重要的科学素养的体现。

    (一)量子是个啥?

    量子不是一种粒子,它在多数情况下是一个形容词而不是名词。它也不是指分立、不连续,而是一套自然规律的总称——这套规律是人类现有认识范围内物质世界的“基本法”。

    用个类比:古时侯人们就懂得万物生长靠太阳、种田栽树要浇水施肥,这些都是农作物生长的规律;而现在我们知道,这些绿色植物生命活动的本质是细胞中的光合作用、呼吸作用等一系列生物化学过程。物理世界也是如此。我们日常生活中接触到的各种力、热、电、光现象大多可以用建立于十七到十九世纪的经典物理学解释;但进入二十世纪后,科学家们发现世界是由原子组成的,如果想从分子、原子水平的上更本质地理解自然现象,就必须引入一套与经典物理很不一样的新规律,这就是量子力学。引用当代最知名的理论物理学家 Sheldon Cooper 博士的话:

    Quantum physics makes me so happy. It’s like looking at the universe naked.
    量子物理是人类迄今为止建立的最基础、最精确的科学理论,现代物理学的主体就是量子力学在各种不同物质尺度上的具体延伸和应用。然而,依人们日常的经验和直觉来看,这套规律非常诡异,尤其是下面三点:

    量子叠加 (quantum superposition):在量子世界中,物体可以同时处于不同状态的叠加上。从另一个角度说就是“波粒二象性”。
    量子纠缠 (quantum entanglement):在量子世界中,相互作用的物体之间存在着一种不受距离限制的、用任何经典规律都无法解释的关联。这种关联携带着信息,使得发生纠缠的各个物体处于一种不可分割的整体状态,不能分别描述。著名的“薛定谔猫态”就是思想实验中一只猫和一个放射性原子的纠缠态(猫也因此成为了量子物理学家的图腾,喵星人表示很无辜)。控制和利用量子纠缠,是量子信息处理的物理本质。
    量子测量 (quantum measurement):量子世界中不存在安静的暗中观察者,测量不是被动地读取信息,而会根本地改变被测物体的状态。它最简单的表现就是“海森堡不确定关系”。量子测量的这种必须干扰被测物体的诡异属性使得人们从量子系统中获取信息变得极其困难。实际中,我们制造量子计算机遇到的大部分难题最终都能归结到量子测量。

    量子在不少人的印象中可能非常前沿甚至有点玄妙;但熟悉现代物理的童鞋都知道,量子力学正式建立距今已有九十多年,是一套相当成熟的科学理论。那么今天的科学家又在研究什么?按照理论造一台量子计算机不就完了?

    不是这样的。科学家对任何一种自然现象的研究必须经过“发现-理解-控制”三个阶段之后才有可能将其转化为实际应用。以我们比较熟悉电磁学为例:人们在古代就发现了雷电、磁石,在近代又发现了电流磁效应、电磁感应、电磁波…;经过库伦、安培、法拉第、麦克斯韦等几代科学家的努力,人们逐渐理解了各种电磁现象的内在规律,并最终形成了统一电、磁、光的经典电磁理论;与此同时,科学家们发明了莱顿瓶、伏打电堆、螺线管、电动机、发电机、天线等最基本的物理装置来控制电磁场,使得人们最终可以利用这种自然力进行工程实践,才有了后来的电气革命和信息革命。

    那我们对量子的研究走到哪一步了?量子的概念主要起源于19世纪末、20世纪初的一系列原子物理发现;量子力学在1925年后建立并迅速成熟,但是这套完备的理论建立在一些诡异的基本原理之上,人们对这些基本原理的理解至今还很欠缺;不过真正要命的是,尽管量子力学可以用来解释和预测海量的自然现象,“如何控制量子物体”的研究却一度进展地相当缓慢——在1990年代之前,科学家都几乎没有控制单量子态的能力。由此导致的结果是,人类对量子力学的应用至今仍非常初级。类比来说,晶体管、激光、核磁共振、原子钟这些发明对量子原理的开发程度,大概也就和指南针对电磁原理的开发程度差不多。简言之,相比于对微观世界的认识,人类在实验上控制、测量量子系统的能力还很落后,这至今仍是量子技术发展的最大瓶颈。

    (二)各种量子技术都是啥?

    A. 涉及量子原理的经典机器

    这一类发明大多在上世纪中期出现,包括晶体管、激光、原子钟、核磁共振等等。

    “涉及量子原理”是指这些仪器的核心工作原理都源自原子尺度上的、必须用量子力学解释的物质性质——半导体的能带、原子的受激辐射、超精细能级结构、原子核的自旋磁矩等。

    那为什么说它们是“经典机器”?这是因为这些仪器只是在微观组成上涉及量子力学,人机交互的过程是完全经典的。例如,晶体管的功能来源于半导体中电子和空穴的运动;但是人使用晶体管不是去控制每一个电子和空穴,而是控制各个接口电压、电流的输入输出。这里的电压、电流都是有大量微观粒子参与的、完全经典的物理量,观测不到什么量子涨落 (quantum fluctuation)、不可同时测量之类的怪事。电路中的晶体管也不会处于开和关的量子叠加,晶体管之间也不会发生量子纠缠… 所以,晶体管只是在工作的微观原理上涉及量子现象,人使用晶体管的过程、用晶体管设计电子电路的方法则完全不涉及量子物理。

    把晶体管、激光这类发明称为量子技术很容易让我们落入逻辑滑坡——万物的微观组成都是量子的,半导体是,木头、棉线也是,那照着么说木工、针线活也都算是量子技术咯?因此,活在21世纪,我们需要明白:尽管微观组成不同,激光器和缝纫机一样属于经典机器,真正的“量子机器”是我们需要依据量子力学原理来控制、使用的机器,比如——

    B. 量子通信 (quantum communication)

    激光、晶体管不算量子机器的本质上是因为人们在这些仪器中控制的只是大量微观粒子的集体运动,而不能对单个原子、电子或光子的量子态进行单独操控。人类在单量子态水平上的第一种工程实践直到上世纪末才出现,那就是量子通信。

    量子通信直白地说就是“量子电报”。传统电报机收发的是经典电磁波,信息加载在电磁波的幅度、频率或者相位上;“量子电报机”收发的是单个光学频率的光子,信息加载在光子的不同量子态上。量子通信的物理基础就是单光子的产生、操纵、传输和测量。

    量子通信最早的理论方案在1984年和1991年被分别提出,1992年第一次得到了实验的原理性验证,随后在科学家们的努力下向着距离更长、装置更简单实用的方向发展。此中贡献尤其大的是瑞士日内瓦大学的 Nicolas Gisin,他领导的实验室除了一系列使用纠缠光子实现量子通信的标志性实验外,最重要的是在1997年发明了不用纠缠光子的“plug & play”实验方案,成为实用量子通信的经典方法。1995年, Gisin 实验室借用瑞士电信公司跨日内瓦湖的湖底光纤,在日内瓦和尼永 (Nyon) 两个相距23公里的城市之间实现了第一次长距离户外量子通信。Gisin 与同事创办的 ID Quantique 公司于2003年实现了量子通信的商业化。2007的瑞士大选中,日内瓦大学与 ID Quantique 为日内瓦州的电子选票传输提供了量子加密,这是量子通信技术第一次被官方公开使用。此外,美国的 MagiQ Technologies 和法国的 Smart Quantum 公司等也很早都开始提供商业化的量子加密服务。

    那么,这种收发单个光子的“量子电报机”究竟强大在哪?人群中对此流传着几个误解:

    误解一(低级错误):量子通信可以超光速

    不可以。所有利用了量子纠缠的量子通信方案同时还都需要一个经典信道的辅助,而经典通信不可以超光速。

    误解二(中级错误):量子通信比经典通信更快

    不是。量子通信的主要意义不是加速,而是保密。它传递的不是信息正文,而是加密密钥(也就是余则成藏在抽屉里的密码本)。量子通信的实际应用通常也被称为量子密码学 (quantum cryptography) 或量子密钥分发 (quantum key distribution)。经过量子加密的信息正文依然是由普通通信方式传递的。

    误解三(高级错误):量子通信是绝对保密的

    并不是。正确的说法是:在理想条件下,量子通信在信息传输过程中是无条件安全的。特别地,这种的安全保障并非来自加密的数学复杂度,而是测量必须干扰量子态、未知量子态不可复制等基本物理原理——这是量子加密与经典加密最本质的区别。

    然而,量子通信的安全性只是理想条件下的数学结论——假设光子传输过程中没有损耗、假设单光子态的制备、测量是完美的等等,很显然这些条件在实际中都不成立。在2008年到2010年间,就至少有三个利用由实际中非理想条件导致的安全漏洞攻击 ID Quantique 或 MagiQ 商用量子通信系统的实验取得了成功,从事实上证明了第一代量子加密技术绝非不可破解。现实条件下量子通信的安全问题和优化方式目前仍是一个活跃的研究领域。

    更重要的是,量子通信的安全范围仅限于光子的传输过程中;而一个完整的通信过程至少包括编码、发送、传输、接收、解码几个步骤,量子力学定律可以保证密钥在理想的量子信道中不被窃听,但对收发两端的经典安全问题无能为力。这一点其实让量子通信的实用价值大打折扣——在现代保密系统中,安全隐患不仅出现在传输过程中,还经常出现在收发两端。所以,尽管物理学家一直在大力宣传量子通信,不少信息安全专家却对此持有怀疑——不可否认,量子通信是非常有趣的物理实验,但它在现实中真正对信息安全有多大提高还存在疑问。鉴于这些实际问题,尽管量子通信的基础研究在1990年代就已非常火热(瑞士之外比较有代表性的还有奥地利维也纳大学、美国 Los Alamos 国家实验室、伊利诺伊大学、IBM 实验室、英国电信实验室等),进入新世纪之后却逐渐降温,除了小范围之外没有得到大规模的应用和政府支持,直到2017年中国的量子保密通信“京沪干线”开通。

    如此说来,量子通信的意义到底在哪?我认为客观地说,量子通信的基础研究意义大于实用价值。且不谈量子加密在实际中的安全问题,保密通信本身在科技发展的大局中也只是一件小事。但是,量子加密技术的基础是1980年代以来一轮量子物理的重大进展——利用光学光子研究量子纠缠。这轮研究的主要动机是对量子力学基本问题的探索——在此之前,人们对量子力学诡异属性的理解主要限于量子叠加,对更加诡异的量子纠缠、特别是纠缠和测量结合后出现的一些严重挑战经典世界观的深刻问题主要限于哲学讨论,而缺乏科学实验。这其中最著名的就是量子非定域性 (quantum non-locality) 检验,它将直接判明经典世界观中的局域因果性 (local casuality) 和客观实在性 (objective reality) 是否在真实世界中同时存在。对此的实验探索起源于1970年代的美国,但最关键的工作主要出现在欧洲——除 Nicolas Gisin 外,最具代表性的还有法国光学研究所 (Institut d’optique) 的 Alain Aspect 和奥地利维也纳大学的 Anton Zeilinger 等。这一领域的科学家们在二三十年间通过一系列基本而巧妙的光子实验极大地深化了人类对于量子纠缠的理解,让量子力学通过了最严苛的检验;同时积累了大量制备、操纵、测量单光子的实验技术,并开始思考量子纠缠的实际应用,直接导致了量子通信技术的诞生。这在我的理解中是当代量子科技的第一个里程碑。即使当前实用价值有限,理解和控制量子纠缠都是构造更复杂量子机器的必要前提,比如——

    C. 量子计算 (quantum computing)

    量子计算机不是“下一代计算机”,不是电子计算机的升级版,而是科学家构想中的一种高度复杂、高度可控的人造量子系统,兼具信息处理的功能。量子计算机是人类当前设想中最复杂、实现难度最大的量子机器,一旦建成对科学和社会的影响也最深远。

    量子计算是本文之后全部内容的主角。

    此外,量子技术还包括量子仿真(quantum simulation)、量子传感 (quantum sensing) 等。

    (三)量子计算机有啥用?

    先澄清一种流言:量子计算机一旦做成,直接秒杀经典计算机。

    正确的说法是:理论构想中的大型、通用、容错量子计算机会在几类特定问题上有超出经典机器的计算能力。

    量子计算机和“摩尔定律”到没到头关系不大。

    量子计算机并不是一种更快的计算机。它在逻辑、输出方式等方面与经典计算机根本不同,其中最本质的就是量子纠缠的存在。在量子信息学的观点中,量子纠缠是与物质、能量、信息并列的一种自然资源,利用好这种资源能使量子计算机发挥出巨大威力。但是,如何用它设计更快的算法,在理论上就是很大的挑战。目前,对绝大多数计算问题,理论家们都还没有找到超过经典算法的量子算法;但在一些特殊问题上确实有了新的发现。哪些问题呢?最早发现的主要有两类:一类可以归结为质因数分解(Shor 算法),比已知最快经典算法有指数加速(准确说是超多项式加速);另一类可以归结为无序搜索(Grover 算法),比经典算法有多项式加速。

    Shor 算法和 Grover 算法分别于1994年和1996年被提出,可以说是它们的发现引起了科学界对量子计算的真正重视——尽管量子计算的初步概念在80年代初就已出现,但十几年来都只是很小圈子内的理论游戏,被认为既无法实现也没有用处;Shor 算法和 Grover 算法终于为量子计算机找到了可能的实际应用。其中 Shor 算法的影响尤其大——现代密码学中,几类常用的公钥系统包括 RSA (Rivest–Shamir–Adleman) 和 ECC (elliptic-curve cryptography) 等的基本加密原理都可归结为大数分解的计算复杂度。因此量子计算机一旦出现,将给现有的信息安全带来巨大威胁。

    不过这种威胁并不紧急——想运行 Shor 算法破解密码需要有至少上百万个量子比特的通用、容错量子计算机,这其中的任何一个词在短时间内都无法实现。并且,关于量子计算机无法破解的“后量子时代加密技术”的研究也已经有了不少成果。所以,单是破密码这类“黑客活动”并不会赋予量子计算机科技革命式的重要意义。在 Shor 和 Grover 算法提出后的十来年里,再没有第三类重要的量子算法被发现,量子计算理论的发展一度走向平缓。

    但新的突破在2008年出现—— Aram Harrow、Avinatan Hassidim 和 Seth Lloyd 提出了 HHL 算法:在一系列前提假设下,量子计算机可以在对数复杂度内求解一些特殊的线性方程组。这让这个领域又一次火了起来——与 Shor 算法只有“黑客应用”不同,线性方程组在现代计算中可以说是无处不在。特别地,它是很多拟合、推断、优化问题的基础。HHL 的各种衍生算法与这些年人工智能的热潮结合,让这类研究有了个不能更时髦的名字——量子机器学习,这也让量子计算机第一次拥有了商业价值。更好的是,一些量子机器学习算法只需要有50到100个量子比特的小型量子计算机就能展现出优势,这在当前实验发展的趋势下并非遥不可及。在潜在利润的驱动下,从2011年开始,特别是2014年之后,各大商业公司开始纷纷关注量子计算。这也是量子计算开始在各种媒体上频繁出镜的时候。

    该说但是的时候又到了。HHL 算法与之前的 Shor 算法和 Grover 算法有根本的不同——严格地说 HHL 不是一个具体算法,而是一个在特殊假设和限制条件下的算法模版,或者说是一个完整算法的一部分。它没有回答数据应该怎样读入读出,没有回答如何才能让量子计算机按照给定的参数演化,并且有非常苛刻的适用范围。任何一个细节条件不满足,量子加速都会消失。以 HHL 为模版设计一个具体算法就需要填补上这些细节,但极少有实际问题满足全部的限制条件,且满足这些条件的特殊问题很多时候都有更好的经典算法(各种量子机器学习算法中声称的加速绝大多数都是在用特殊条件下的量子算法和通用的经典算法做比较)。当前量子机器学习的研究多是在抽象地发掘量子算法在某些计算步骤中的优势,而少有人下大功夫考虑具体问题和完整的计算过程。简言之,理论家们找到了算法模版,但还没有明确落实可以使用这套模版的具体问题,也没有可以运行这套算法的机器。因此,现在我们的结论只能是:量子算法有希望加速机器学习中的某些步骤,但具体该怎样做还有待研究。

    以上似乎有些悲观:量子计算机短时间内在传统的计算问题上还没有清晰明确的应用。但其实从物理学家的视角看,量子计算机最有价值的潜在应用并不是传统意义上的计算,而是量子仿真 (quantum simulation)——自然界中原子、分子的微观过程遵守的都是量子力学;可由于量子纠缠的存在,再强大的经典计算机也不能对规模稍大的量子系统(比如几十个原子)进行严格求解,而只能借助近似(密度泛函、Monte Carlo 等),这就是现代计算物理、计算化学的核心。然而,量子计算机就是一台自带量子纠缠的机器,最适合在编程之后模拟待研究的复杂量子系统,也就是用量子机器求解量子问题。最原始的量子仿真在近二十年里已经是冷原子物理的重要方向,但它真正发挥出威力还是要等量子计算机的出现。那时,凡是涉及大量微观粒子的研究,例如凝聚态物理、量子化学、分子生物学都将发生很深刻的变革;相应的应用学科,例如材料合成、药物研发等,也都会有很本质的改变。

    说了这么多,量子计算机到底有啥用?量子计算起源于好奇心驱动的思维游戏,近二十年有了坚实的实验进展,但它在短期内还将是一种基础研究,没有立即可操作的实际应用。可从长远来说,它将给给现有的计算理论带来深刻变革,将极大加深人类对物质与信息的理解;特别地,它将是一种前所未有的计算微观世界的强大工具。类比来说,量子计算机像是计算机中的火箭。火箭再强大,也不能取代火车、汽车、自行车,因为它们的根本用途不同。同理,量子计算机价值的并不是取代经典计算机,甚至主要不在于加速传统计算,而是在于一些经典计算机不能解决的特殊问题,比如复杂微观系统的模拟。量子计算并不是“后摩尔时代”的计算,它与传统的微电子是两个目标不同、平行发展的领域,不可以相互替代。未来量子计算机的第一波应用也将是对科学的意义大于对商业,对科学家的意义大于对普通人。

    所以,现在的程序员们大可继续安居乐业。研究奇怪的新机器就交给一小撮量子发烧友就好啦~

    (四)量子计算机怎么做?

    量子计算机是用“原子”和光子做的。更确切说,是直接用“原子”和光子做的。这里的“原子”既可以是天然原子,也可以是固体系统中的“人造原子”;光子有的在光学频率,有的在微波频率。

    量子计算机运行的物理过程,就是单量子尺度上的原子-光子相互作用。这是人类有史以来最精巧的物理实验之一。

    量子力学主要是微观粒子的科学。但是在它创立之初,科学家们没有能力在实验上控制单个微观粒子,以至于玻尔、海森堡、薛定谔、爱因斯坦这一代前辈们只能在脑子里做单个粒子的思想实验,例如关着一个光子的盒子、观测单个电子的显微镜之类。真的在实验中做到这些一度被认为是根本不可能的。

    1971年在巴黎高等师范学院,一位叫 Serge Haroche 的博士生用光学泵浦 (optical pumping) 方向的课题参加答辩。一位评委问他:“你的实验中有大量的原子和光子,为什么要用量子理论去描述呢?” Haroche 回答:“老师,有一天我会用一个光子做这个实验。”

    这是 Serge Haroche 在他的 Nobel Lecture 上讲的。2012年,他与 David Wineland(美国国家标准与技术研究所 NIST)因为首先实现单个原子和光子之间的非破坏测量与控制获得诺贝尔物理学奖。Haroche 的实验系统叫腔量子电动力学 (cavity quantum electrodynamics)——让处于极高激发态的原子一个个地飞过微波腔,与腔中囚禁的一个或几个光子相互作用,用原子控制和测量光子的量子态;Wineland 的实验系统叫离子阱 (ion trap)——用激光冷却和射频电场囚禁一个或几个带电离子,再用电磁场和激光对离子进行量子操纵和测量。

    在这里插入图片描述
    腔量子电动力学实验概念图(巴黎高等师范学院 Serge Haroche 实验室)

    在这里插入图片描述

    Paul 离子阱实验概念图(奥地利因斯布鲁克大学 Rainer Blatt 实验室)

    腔量子电动力学和离子阱实验刚开始时,量子计算的概念还很不受重视。它们本来也只是纯粹的基础物理研究。但是到了90年代后期,大家开始意识到单量子态的操纵和测量就是量子计算的基础。随后,物理学家又在几类不同的物质系统(超导量子电路、半导体量子点、固体缺陷等等)中实现了非常可靠单量子态控制,宣告了量子计算实验研究的开始——在我的理解中这是当代量子科技的第二个里程碑。如果把未来的“量子工程”比作建高楼,那么这一步就好比是学会了烧砖。人类从此可以开始以高度可控的方式操纵量子世界的基本单元,逐渐构建复杂的人造量子系统。

    每一种高度可控的单量子系统理论上都有可以作为量子计算机的基本组成。然而在实际中,不同的物理方案的差别很大。目前最领先的量子计算实验系统只有两种——一个是离子阱,另一个是超导量子电路。

    用电磁场囚禁带电离子的研究从1950年代就已经开始。Paul 阱和 Penning 阱的发明人—— Wolfgang Paul(德国波恩大学)和 Hans Dehmelt(美国西雅图华盛顿大学)在1989年分享了诺贝尔物理学奖。1970年代,原子的激光冷却技术出现并迅速应用于离子阱;1989年,David Wineland 实验室首次实现了汞离子的基态冷却,离子阱走入量子时代。早期,离子阱主要的发展动力是精密测量,例如测量电子反常磁矩、提供超高精度频率标准(原子钟)等。直到1995年,科学家们才意识到这是一个非常理想的量子计算平台。21世纪的头十年里,离子阱几乎在各类量子计算实验系统中保持绝对领先,它最明显的优势有:

    干净:单个或几个离子是干净的无杂质系统,量子相干时间很长。
    精密:离子的量子逻辑门和测量的保真度 (fidelity) 很高。
    容易多体纠缠:任意两个离子之间都可以相互作用(产生纠缠)。另外,自然中的同种原子是完全相同的,离子阱也特别适合模拟量子多体系统。
    而然它的劣势也是明显的:

    慢:天然原子与光子的相互作强度有限,导致离子的控制和测量都很慢(大概比超导量子电路慢一千倍)。
    实验手段复杂:冷原子类实验都需要非常精巧复杂的激光、真空和电磁场装置。
    集成困难:离子依靠电磁场“悬浮”在阱中。同一个阱中最多也就囚禁十几到几十个完全可控的离子,直接大规模集成几乎没有可能。
    在离子阱的研究者试图攻克这些难题的时候,一种很不一样的系统开始逆袭。

    量子理论自创立之初就一直有个重大疑问:这套理论究竟是只适用于微观粒子,还是也适用于宏观物体?这与量子纠缠一样都是历史遗留问题,长期只有理论争辩而没有实验进展。1982年,一支伯克利加州大学的三人小组——英国物理教授 John Clarke、法国博士后 Michel Devoret 和美国博士生 John Martinis,开始用一种叫 Josephson 结的超导体-绝缘体-超导体三明治结构试图观测宏观量子现象;几年之后,他们通过宏观量子隧穿和微波谱的测量得到了明确结论——在极低温下,Josephson 结的宏观相位遵守量子力学规律。特别的是,这里的宏观量子现象不是指“大量量子力学粒子组成的宏观物体(例如超导体)”,而是一个必须用量子力学描述的宏观自由度(Josephson 结相位)。尽管这个人造器件中有几百亿甚至更多的原子,它们的一个集体运动自由度却是量子的,我们可以像控制单个原子一样控制这个超导器件。因此,这类包含 Josephson 结的宏观量子器件也被称为超导人造原子 (superconducting artificial atom),它们组成的电路就是超导量子电路 (superconducting quantum circuits)。

    2000年前后,世界各地的多个实验团队( 法国 Saclay 原子能研究所、日本 NEC 基础研究室、荷兰 Delft 理工学院、美国国家标准与技术研究所 NIST 等)先后实现了几类不同超导人造原子的量子叠加。2004年,耶鲁大学 Robert Schoelkopf 实验室首先观察到单个微波光子与超导人造原子的相互作用,这类实验系统被称为电路量子电动力学 (circuit quantum electrodynamics)。2007年和2009年,耶鲁大学 Robert Schoelkopf 实验室和 Michel Devoret 实验室发明了两种目前最重要的超导人造原子——transmon 和 fluxonium。接二连三的重要进展让超导量子电路在十年内迅速成为最有希望的量子计算系统之一。

    在这里插入图片描述
    一些重要的超导人造原子:
    左上:超导电荷量子比特(日本 NEC 基础研究室蔡兆申实验室)
    左下:超导磁通量子比特(荷兰 Delft 理工学院 Hans Mooij 实验室)
    中上:超导相位量子比特(圣芭芭拉加州大学 John Martinis 实验室)
    中下:quantronium 人造原子(法国 Saclay 原子能研究所 Michel Devoret 实验室)
    右上:transmon 人造原子(耶鲁大学 Robert Schoelkopf 实验室)
    右下:fluxonium 人造原子(耶鲁大学 Michel Devoret 实验室)

    在这里插入图片描述

    电路量子电动力学实验概念图(耶鲁大学 Robert Schoelkopf 实验室)

    超导量子电路最大优势在于它是一套可以在宏观尺度上对光子和“原子”进行相互控制和测量的“人造工具箱”。它的各种参数和性质不是由大自然设定,而是可以通过设计在很大范围内进行调整,让科学家可以通过工程方法解决各种实验问题。这使得它相比天然原子

    快:通过器件设计可以增大“原子”-光子相互作用强度,实现纳秒速度的量子逻辑门。
    实验手段简化:超导量子电路需要在 20 mK(绝对零度之上0.02摄氏度)以下的极低温工作,这用目前已经商品化的稀释制冷机 (dilution refrigerator) 很容易实现,无需各种复杂的激光冷却和囚禁装置。
    作为固体器件,很容易通过现代微纳加工进行大规模集成。
    但是超导量子电路也有不少缺点。人造原子终究没有天然原子干净完美,超导量子电路在量子相干时间、逻辑门准确度、频率稳定性等方面一直都不如离子阱。但科学家们一直在不断通过新的器件设计来试图解决这些问题——超导人造原子的相干性在十几年内已经提高了十万倍(从最初的几纳秒到现在的上百微秒)。这几年来,超导量子电路已经成为最受关注的量子计算技术,在学界和业界都很受青睐。

    除此之外,比较热门的量子计算实验系统还有固体缺陷(金刚石色心、碳化硅色心等)、半导体量子点等。但是,离子阱和超导量子电路目前处于明显的领先状态,我认为有两个根本原因:

    基本组成简单。人们对单个原子的结构和低温超导体的性质已经相当清楚。
    控制方法成熟。激光和微波技术都已经经过了半个多世纪的发展,激光冷却和稀释制冷目前也都相当成熟。
    这使得物理学家不再需要花很大精力研究“原子”和光子本身,而是可以把它们作为可靠的基本工具来构造更复杂的量子系统。而很多关于固体缺陷和量子点的研究重点还是制备、控制方法和基本物理性质,它们是非常有价值的物理和材料研究,但是在量子计算的水平上暂时与离子阱和超导量子电路不处在同一个发展阶段。此外,中性原子、线性光学等系统在基本的原理验证上有一定意义,但一般认为在实用方面的发展空间比较有限。

    最后需要单独一提的是“拓扑量子计算 (topological quantum computing)”,它基于一种理论预言中的非阿贝尔任意子 (non-Abelian anyon)——Majorana 费米子。过去五年间,已有多个实验室在固体系统中观察到了 Majorana 费米子存在的迹象,但至今仍未确定,也无法对其进行任何量子操作。准确地说,当前的“拓扑量子计算”是一种以量子计算为潜在应用的凝聚态物理研究,而非真正的量子计算研究,处于基本单元尚未发现的最初构想阶段。这个方向近几年热度很高,但它还属于基础的凝聚态物理,暂时不应该和其他量子计算实验系统并列起来,相互比较没有太大意义。

    不同实验系统之间孰优孰劣一直是大家津津乐道的话题。然而绝大多数宣传(包括学术论文和报告)的基本思路就是以己之长比他人之短,为自己的方案吸引关注、申请经费,撕来撕去没有什么客观结论。从我自己的角度认为,

    所有实验系统都为量子计算的原理验证做出了贡献
    离子阱和超导量子电路暂时领先
    超导量子电路更接近一种灵活实用的工程系统,未来的设计空间和发展潜力更大(当然这属于展望,我很有可能是错的~)

    (五)当前量子计算实验研究的各路高手都是谁?

    离子阱和超导量子电路作为最领先的实验系统,已经开始出现“巨头垄断”的趋势——在长期的经验积累下,个别超一流实验室已经和其他竞争者拉开了一个身位。这种优势并不只是技术领先,更重要的是所挑战问题的难度、复杂性和前瞻性。这些超一流实验室全都在美国和欧洲。

    目前,全世界大概有三十几个离子阱实验室。积累最深、影响力最大的除诺奖得主 David Wineland 外,还有美国马里兰大学的 Christopher Monroe 团队和奥地利因斯布鲁克大学的 Rainer Blatt 团队。这两个实验室在实现多体量子纠缠、尝试量子纠错以及离子阱技术实用化等方面都走在全世界的最前列。

    超导量子电路实验室全世界也已经有了几十个。其中处于最核心位置的有两个,分别在美国东西海岸——东海岸的耶鲁大学和西海岸的圣芭芭拉加州大学/Google。它们各自的掌门人就是当年伯克利宏观量子隧穿三人小组中的两位年轻人。

    1984年,Michel Devoret 在两年博士后之后回到法国,在法国原子能研究所 (CEA Saclay) 建立了自己的实验室。与法国物理学家 Daniel Esteve 和 Christan Urbina 一起,他们的 Quantronics 实验室在九十年成为世界著名的介观超导结构单电子输运研究组,致力于探索宏观电路的量子效应,最终在1998年在2002年分别发明了超导电荷量子比特 (Cooper pair box) 和 quantronium 人造原子。2002年,Devoret 与因研究分数量子霍尔效应闻名的理论物理学家 Steven Girvin 一起加入耶鲁大学,与当时年轻的助理教授 Robert Schoelkopf 组成了密切合作至今的“三驾马车”。耶鲁团队2004年发明了电路量子电动力学结构,成为当前超导量子电路最核心的控制和测量方法;2007年发明 transmon 人造原子;2009年发明 fluxonium 人造原子;2010年发明量子极限放大器,实现 single-shot 量子非破坏测量;2010年首创三维电路量子电动力学;2013年提出 cat-code 量子纠错码;2016年实现超导电路的远程量子纠缠 (remote entanglement)…… 可以说,耶鲁团队在过去15年间贡献了当前超导量子计算主要的电路结构与控制、测量方法,并且目前在逻辑量子比特、远程量子纠缠、量子极限测量等方面都在领跑世界。

    1987年,John Martinis 博士毕业,在 Michel Devoret 实验室做过博士后之后,加入美国国家标准和技术研究所 (NIST) ,成为低温超导器件的专家,并在2002年发明超导相位量子比特。2004年,Maritnis 加入圣芭芭拉加州大学 (UCSB),此后十年与同门师弟、纳米力学专家 Andrew Cleland 密切合作,实现了多种量子电路构架,在材料、工艺等工程细节方面尤其精湛,特别注重实验设计的实用性。2014年,Martinis 实验室全员被 Google 收购,开始着力于具有一定规模的实用量子芯片的研究,目前在平面量子电路的复杂度和技术质量上保持领先。

    除了两大领头羊外,全世界还有十来个原创能力较强的超导量子电路实验室。其中,美国伯克利加州大学、芝加哥大学、普林斯顿大学、马里兰大学、瑞士苏黎世联邦理工学院、荷兰 Delft 理工学院、法国原子能研究所、巴黎高等师范学院的实验室都是由耶鲁团队曾经的学生和博士后带领。此外,美国 IBM Watson 研究中心和麻省理工学院林肯实验室各有一支人数很多、工程执行力很强的研究团队。日本理化研究所 (RIKEN)、瑞典 Chalmers 理工学院也有竞争力较强的实验室。

    其它量子计算系统也都有各自的超一流实验室,例如(不完整名单)

    金刚石、碳化硅色心:德国斯图加特大学 Jörg Wrachtrup、荷兰 Delft 理工学院 Ronald Hanson、美国芝加哥大学 David Awschalom、哈佛大学 Mikhail Lukin……

    半导体量子点:美国普林斯顿大学 Jason Petta、哈佛大学 Amir Yacoby、荷兰 Delft 理工学院 Lieven Vandersypen……

    “拓扑量子计算”:荷兰 Delft 理工学院/微软 Leo Kouwenhoven、丹麦哥本哈根大学/微软 Charles Marcus……

    不过与离子阱和超导量子电路非常关注量子系统的设计、控制和测量不同,量子点与“拓扑量子计算”当前最关键的主要还是材料和工艺,更接近基础的凝聚态物理;固体色心除了量子信息,还在纳米光子学、材料和生物成像等方面有不少应用。所以这些系统还没有那么“巨头垄断”,一流研究组比较多,新实验室的发展机会也更多。

    (六)量子计算到底难在哪?进展到哪一步了?

    在这里插入图片描述
    这是2013年 Michel Devoret 和 Robert Schoelkopf 发表在 Science 上的“量子计算台阶图”。下一层实验是上一层实验的基础;但这并不是一个直线升级过程——为了上一个新台阶,在它之下的所有台阶都必须不断优化。所以,我们站的越高工作量就越大,量子计算机越往后做越难。

    图上的前三层大致对应量子力学的三大诡异属性——叠加、纠缠、测量。到目前,主要的量子计算实验系统(不计“拓扑量子计算”)都已经站上了前两层。但不是每种系统都站上了第三层。

    迄今为止,没有任何一种系统完成了第四层(量子纠错、逻辑量子比特)。

    开头说过,人们研究量子计算遇到的麻烦大多都能归结到各种形式的量子测量。

    对经典计算机来说,数据输出是很直接的——按高低电平区分二进制数就好。然而,量子计算的过程一般只涉及几个基本能量量子,比如一次电路量子电动力学色散读出 (dispersive readout) 一般只用5到10个微波光子,如此微弱的信号如何测量?要知道,世界上最好的半导体微波放大器(液氦温度下工作的高电子迁移率晶体管 HEMT)放大一个光子大概要添20个光子的噪声。另外,单量子水平的测量一般都要改变粒子的量子态,甚至直接毁灭粒子(比如光电倍增管的原理就是通过光电效应将入射光子转化为电流并放大,但测量之后被测光子直接被吸收)。总之,想从量子系统中高效地读出信息是件非常困难的事。

    对量子计算来说,最理想的测量是 single-shot 量子非破坏测量 (quantum non-demolition measurement)——测量不毁灭被测粒子、第一次测量后粒子状态不再改变、每次测量结果都可分辨。对于离子阱和金刚石色心,这可以通过激光荧光 (laser-induced fluorescence) 实现。但超导人造原子只有微波跃迁,且微波光子的能量只有光学光子的十万分之一,单光子探测非常困难。2010年后,这个问题终于由电路量子电动力学色散读出加量子极限放大器 (quantum limited amplifier) 解决——后者是也是一类极低温下工作的超导电路,放大一个光子只添一个光子的噪声,这是量子涨落导致的海森堡极限。对量子极限放大器的发明贡献最大的是耶鲁大学 Michel Devoret 实验室和伯克利加州大学 Irfan Siddiqi 实验室。这让超导量子电路成为第一个站上台阶图第三层的人造系统。

    第四层(逻辑量子比特)困难就更大了,原因还是量子测量——理论构想中,我们总希望人是量子计算机的唯一观察者。可实际上,环境无时无刻不在对量子系统进行测量。这种测量会导致量子计算机与环境产生纠缠,不再保持理想的量子纯态,逐渐失去量子相干性,这个过程叫量子系统的退相干 (decoherence)。从信息的角度讲,量子信息会逐渐丢失在环境中而不是进入我们的测量装置,实验者是在与环境抢信息。量子信息丢失的时间就是这个系统的相干时间 (coherence time)。目前,最好的超导人造原子的相干时间大多在10到100微秒之间。也就是说,直接用它们做成的量子计算机最多只能连续工作万分之一到十万分之一秒。

    任何量子系统都无法避免退相干。更麻烦的是,相干性与可控性之间有密切联系——相干时间越长,表明系统与环境越隔绝,但这同时意味着它和人也越隔绝,对它的控制和测量也越难。我们总是希望量子计算机与环境隔离,但容易被人控制,这本身就是矛盾的。现实中,不同物理系统的相干时间会有很多数量级的差别,但相干时间越长的系统逻辑操作也越慢(比如天然原子、离子),在相干时间内能完成的运算量差别并不大。所以,不谈控制、测量的速度和精度、单纯强调某种系统相干时间长是没有意义的。

    由于退相干,量子计算机一度被认为永远不可能做成,直到量子纠错 (quantum error-correction) 概念的出现。

    纠错在经典信息技术中就很常见。最简单地,我们可以对信息复制多个副本来防止个别副本的误码,这与重要文件一式多份防止篡改同理。但是,未知的量子态是不可复制的,我们不能为量子信息制作多个副本。新的思路在1995年出现——我们可以把一量子比特信息分散存储在几个高度纠缠的量子比特里,通过测量错误征状 (error syndrome) 来查错纠错。单独的天然或人造原子称为物理量子比特,多个物理量子比特纠缠形成容错的逻辑量子比特。经过量子纠错,逻辑量子比特的寿命会远超过物理量子比特的相干时间,这才是真正计算意义上的量子比特。

    到目前,任何实验系统都没能做出逻辑量子比特。没有量子纠错的“量子计算机”就只能在相干时间内做一些最简单的运算。Google、IBM 等公司近两年一直在比拼芯片上“量子比特”的数量,但它们都只是寿命几十微秒的物理量子比特,逻辑量子比特的数量都是零。

    量子纠错是人们研究量子计算机迄今为止遇到的最难的问题。在我的理解中,它的实现将是当代量子科技的第三个里程碑——人类从此有方法保护在自然界中转瞬即退相干的量子态,就好比从原始人从采集到种植、从狩猎到畜牧;在工程上,它将为大型通用量子计算机提供基本逻辑单元。当下量子计算最大的挑战就是实现逻辑量子比特,而不是在一块芯片上集成多少物理量子比特。

    量子纠错理论在90年代末就达到了第一个高潮,其中最重要的成果是 stabilizer code。然而问题远没有这么简单:查错、纠错的过程都是复杂的多比特量子操作,本身就会引入错误。stabilizer code 只有在量子逻辑门本身精度非常高的情况下才会有效,否则就是纠错过程中出的错要比不纠错还多。举例来说,如果用三级 Steane 7比特纠错码级联(432个物理量子比特编码一个逻辑量子比特),对一个130位的整数分解质因数需要大概一百万个物理量子比特,且比特和逻辑门的出错率不能超过百万分之一。这在短期内是任何技术都无法企及的。所以,stabilizer code 尽管非常简洁通用,但受到当前实验水平的限制,不是实现逻辑量子比特的首选。

    新一代的量子纠错方法通过放弃通用性来降低对实验精度的要求——纠错码不再是抽象的数学方法,而是为特定实验系统、特定电路结构专门设计。但这带来一个结果:不同团队就如何爬第四个及之后各个台阶的路线出现了明显的分歧;即使做同一种物理系统,也会因为不同的实验方案选择不同的纠错码。在超导量子计算领域,目前主要的路线有两条:一是平面结构、单片集成、使用 surface code 纠错;另一条路线是三维结构、模块化集成、使用玻色纠错码。以下将它们简称为 Google/UCSB 路线和耶鲁路线。

    A. Google/UCSB 路线

    Surface code 本质是一种拓扑纠错码,它用超导量子电路的具体实现方案由UCSB(现Google)团队与理论合作者在2012年提出。它的基本物理组成非常简单:近邻耦合的超导人造原子按照平面方格(国际象棋棋盘)排列即可。它对量子操作精度的要求远低于 stabilizer code,当前最好的实验水平几乎已经达到。这种路线受到很多团队、特别是商业公司实验室的欢迎,Google、IBM、Intel、Regetti Computing 都选择平面集成大量 transmon 人造原子,其中 John Martinis 带领的 Google 团队在工作质量和思路创新上明显领先。

    但是 surface code 的劣势也是非常明显的。它的基本单元很简单,但代价是系统极其复杂,电路规模巨大。目前,Google 9比特芯片中的两比特逻辑门保真度 (fidelity) 约是99.3%,要提高到99.5%以上才有用 surface code 进行量子纠错的可能。但即使逻辑门保真度再提高十倍(这非常非常困难),实现一个逻辑量子比特也需要几千个物理量子比特,质因数分解一个5位数需要约四千万个物理量子比特,分解一个600位数需要约十亿个物理量子比特!要知道微电子学经过了半个多世纪的发展,今天的 Intel Core i7 芯片上才有十亿个晶体管。并且量子电路的集成并不像经典电路一样直接——芯片做大会大大增加量子比特之间的串扰和噪声,想维持小规模电路的质量非常困难。所以,通过 surface code 实现量子纠错,并不比大规模运行 Shor 算法这种遥远的宏伟目标简单多少。

    选择 surface code 的商业实验室都明白这一点。但他们在宣传上几乎都对此少谈或不谈,转而强调不经过量子纠错的小规模量子电路可能的实际应用。但如第(三)部分所说,50到100个相干时间几十微秒的物理量子比特是否真有实际应用现在还很不确定。于是这些团队再退而求其次,将近期目标设为实现 quantum supremacy——在实验上证明量子电路在解决某个特定问题时比所有经典计算机都快。2016年Google 团队在理论上提出,49个物理量子比特可以在随机量子电路的输出采样这个特殊问题上超过所有经典计算机,这离当前的技术前沿并不遥远。Quantum supremacy 一旦实现将会是量子计算威力的第一次真实展示,也因此成了各个商业实验室短期内竞争的焦点;但这个实验的象征意义远大于实际价值——这个量子电路算得更快的问题是专门为验证 quantum supremacy 设计的,并不是一个实际问题。Google 团队及其理论合作者也多次公开表示,quantum supremacy 只是通向实用量子计算的长征上的一个近期阶段性目标,目的在于演练对小规模量子系统的控制能力;仅实现 quantum supremacy 的芯片依然不能做任何有用的工作。

    B. 耶鲁路线

    2013年起,耶鲁团队与其理论合作者提出了另一种非常不同的量子纠错方案——用谐振腔内的微波光子作为逻辑量子比特,超导人造原子仅用来控制和测量微波光子,通过量子非破坏测量对微波光子的宇称 (parity) 做持续追踪来实现纠错。按编码逻辑量子比特的光子态的不同,具体的纠错方法有 cat code、pair-cat code、binomial code、GKP code 等很多种,统称为玻色纠错码(光子是一种玻色子)。以微波光子做逻辑量子比特有很多好处——谐振腔内光子的寿命长、能级多、误码原因简单(光子损耗)、与超导人造原子相互作用强… 更重要的是,这是一种高效利用硬件的纠错方案——一两个物理量子比特和一两个谐振腔就能构造一个逻辑量子比特,不像 surface code 需要成千上万个物理量子比特。过去五年里,耶鲁团队已经对 cat code 进行了大量实验,在2016年突破了量子纠错的 break-even point——第一次在实验中测得逻辑量子比特的相干时间长于它的所有物理组成;在2018年初实现了误码征状的容错测量,将逻辑量子比特的相干时间提高到1.9毫秒,遥遥领先于其他团队。另外,分别位于巴黎高等师范学院、芝加哥大学、清华大学的几个实验室也都在用相似电路结构进行玻色纠错码的实验研究。

    玻色纠错码的实现难度也很大。我们需要非常巧妙地设计系统中超导人造原子和微波光子之间的相互作用,来实现一些精巧的人造量子光学过程(例如四光子泵浦等)。另外,如何纠正多光子损耗、如何平衡各种玻色纠错码的利弊等问题都很挑战。但在当前进展下,这些难题很有希望在短期内被攻克,而不是非常遥远的目标。

    总结说,Google 路线是先集成、再纠错,基本单元简单,电路规模庞大,主要难度在于工程复杂性;耶鲁路线是先纠错、再集成,电路精简,主要难度在于精巧的量子光学过程。但无论哪条路线,最重要的都不是物理量子比特数量。

    耶鲁路线无需集成大量物理量子比特就有希望实现逻辑量子比特。Google 路线需要大规模平面集成,但比数量更重要的是质量——数量做大并非难事,真正困难的是如何在芯片做大的同时保证每个量子比特的相干时间以及量子逻辑门和量子测量的保真度。这也是 Google 团队过去几年工作最出色的地方:5比特、9比特芯片上每一个物理量子比特的质量几乎都与单独测量的时候一样高,并希望能延续到22比特 Foxtail 芯片。这个数字不是随便选的——与5比特、9比特的一字排开不同,22比特将采用双排排列,这是形成二维阵列的第一步,将带来很多芯片结构和工艺的新挑战。这就是量子电路研究,每往前一步都要无比谨慎,越往下走越难。John Martinis 一向以治学严谨甚至苛刻闻名,在他的领导下 Google 团队正在高质量、有章法地沿着自己提出的路线步步为营。然而不是所有团队都像这样扎实,这两年超导量子计算领域最流行的宣传卖点就是量子比特数,不考虑量子纠错方案、不强调控制和测量的精度,好像谁的芯片上物理量子比特多谁就领先了一步。各家 IT 巨头和创业公司动不动就在新闻或年会上“发布”一块多少比特的芯片,以证明自家的“进展”和“竞争力”,这样是纯粹的商业炒作,在科学上没有意义。2018年3月5日早上,Google 团队的 Julian Kelly 在美国物理学会三月年会一场邀请报告的最后简单展示了一下计划中的72比特 Bristlecone 芯片的设计版图(我就在会场),这根本不是那场报告的重点;但它立刻被宣传成“Google 发布72比特量子芯片”,甚至在半天内席卷中文媒体,朋友圈里排队转发,还引发了各种一本正经的对当下“量子争霸”的“战略评论”,实在让人觉得荒唐。看过这些乱象,我向大家推荐三条屡试不爽的经验判据:

    所有以量子比特数作为首要亮点的“进展”几乎都是炒作
    所有在新闻媒体上首发或大肆渲染的“进展”几乎都是炒作(包括麻省理工科技评论,那是一家独立运行的商业创投杂志,不是学术期刊)
    所有在朋友圈里大量转发、被非专业人群大量关注的“进展”几乎都是炒作

    量子纠错之上的各个台阶(逻辑量子比特的控制、纠缠、测量,到最终的容错量子计算)难度只会更大,具体有哪些挑战现在还无法预计,因为我们的实践还根本没有到那个阶段。不过在这方面耶鲁团队再次领先一步——2016实现两个谐振腔之间的纠缠、2017年底实现光子收发 (photon pitch-and-catch),2018年初通过量子隐形传态实现两比特逻辑门 (teleported CNOT gate)。这些都是直接对逻辑量子比特的操作,只是微波光子还未经量子纠错。耶鲁路线允许我们现在同时开始挑战第四、五、六个台阶,一系列结果还是非常振奋人心的。

    相信以上都看下来的童鞋已经明白,量子计算是一条越爬越陡的天梯,我们现在还只处于很初步的阶段。我们遇到的问题会越来越多、越来越难,但我们解决问题的能力也会越来越强。大型、通用、容错量子计算机什么时候做出来?任何明确答案都是不负责任的,因为它太难做、未知挑战太多、现在我们根本没法给出负责任的估计。用另一条经验判据结束这一部分:

    在现阶段,所有“多少年后做出量子计算机”的承诺都是炒作。

    (七)量子计算何时商业化?

    进军量子计算的商业公司很早就有了。2007年,在学术界还在研究基本的物理量子比特的时候,一家叫 D-Wave System 的神秘加拿大公司突然宣布自己做出了一台量子计算机的原型机 Orion。Orion 不是一台基于逻辑门的通用量子计算机,而是一台量子退火机 (quantum annealer)。它有16个超导量子比特,但不对量子比特做单独控制,而是用绝热演化的结果求解一些特定问题。之后,D-Wave 的退火机越做越大,2011年推出128比特的 D-Wave One,这是世界第一个量子计算商品,售价1000万美元,被军火巨头洛克希德·马丁 (Lockheed Martin) 公司买下;2013年推出512比特的 D-Wave Two,被 Google、NASA、USRA 联合买下;之后在2015和2017年又推出了1000比特和2048比特的 D-Wave 2X 和 D-Wave 2000Q,全都找到了买主。

    这些听上去很厉害的 D-Wave 机器到底有多强大?这在十年来一直争议不断。问题是,科学家甚至说不清 D-Wave 退火机到底是不是一台量子机器。D-Wave 机器里有没有量子纠缠?一些实验表明很可能有。那 D-Wave 机器有没有量子加速?绝大部分测试表明没有。特别在2015年,一支合作团队(包括 John Martinis 在内)用 D-Wave Two 最适合解决的专门问题对它的计算复杂度随问题规模的增长规律做了严谨的测试,结果是这台512比特的机器没有任何量子加速!这一大堆量子比特放在一起到底发生了什么?谁都说不清楚。不过测试 D-Wave 机器的过程很大程度上帮助科学家们明确了量子加速 (quantum speed-up) 的严格定义。另外一点是很有趣的:人们用一堆量子比特很容易地就造出了一台自己不理解的机器。直到现在,基于量子退火的绝热量子计算 (adiabatic quantum computing) 还是量子计算中的一个比较独立的分支,不少人都在继续发掘它的潜力,希望它能对解决一些特定的优化、仿真问题发挥作用。

    量子计算真正的商业热潮从2014年开始——Google 全员买下了 John Martinis 在圣芭芭拉加州大学的实验室,成为“ Google 量子人工智能实验室”的一部分,并立刻给这群低调的科学家配上了强大的宣传团队。各家 IT 巨头纷纷坐不住了,各种专营量子计算的创业公司也开始出现。

    目前,各种参与量子计算的商业公司主要分四类:

    第一类是 IT 或工业巨头,其中 IBM 和微软上场远比 Google 早。IBM 十多年前就在 Waston 研究中心建立了以耶鲁毕业生和博士后为骨干的、颇具规模的超导量子计算实验室和理论组。IBM 的量子实验室曾经专注于扎实的基础研究,领取政府经费,与大学实验室无异;直到几年前才开启商业竞争模式。

    微软很早就在圣芭芭拉加州大学内建立了 Station Q,专注于“拓扑量子计算”理论,也曾是完全的学术导向。这两年微软在荷兰 Delft 理工学院、丹麦哥本哈根大学、澳大利亚悉尼大学、美国马里兰大学、普渡大学、Redmond 总部都新建了 Station Q;最重要的是,把这一领域最有影响力的两位实验物理学家 Leo Kouwenhoven 和 Charles Marcus 收入麾下。

    Intel 2015年起也不甘落后,并且兵分两路,在 Delft 理工学院与 Leonardo DiCarlo 实验室(前耶鲁博士后)合作发展超导量子电路,同时与 Lieven Vandersypen 实验室合作发展硅量子点。

    通用汽车公司与波音公司联合所有的 Hughes Research Laboratories (HRL) 也已经在半导体量子点方向投入多年。

    ……

    第二类是大学教授兼职创办的新公司,支持与转化自己学术实验室的成果。

    2015年底,耶鲁超导量子计算实验室的领导者——Robert Schoelkopf 和 Michel Devoret 与研究员 Luigi Frunzio 创办 Quantum Circuits, Inc.,2017年11月完成 A 轮1800万美元融资。

    2016年,马里兰大学实验物理学家 Christopher Monroe 与杜克大学电子学家 Jungsang Kim 创办主攻离子阱的 IonQ, Inc.,2017年7月完成 B 轮2000万美元融资。

    2018年初,因斯布鲁克大学实验物理学家 Rainer Blatt、Thomas Monz 与理论物理学家 Peter Zoller 在政府和大学的支持下创办离子阱公司 Alpine Quantum Technologies,也已得到1200万美元经费。

    ……

    第三类是自主创业、有完整硬件实验室的新公司。其中最有名的是位于加州伯克利的 Rigetti Computing,由耶鲁博士毕业的 Chad Rigetti 在2013年创办,现在融资已接近7000万美元,员工近百人。

    第四类只做周边软件产品。这样的公司这两年出现了很多。

    这些“量子企业”到底多有希望?我的个人观点是:不同类别公司的性质是非常不同的。

    第二类(学术实验室 spin-off)会对当前的量子计算发展非常有帮助。量子实验正朝着越来越复杂的方向发展,除了核心的物理原理外还涉及大量的工程细节,其工作量已接近传统大学实验室的极限。此时,来自专业工程团队的支持,例如标准化的零件、加工工艺、专用的电子设备、控制程序将会极大地提高科研的效率。这类公司一方面解决实验中的工程问题,另一方面将学术实验室的成果做大做规范,这是一种非常良性的互动。不过,它们短期内一般没有很大的盈利计划,规模也很小。

    第一类和第三类公司都有很强的盈利目的,但都自建或接管强大的实验团队,身体力行做量子计算机,在工作和宣传方式上也都很类似。它们的主要区别在于承受风险的能力不同,巨头企业更能承受长期投入而不见回报的基础研究(当然这也很容易导致项目下马)。

    当前量子计算的主要瓶颈显著集中在物理实验,离开硬件基础提出的各种过于超前的软件概念实际意义非常有限。但这恰恰成为近几年量子商业热潮的焦点。第四类企业主营的有面向量子计算的编程语言、编译器、云服务,还有其它各种把信息技术概念前面加上量子两个字,组成一些听起来高大上、但实在不知道是什么意思的名词。这些开发成本低、周期快、新闻效应强(庞大的 IT 业界都能听懂),但其实与量子没有直接关系。在我看来,它们是纯粹的商业行为,重点是借当前的量子热潮用“概念”盈利,无关于量子计算的主要挑战和长期发展。换句话说,这些公司就没打算真做量子计算机。

    所以,量子计算商业化了吗?没法说,因为眼下的“量子产业”处于一种奇怪的形态。经过二十多年的发展,“量子硬件”仍明显在拖“量子软件”的后腿。可以预见至少在未来的一二十年里,量子计算的最大挑战还将集中于基本的物理实验和复杂、开放量子系统的物理理论,将长期是一种基础研究。但这几年它被突然推到了产业的浪潮里,人类历史上都几乎从没有过一种基础研究如此受到产业界关注。大家在物理实验还非常原始的情况下,拼命地寻找它可能的实际应用,开发各种周边产品和“服务”,配合及其高调的宣传,竭尽全力地寻找商机。产业界是现代科技发展的一大推动力,但我不认为眼下这种形式的“商业化”会明显促进量子计算的发展,也不认为这波热潮能持续多久。量子计算面临的不只是工程挑战,还有许多基本的科学问题,很有可能属于“世纪难题”。它与现实的距离比无人驾驶、电动车、商业航天等要远的多得多,我们千万不能用科技产品研发的思路理解量子计算机的研究。它的真正问世需要长期、稳定的支持,而不是利益驱动的商业炒作。

    (八)中国的量子计算处于什么水平?

    与美国和欧洲相比,处于很初级的阶段。

    为什么?首先因为量子计算不是一个凭空出现的学科,它根源于物理和工程的长期发展之上。例如,离子阱的基础是现代原子物理;超导量子电路是介观凝聚态物理和量子光学的结合;低温物理有超过百年的历史,稀释制冷技术最早出现在1960年代,至今仍基本被欧洲垄断;我们每天实验用的电子设备很多都来自美国几十年前的军工研究… 在这样的积累下,量子计算非常自然地在欧美首先出现,并且持续积累、领先至今。对这一领域贡献最大的科学家们(第五部分中提到的各位)青年时代从事的都是相关方向的基础研究,一步步创造了各种理论与实验方法,建立起这个活跃的新学科。

    1996年,奥地利维也纳大学 Anton Zeilinger 实验室来了一位叫潘建伟的中国博士生。他参与了许多重要的光子纠缠实验,五年后回到中科大。十几年来,潘建伟的实验室在多光子纠缠方面有许多漂亮的基础工作,并且大力推广实用化量子通信。2016年,中国发射了第一颗量子通信卫星,并在2017年实验成功;同年,中国开通了超过2000公里的“量子保密通信京沪干线”。目前,中国是对量子通信技术投入最大的国家,实践上也最为领先。(关于量子通信的讨论见第二部分)

    但中国在量子计算方面就要落后的多。全世界顶级的量子计算实验室本来就很少,其中的中国人更少,不少实验室甚至从不招收未在欧美受过训练的中国学生(主要是出于对中国学生动手实验能力的不信任,不是什么涉密问题)。直到这几年才开始有训练有素的年轻科学家回到中国。例如在超导量子电路方面,John Martinis 的博士后王浩华老师回到浙江大学,Robert Schoelkopf 的博士后孙麓岩老师回到清华大学,成为两大阵营在中国的代表。其它实验系统也大多如此。所以说,专业的量子计算实验室在中国只是刚刚落地出现,经验积累、合作者水平、学生水平都比世界顶级组差一大截,当前的主要任务是训练团队和基本技术,模仿、追踪世界前沿,暂时不具备做出重大成果甚至引领方向的能力。这是所有后来者都必须经过的起步阶段,是最最正常不过的。

    最近,中国的量子计算已经有了非常可喜的进步。例如去年,浙江大学与中科大的联合团队按照 UCSB/Google 路线,平面集成了10个超导人造原子(物理量子比特)并实现了它们的量子纠缠。上周,清华孙麓岩老师的实验室在美国物理学会三月年会上展示了一个量子纠错实验,很接近耶鲁团队2016年发表的工作。这都是非常好的趋势,说明中国现在已经有了第一批专业的、有高质量产出的量子计算实验室。

    但是,有一点进步就开始浮夸宣传是非常危险的。

    去年五月,我的朋友圈里排队转发了一条“重大新闻”:中国研制出世界第一台量子计算机!打开一看,是中科大的五光子玻色采样实验。虽然这两年早已习惯了各种夸大宣传,但这个标题实在超出了我的想象力(正确的说是:中科大发表了一个有趣的量子光学实验)。这种宣传气势再与量子通信、“量子卫星”的新闻结合,甚至让很多在国外读博的同学都相信了中国的量子科技已经领先世界。最近,国内几家互联网巨头纷纷开始了自己的量子“战略布局”,但从新闻稿来看,除了一些“量子软件”概念外,看不到清晰的物理实验方案(与上一部分提到的第四类公司类似)。2015年,阿里巴巴与中科大建立了联合量子实验室,各方领导隆重出席,但新闻稿充满科学错误,“中国10亿人,每个人能分到10万台天河二号”之类的豪言无异于“亩产十万斤”。美国各家公司的宣传大战尽管都有夸大、避重就轻,但总体还是有尺度的;中国的浮夸宣传完全则看不到底线在哪儿。

    可喜的进步也被各种夸大。浙江大学与中科大的10比特芯片被重点强调比 UCSB/Google 多一比特,也开始加入没有意义的比特数大战(见第六部分最后的解释)。其实这个实验中量子比特的质量、控制精度、复杂度和 Google 比还都有差距,也没有明显的方法创新。这是一个非常好的、符合现阶段发展需求的追踪工作,但不应该继续夸大。很多貌似专业的知乎答主都说这项工作至少代表中国的量子计算进入了世界第一集团,我只能说这么认为的人大大低估了世界第一集团的水平。如果非要说这是一项“重大成果”,我只能说不同人对“重大成果”的定义很不一样。

    量子计算与科技创投、大型工程(比如土木、机械、航天)都不一样,它不是人到钱到说发展就发展,而是一个在优秀实验团队主导下漫长的积累过程。为此我的另一个担心是国内的人才储备:中国的基础教育乃至大学本科都是以书本为中心,非常轻视科学直觉和动手能力的培养,善于做题而不善于解决具体问题,这是大多数亚洲学生的通病。这一点不得到根本改变,中国的实验科学还将长期落后于欧美,包括量子计算在内。这是我在耶鲁实验室工作两年多的深刻体会。只有当高水平的实验训练成为了年轻学生不难得到的资源,中国的科学才真正有能力在质量上和西方竞争。

    (九)结束语:我们为什么要研究量子计算?

    最后,说几句个人观点,涉及到自己的科学史观。

    量子计算机能做什么?破密码、做优化、加速机器学习… 这些还都很不确定,在短期内也很难实现。那还费劲做这东西干嘛?我自己认为,量子计算的研究过程将是人类物质科学和工程的一次本质进步。

    在历史上,人类的大多数科技和产业革命都是物质科学(特别是物理学)推动的。变革产生的前提是人能发现新的自然现象、控制新的“自然力”、扩展在自然中的实践范围。学会工具、学会用火、农业出现、铁器出现、蒸汽革命、电气革命无不如此。但有一个例外,就是最近的信息革命。信息革命虽然以物理为基础(电磁场、半导体、激光),但核心不是物理,而是数字逻辑。随着信息技术的发展,软件与硬件逐渐分离——底层硬件逐渐标准化,一步步接近物理极限,方法越来越受限制;主要的创新集中于顶层软件,这种趋势在今天的互联网、人工智能的热潮中日益明显。其它学科也大多如此,机械、材料等传统的“硬工科”虽然也在发展,但很少有本质突破,对社会的影响也日趋有限。一个直接表现是,不同专业的同学集体转计算机,“硬工科”毕业的工作机会普遍没有那么好。

    而量子计算是物质科学引领科技发展的一次新尝试,它第一次试图在量子水平上构造、控制物质系统,在探索自然的同时极大地扩展了人类工程实践的范围,上次迈出这样一大步也许要追溯到电气和核能。人们现在拼命寻找的量子计算机的各种应用可能都不是最重要的,就像17世纪的人想象不到什么是手机一样,我们现在也根本不知道当人类能自如人造控制量子系统之后能做多么不可思议的事情。

    我认为量子计算是当前最重要的科技问题之一,尽管真正实用的量子计算机还比较遥远。说白了有点像那句话:

    We choose to go to the moon.

    本文转载于:
    http://www.360doc.com/content/19/0412/17/63402049_828316906.shtml

    展开全文
  • 计算机网络安全重要性

    千次阅读 2019-02-04 11:44:08
    摘 要:伴随着计算机技术和网络技术的拓展及普及,计算机网络在人们学习、教育、工作和生活等多方面起到了不容忽视的作用,...故而计算机网络安全重要性成为社会讨论的热点话题。本文试从计算机网络安全技术的概念、...

    摘 要:伴随着计算机技术和网络技术的拓展及普及,计算机网络在人们学习、教育、工作和生活等多方面起到了不容忽视的作用,逐渐成为人们生活的必需品,人们对于计算机网络的依赖性与日俱增。而计算机技术的发展,使计算机网络安全技术问题也日益凸显。黑客恶意攻击、病毒肆意传播扩散、网络违法事件的频繁上演,给人们的生活频添困扰和麻烦。故而计算机网络安全重要性成为社会讨论的热点话题。本文试从计算机网络安全技术的概念、重要性、当前问题及防范措施几个维度进行阐述分析。
    一、计算机网络安全技术
      所谓计算机网络安全技术,简而言之就是利用多种网络管理手段和技术手段,一方面确保网络系统畅通无阻的运行,另一方面确保数据信息在网络环境中具有可使用性、保密性及完整性三者融于一体。[1]计算机网络安全作为一个大的管理客体,其安全性主要体现在物理性、操作系统、逻辑性及传输环境四大方面。
    二、“安全”是计算机网络发展的基石
      1.纵观当今时代,各领域均已普及计算机。个人的私密信息需要计算机存储;与国家相关的政治、经济、军事、国防的信息也需要计算机存储和处理。无论是个人敏感信息、隐私,还是国家机密信息,都是不法分子和敌对势力争相获取的“猎物”,对国家和个人的安全构成威胁。
      2.对计算机系统的不可替代性和不可逆转性的需求日益明显,计算机系统使用场所由户内向户外多种场所迁移。譬如农业、工业、海上、天空中、宇宙之间、核辐射环境等领域,随处可见计算机网络技术的应用。然而户外环境比机房环境要恶劣得多,高出错率和高故障率也就成为了必然。一旦户外计算机网络出现安全问题,其后果也是无法估量的。
      3.功能日益完善,运行速度日益提升是计算机系统迎合现代社会发展的最好体现。系统规模强大,系统组成复杂,特别是Internet的迅猛发展,使存取控制和逻辑连接数量亦不断增加。因此,任何隐含的安全盲点都会造成巨大的损失。
      4.计算机的普及应用,产生了大量的多类别的计算机操作从业人员。但是相应的教育和培训却跟不上计算机知识更新换代的步伐。操作人员、编程人员和系统分析人员基于自身水平问题,亦或是经验缺乏问题,使系统的安全功能存在隐患危机,从而带来一些不必要的损失。
      5.从认识论的角度出发,系统功能是人们首要关注的焦点,其次才是系统的安全问题。重应用、轻安全、法律意识淡薄普遍存在于计算机网络应用中。计算机系统的安全性是相对于不安全性而言的,许多危险隐患和攻击都是隐蔽的、潜在的,却又难以明确的。因而,加强安全防范意识,普及法律意识是必不可少的。
    三、计算机网络安全技术存在的隐患
      1.复杂性和多样性是计算机网络技术最突出的特点。这一特点迫使计算机网络技术持续更新和不断提高。目前致命的黑客攻击方式已经超越了计算机病毒的种类。在没有时空和地域的限制的Internet网络上,一种新的攻击方式产生之后,能迅速传播全世界。蠕虫、后门是大家熟悉的黑客的集中攻击手段,它们有着惊人的破坏力,且具有愈演愈烈之势。而这几类攻击手段的新变种,比之前的攻击手段更加的智能化,破坏力也更强。[2]
      2.因为对网络用户没有技术上的约束,用户可以随意地上网、发布和获取各类信息。这也成为了影响网络安全的一个不容忽视的因素。
      3.计算机网络用户安全配置不当衍生出安全漏洞。譬如对网络服务器的访问权限设置不合理,网络服务器信息就会被非法用户利用非法手段调用。又如只是对外设置防火墙,很容易发生防火墙被攻破的几率。可见大部分攻击是来自局域网的内部用户。所以,当前局域网建设的一个前行方向就是积极阻止来自内部的攻击。
      4.许多上网用户的安全意识不强,用户的访问权限设置不当,口令设置过于简单,或者是将管理员账号与别人分享,都会带来安全上的威胁。
    四、计算机网络安全的防范措施
      1.政策法规和制度的建立、健全。法律是信息网络安全的保障工具,是一种具有极强约束力的强制性规范体系,可以有效的约束信息网络安全技术和管理人员的行为。信息网络安全法律法规明确告知从业人员,什么可为什么不可为,实施违法行为是要承担法律责任和付出代价的。有法可依,有度可循,可以从根本上保障计算机网络安全。
      2.完善计算机网络安全技术的需求分析,才能建立行之有效地管理制度和控制技术。
      3.现有网络安全体系的升级完善,提升网络加密技术,融入身份证明和网络安全预警,同步建立专业的网络安全服务机构。
      4.培养网络用户自我安全保护意识。持之以恒的开展信息安全意识的宣传教育工作,并结合最新的安全热点问题宣传贯彻。
      5.从业人员的网络安全教育、技术培训和技能考核列入关注重点,切实提高从业人员的网络安全意识和水平。
    五、结语
      计算机网络技术和安全技术水乳交融,二者缺一不可。纵观计算机网络环境,网络安全现状不容乐观。确保计算机的网络安全,不是一蹴而就的,也不是个人可以独立完成的,需要技术、设备、管理和制度等多方面的共同努力,形成系统的、行之有效的、保证计算机网络安全的制度。

    展开全文
  • 利用随机森林对特征重要性进行评估

    万次阅读 多人点赞 2017-08-18 16:22:48
    随机森林非常简单,易于实现,计算开销也很小,更令人惊奇的是它在分类和回归上表现出了十分惊人的性能,因此,随机森林也被誉为“代表集成学习技术水平的方法”。 本文是对随机森林如何用在特征选择上做一个简单的...
  • Java语言特点

    万次阅读 多人点赞 2019-06-30 19:37:45
    Java语言的强类型机制、异常处理、垃圾的自动收集等是Java程序健壮重要保证。对指针的丢弃是Java的明智选择。Java的安全检查机制使得Java更具健壮。 Java语言是动态的 Java语言的设计目标之一是适应于...
  • 图像分割综述

    万次阅读 多人点赞 2019-07-09 22:03:48
    图像分割是计算机视觉研究中的一个经典难题,已经成为图像理解领域关注的一个热点,图像分割是图像分析的第一步,是计算机视觉的基础,是图像理解的重要组成部分,同时也是图像处理中最困难的问题之一。所谓图像分割...
  •   2019-02-12 23:53:35 ...通常,除了想知道我们的机器学习模型的房价预测是什么之外,我们还想知道为什么它是这么高/低,以及哪些特征在确定预测时最重要。另一个例子是预测客户流失 - 拥有一个...
  • 一种节点组重要性排序方法

    千次阅读 2020-05-17 21:00:00
    网络科学中关于节点重要性排序方法很多,譬如节点度(degree),中心度(K-shell)即核数(coreness),介数(betweenness),H-index,还有 Page-Ra...
  • 2019工程伦理慕课答案(2019秋)习题及期末答案

    万次阅读 多人点赞 2019-11-08 18:19:53
    第一章习题(下) ... 自主 创造 社会 确定 多选题 (1points) 下列哪项是工程的完整生命周期中的环节 计划 设计 评估 完成 判断题 (1/1 point) 计划、设计、建造...
  • 【数据库学习】数据库总结

    万次阅读 多人点赞 2018-07-26 13:26:41
    1,数据库 1)概念 ...数据库是长期存储在计算机内、有组织的、可共享的大量数据的集合。...常见数据库管理系统有:Access、mysql、sql server ...数据的共享,冗余度,易扩充 ...逻辑数据独立(logical data...
  • 数学在计算机科学中的重要性

    万次阅读 2017-09-21 00:00:00
    数学在计算机科学中的重要性数学是一门工具性很强的科学,它与别的科学比较起来还具有较高的抽象性等特征。起初是计算机科学工作者离不开数学,而数学工作者认为计算机对他们可有可无,但是现在是互相都离不开对方了...
  • SPSS篇—回归分析

    万次阅读 多人点赞 2019-08-20 09:29:06
    从第三个系数图中,我们能看到整个回归分析的结果是很好的,t检验里的显著性水平0.00,说明本次回归方程的系数是显著的,具有统计学意义。本次回归分析的回归方程为: Y=399.954+7.503X 到这里不知道大家...
  • 假设检验的基本步骤: 提出原假设和备择假设 确定适当的检验统计量 规定显著性水平α 计算检验统计量的值 作出统计决策 原假设与备择假设 原假设:待检验的假设,又称“0假设”,表示为H0,通常在假设中包含等号如=...
  • 天线基础与HFSS天线设计流程

    万次阅读 多人点赞 2019-04-28 15:10:10
    3.方向系数 4. 效率 5. 增益 6. 输入阻抗 7. 天线的极化 HFSS天线设计流程 2.1 HFSS天线设计流程概述 1.设置求解类型 2.创建天线的结构模型 3.设置边界条件【Assign Boundary】 4. 设...
  • 《人工智能杂记》人工智能时间简史

    万次阅读 多人点赞 2018-03-13 08:54:55
    他对人工智能的贡献集中体现于两篇论文:一篇是1936年发表的《论数字计算在决断难题中的应用》,在文中他对“可计算性”下了一个严格的数学定义,并提出著名的“图灵机”设想,从数理逻辑上为计算机开创了理论先河;...
  • 在打比赛的时候一直贯穿的思考,大概就是判别各个特征的重要性。 在建立模型之前,特征重要性能够帮助训练模型,防止过拟合,提升模型的RUC效果。 建立模型之后,特征重要性能够增强模型(集成模型 非深度学习模型...
  • 2019年中国大学生计算机设计大赛--心得总结

    万次阅读 多人点赞 2019-07-28 22:59:12
    总结下,该类作品创(即作品的创意及原创)和美(作品的设计、界面等是否符合美学的要求、具有艺术)为重点,素材的原创在评分上占据主导,其次就是在海洋这个大主题下作品小题的利益,计算机在其中起到辅助...
  • 基于MATLAB的语音信号处理

    万次阅读 多人点赞 2018-07-15 01:21:20
    基于MATLAB的语音信号处理摘要:语音信号处理是目前发展最为迅速的信息科学研究领域中的一个,是目前极为活跃和热门的研究领域,其研究成果具有重要的学术及应用价值。语音信号处理的研究,对于机器语言、语音识别、...
  • 十二、为什么均值重要 原文:Why the Mean Matters 译者:飞龙 协议:CC BY-NC-SA 4.0 自豪地采用谷歌翻译 在这个课程中,我们已经研究了几个不同的统计量,包括总编译距离,最大值,中位数和平均值。...
  • 当前量子计算技术前沿是什么水平

    万次阅读 多人点赞 2018-03-23 08:15:54
    王之鑫 王之鑫 耶鲁大学 应用物理系博士在读 收录于编辑推荐 · 田渊栋 ...需要强调的是,实际条件下量子通信的安全分析是一个复杂的研究方向,科学家们也一直在为减少实用量子通信的安全漏洞不...
  • 随机森林非常简单,易于实现,计算开销也很小,更令人惊奇的是它在分类和回归上表现出了十分惊人的性能,因此,随机森林也被誉为“代表集成学习技术水平的方法”。  本文是对随机森林如何用在特征选择上做一...
  • AHP层次分析法

    万次阅读 多人点赞 2014-02-21 01:07:12
    例如在判断因素1,2,3重要性时,可以存在一些差异,但是不能太大,1比2重要,2比3 重要,1和3比时却成了3比1重要,这显然不能被接受   于是引入了一致性检验:  一致性的检验是通过计算一致性比例CR 来...
  • 在这篇博客中,我们将研究简要的人工智能介绍,以了解什么是人工智能意义以及人工智能在当今世界中的重要性。此外,还将学习人工智能的类型,目标和技术。此外,我们将研究AI应用程序。 2.人工智能介绍 根据人工...
  • 主成分分析

    万次阅读 多人点赞 2014-03-12 10:07:24
    如何从多个变量中综合为少数几个代表变量,既能够代表原始变量的绝大多数信息,又互不相关,并且在新的综合变量基础上,可以进一步的统计分析,这时就需要进行主成分分析。 第一节 主成分分析的原理及模型 一、
  • 中国科学家实现“量子计算优越”里程碑 中国科学技术大学潘建伟、陆朝阳等组成的研究团队与中科院上海微系统所、国家并行计算机工程技术研究中心合作,构建了76个光子100个模式的量子计算原型机“九章”,实现了...
  • 建模的重要性及意义

    万次阅读 2018-06-07 17:40:15
    建模的重要性? 如果你想搭一个狗窝,你备好木料、钉子和一些基本工具(如锤子、锯和卷尺) ,就可以开始工作。从制定一点初步的计划到完成一个满足适当功能的狗窝,你 可能不用别人帮助,在几个小时内就能够实现...
  • EAST算法详解

    万次阅读 多人点赞 2018-06-18 14:54:54
    但是,这些方法即使使用深度神经网络模型,在处理具有挑战的场景时也通常具有不足之处。这是因为文本检测的整体性能取决于pipelines中多个阶段和各部分的相互作用,而简单的pipeline能够集中精...
  • 随着越来越多的公司倾向于大数据运营,人才需求达到历史最高水平。这对你意味着什么?如果您想在任何大数据岗位上工作,它只能转化为更好的机会。您可以选择成为数据分析师,数据科学家,数据库管理员,大数据工程师...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 249,491
精华内容 99,796
关键字:

如何计算重要性水平