精华内容
下载资源
问答
  • 微型计算机工作影响最小的是什么?
    2021-07-05 02:39:08

    摘要:对微型计算机工作影响最小的是:噪声。影响微型计算机工作的因素有:尘土、温度、湿度、磁场、噪声等等。其中噪声对微型计算机工作影响最小;尘土、湿度容易造成接触不良和短路;温...

    对微型计算机工作影响最小的是:噪声。影响微型计算机工作的因素有:尘土、温度、湿度、磁场、噪声等等。其中噪声对微型计算机工作影响最小;尘土、湿度容易造成接触不良和短路;温度容易影响电子设备工作。

    微型计算机简称“微型机”、“微机”,由于其具备人脑的某些功能,所以也称其为“微电脑”。微型计算机是由大规模集成电路组成的、体积较小的电子计算机。它是以微处理器为基础,配以内存储器及输入输出(I/0)接口电路和相应的辅助电路而构成的裸机

    下列诸因素中,对微型计算机工作影响最小的是______。

    A.尘土

    B.温度

    C.噪声

    D.湿度

    答案是:C.噪声。

    解析:尘土、湿度容易造成接触不良和短路;温度容易影响电子设备工作。

    下列因素中,对微型计算机工作有较大影响的是______。

    A.噪声

    B.磁场

    C.温度

    D.湿度

    答案是:B.磁场。

    更多相关知识,请访问:PHP中文网!

    更多相关内容
  • 在多种配置的计算机全球多地区多级别的三维地形进行漫游测试,得出实验数据,然后利用偏最小二乘回归方法,三维可视化系统中影响系统性能的11个硬件因素进行了分析。实验结果表明,影响三维可视化系统的主要...
  • 通过机场最小起降带位置选择影响因素的研究分析,建立了以工程量为主要依据的道面区位置优选方法,开发了最小起降带辅助优选软件。实例表明此方法和软件可用于机场抢修实践。
  • 在本篇文章中,我将分析和定位精度相关的几个参数定位精度的影响 双目视觉系统已经被广泛应用在很多领域,但其定位精度仍难以满足工业要求。为了进一步提高它的精度,可以限制一些参数,使参数在这些范围内可以...

    在本篇文章中,我将分析和定位精度相关的几个参数对定位精度的影响
      
      双目视觉系统已经被广泛应用在很多领域,但其定位精度仍难以满足工业要求。为了进一步提高它的精度,可以限制一些参数,使参数在这些范围内可以达到最佳精度。现在需要做的便是找到这些参数,并分析每一个参数和可能的误差之间的关系。
      
      本篇文章将分析影响精度的7个参数,并将其分为两大类:第一类是系统结构参数(包括基线距离B,摄像机焦距,光轴和基线间的角度);第二类是摄像机标定参数(包括相机失真,标定图像的数量,标定棋盘格的格子数量,标定板的位置)。
      
    一、摄像机结构参数的分析

    • 基线距离
      基线B为两个镜头中心之间的连线(如下图所示)。在双目视觉系统中,基线距离是一个非常重要的参数,基线距离的改变会影响系统的定位精度。在这里插入图片描述
      假设P点在两个相机光轴的交点处。这时, α \alpha α1= α \alpha α2= α \alpha α, w1=w2=0o, φ \varphi φ1= φ \varphi φ2=0o, f1=f2=f, Yw=0。这样P点的世界坐标可以表示如下:P点世界坐标表达式
      (令k=B/M, e1= 1 k \frac{1}{k} k1 * c o t α s i n 2 α \frac {cot \alpha} {sin ^2 \alpha} sin2αcotα, e2= 1 k \frac{1}{k} k1 * 1 s i n 2 α \frac{1}{sin ^2 \alpha} sin2α1)
      P点在X和Y方向的测量误差简化表达式如下所示:

    在这里插入图片描述
    γ \gamma γB Δ \Delta ΔX为X方向的误差, γ \gamma γB Δ \Delta ΔZ为Z方向的误差)
    总误差为:在这里插入图片描述
    e 3 e_3 e3 = e 1 2 + e 2 2 2 \sqrt[2] {e_1 ^2 + e_2^2} 2e12+e22 )

    由于 e 1 e_1 e1 e 2 e_2 e2使用三角函数比较复杂,在这里用三角函数将其进行泰勒展开(用k取代 α \alpha α),得到 e 1 e_1 e1= 1 2 \frac{1}{2} 21 + k 2 8 \frac{k^2}{8} 8k2, e 2 e_2 e2= 1 k \frac{1}{k} k1 + k 4 \frac{k}{4} 4k。根据以上公式,最终可以得到基线距离B(因为B=k/M,M为固定参数,所以这里用k代替B效果是一样的)与系统误差之间的关系:在这里插入图片描述
    结论:随着k的增大,总系统误差( e 3 e_3 e3对应的黑色曲线)先是减小后又增大,在k=1.41时,系统误差达到最小值。将k代回B中,可以得到当M <= B <= 2M时,会获得比较小的系统误差,而当0.5M < B < 0.7M时,定位误差会很大。基线最佳距离是B = 1.41M。

    • 相机焦距
      相机焦距是指相机镜头中心到相机形成图像处(图像传感器)间的距离。如果其它参数不变,只改变焦距,随着焦距的增大,相机的视野将会变窄,图示如下:
      在这里插入图片描述
      由f1和f2引起的误差的关系式如下:在这里插入图片描述在这里插入图片描述
      不同焦距引起的系统误差分布曲线如下图所示:在这里插入图片描述
      结论:随着相机焦距的增大,双目相机的视野变窄,但其系统误差会变窄,定位精度变高。
    • 光轴和基线间的角度 α \alpha α
      α \alpha α的位置见图一。根据几何原理,可推导出 α \alpha α和误差间的关系式如下:在这里插入图片描述
      α \alpha α引起的系统误差分布曲线如下图所示:在这里插入图片描述
      结论:从上图中我们可以看出当 α \alpha α= 3 6 o 36^o 36o时,系统误差最小。为了获得较好的定位精度, α \alpha α的范围应该在 3 0 o 30^o 30o~ 4 5 o 45^o 45o
    • 综合分析
      为了获得较高的定位精度,应考虑摄像机结构参数。基线距离应选择在1.41M附近;相机焦距越大,定位精度越高,但相机视野会变窄,应折中选择焦距;基线与光轴夹角范围应在 3 0 o 30^o 30o~ 4 5 o 45^o 45o,最佳选择是 3 6 o 36^o 36o

    二、摄像机标定参数的分析

    • 相机畸变系数
      在实际的应用中,由于制造和装配过程中不可能完美,相机镜头存在误差,这将导致小程度的图像失真。如果要考虑到镜头引起的失真,将不能再用线性相机模型,而是采用非线性相机模型,它会补偿由于镜头失真带来的小偏差。失真现象可以用下图来描述:在这里插入图片描述
      ( (x’,y’)是P点实际的投影坐标,(x,y)是P点按线性模型计算的投影点坐标, δ \delta δx δ \delta δy是在x和y方向产生的补偿。)
      根据上图得到表达式:
      x’ = x + δ \delta δx(x,y)
      y’ = y + δ \delta δy(x,y)
      相机的失真又分为径向失真以及切向的失真,所以可以将 δ \delta δx进一步分为 δ \delta δxr δ \delta δxt,将 δ \delta δy分为 δ \delta δyr δ \delta δyt。x和y方向径向和切向的偏差表达式如下:在这里插入图片描述
      整理简化如下:在这里插入图片描述
      通过相机标定,可以得到左右相机的畸变系数 k 1 k_1 k1 k 2 k_2 k2 p 1 p_1 p1 p 2 p_2 p2,进而可以得到其补偿系数 δ \delta δx δ \delta δy,从而获得更加准确的图像坐标。
    • 标定图像的数量
      通过不断改变标定图像的数量,测量其系统产生的误差结果如下图所示:在这里插入图片描述
      结论:通过上图可以看出随着标定图片的数量增加,系统误差越来越小,当标定图像在13左右时,系统误差趋于平缓。
    • 标定棋盘格格子的数量
      标定棋盘格的格子数量同样不能忽略,它也会影响到定位的精度。下面时所选用的不同格子数量的棋盘格以及在不同格子下的定位误差表格:在这里插入图片描述

    在这里插入图片描述
    结论:从上表可以看出,随着格子数量的增多,系统误差将会减少。

    • 标定板的位置
      首先标定板的位置应该在双目相机的视野范围内。作为一个有效的图像,棋盘格图像应至少占整幅图像的30%。将标定板置于以下5个位置,得到的误差如下表所示:在这里插入图片描述
      结论:从上表可以看出,标定板随机放置在双目的视野中时,系统误差最小。而每次只放在一个固定的区域时,系统误差较大。

    -综合分析
    为了获得较高的定位精度,也应将相机标定参数考虑在内。考虑镜头失真,应采用非线性相机模型;标定图像的数量应在13个以上;标定棋盘格的数量不能过少;标定板的位置应平均分布在双目相机的视野内。

    展开全文
  • 未来5-10年计算机视觉发展趋势

    千次阅读 多人点赞 2020-05-21 09:35:50
    为了进一步推动计算机视觉领域的发展,CCF-CV组织了RACV 2019,邀请多位计算机视觉领域资深专家相关主题的发展现状和未来趋势进行研讨。我们将研讨内容按专题实录整理,尽最大可能以原汁原味的形式还原观点争鸣...

    未来5-10年计算机视觉发展趋势

     

    https://mp.weixin.qq.com/s/al58JbrJbVQabdE15Ca-8g

     

    来源:CCF计算机视觉专委会

    引言

    计算机视觉是人工智能的“眼睛”,是感知客观世界的核心技术。进入21世纪以来,计算机视觉领域蓬勃发展,各种理论与方法大量涌现,并在多个核心问题上取得了令人瞩目的成果。为了进一步推动计算机视觉领域的发展,CCF-CV组织了RACV 2019,邀请多位计算机视觉领域资深专家对相关主题的发展现状和未来趋势进行研讨。我们将研讨内容按专题实录整理,尽最大可能以原汁原味的形式还原观点争鸣现场,希望有助于激发头脑风暴,产生一系列启发性的观点和思想,推动计算机视觉领域持续发展。

    本期专题为“未来5-10年计算机视觉发展趋势”。各位专家从计算机视觉发展历程、现有研究局限性、未来研究方向以及视觉研究范式等多方面展开了深入的探讨。

    主题组织者:林宙辰,刘日升,阚美娜讨论时间:2019年9月27日发言嘉宾:查红彬,陈熙霖,卢湖川,刘烨斌,章国锋参与讨论嘉宾[发言顺序]:谢晓华,林宙辰,林倞,山世光,胡占义,纪荣嵘,王亦洲,王井东,王涛,杨睿刚,郑伟诗,贾云得,鲁继文,王亮文字整理:阚美娜,刘日升

     

    开场:山世光、林宙辰

    山世光:上次计算机视觉专委会常委会上,在谭院士的倡议下这次RACV尝试一下相对比较小规模的、以讨论未来与问题为主的这样一种形式。这次的RACV希望所有的发言人,都不是讲自己的或已经做的工作,而是围绕着每一个主题讲一讲自己的观点和看法。大家在发言的时候可以无所顾忌,可以争论。我们会有记录和录音,但最后的文字会经过大家的确认之后才发布。

    林宙辰: RACV是希望大家有一些深入的研讨,互相挑战,以达到深入讨论的目的。第一个主题是未来5-10年CV的发展趋势。希望我们这次研讨会尤其是CV发展趋势这个主题能够类似达特茅斯会议,产生一些新的思想。

     

    嘉宾主题发言

    1. 查红彬

    未来五年或十年CV的发展趋势是很难预测的,有时候想的太多,反而容易跑偏。所以,今天我主要从自己认识的角度说说后面我们该做些什么样的事情。

    首先,说说什么叫计算机视觉?我这里给了一个比较严格的定义,即使用计算机技术来模拟、仿真与实现生物的视觉功能。但这个定义并没有将事情完全讲清楚,这里把计算机和视觉两个概念揉到了一起,但到底什么叫计算机、什么叫视觉并没有说。什么叫计算机大家是能够公认的。但什么叫视觉,其实在计算机视觉领域里还没有一个大家都认可的定义。

    我们不妨先看看现在计算机视觉领域里有哪些研究内容。先来看看今年ICCV各个分会的关键词,其中最大的几个领域是deep learning;recognition;segmentation, grouping and shape等。这些领域是视觉吗?说是图像处理、分析与理解也能说的通。关键问题在于,我们讲来讲去到底是不是真的在做视觉?这点有必要再想想。举个例子--人脸识别:人脸识别现在能识别大量的人脸图像与视频,几十万、几百万人都能够识别。它是用大数据驱动的方式来达到目的的,而且是离线学习的。但识别算法在实际应用中对光照、遮挡等的鲁棒性比较差。我们回过头看看人的人脸识别有些什么样的功能呢?我们人识别人脸的功能很强,但只能识别很少数量的人脸,如亲戚、朋友、同事等,超过一定范围之后人是很难识别出来陌生人的人脸的,我们能看到有差别但分不清谁是谁。第二个,人是在生活情景当中进行主动性的样本学习。我们之所以能够认识亲属,是因为我们在日常生活当中与他们生活在一起,建立了各种各样的关系。我们主动地用样本来学,利用了不同层次的特征。所以,尽管我们识别人脸的数量少,但是我们对抗干扰的能力很强。所以我觉得这是人的人脸识别和现在机器的人脸识别之间的差别。也就是,人的视觉中的人脸识别有它明显的特点,它能很好地应对现实环境中的视觉处理任务。

    那么现实环境中的视觉处理应该考虑哪些因素呢?我们有计算机、机器人这些智能机器,同时还有其它两个关键的部分。第一个部分是要通过视觉这个接口来同外部世界建立联系,同环境进行互动;第二个是我们讲视觉的时候,生物的感知机理给我们提供了很多依据。这其中,我们要应对的是现实环境的开放性,以及三维世界的复杂性,我们要面对场景当中很多动态的变化以及层次性结构的多样性。


     

    另一方面,生物的感知机理有什么呢?它是一个学习过程,但这个学习是柔性的,并不是我们现在这样的离线学习并固定的方式。我们现在的机器学习用起来就只是测试。但我们人的学习中测试和学习过程并不是严格可分的,它有结构上的柔性,也需要层次化的处理。此外,它有主动性,能够根据它的目的和任务主动地进行学习。同时,我们日常生活当中所需要的是一种时序数据的处理,是一种增量型的处理过程。从这样的角度来看,我们将来的计算机视觉研究需要考虑把真实环境的特点与生物的感知机理融合进来。这样就会更接近“视觉”这个词本来的意义。

    那这其中有哪些事情我们可以去考虑呢?首先是学习的问题。现在,深度学习用的很多,但它只是我们人的模式识别当中的一部分功能,对于视觉研究来说,还有很大的挖掘空间。也就是说,我们考虑计算机视觉中的机器学习的时候,不仅仅是深度,还要把网络的宽度、结构可重构性与结构柔性结合起来。我们要把不同的结构层次研究明白,同时把不同模块之间的连接关系考虑到网络里来。我们人的大脑就是这样的,大脑从视觉的低层特征抽取往上,它具有很多不同的功能性结构在里面,而且这个功能性结构是可塑的。其次,除了通常讲的识别功能之外,我们要把记忆、注意等一些认知机制通过学习的方式实现出来。目前已经有一些这方面的工作了。将来这些机制在计算机视觉里面可能会作为学习的一个核心目标,融到我们现在的整个体系当中。另外,还应考虑通过环境的交互这种方式来选择需要的样本进行自主学习等。所以,这种学习方式上的结构柔性应该是我们追求的一个目标。

    另外一点,我们现在的计算机视觉还比较缺乏对动态场景的处理。我们现在很多工作是在静态场景里面,像人脸识别也是在静态场景里面来做。尽管有时候我们用视频来做,但并没有深入考虑整个场景的动态特性。现在动态目标的跟踪、检测、分析、行为的识别与理解等这些工作都有在做,但还没有上升到一个系统化的水平。我们也应该把更多的注意力放到像移动传感器的定位、三维动态场景的重建与理解等一些事情上面来。所以,我认为动态视觉是未来的另一个重要研究方向。

    还有一个是主动视觉。主动视觉是把感知与运动、控制结合起来,形成一个闭环。计算机视觉里很早就有一个研究课题,叫视觉伺服,是想把控制和感知很好地结合起来。我们的感知一部分是为任务目的服务,另外一部分是为感知本身服务,即从一种主动控制的角度来考虑感知功能的实现,以提高感知系统的自适应能力,迁移学习、无间断学习或终身学习等都可以应用进来。此外,还应当考虑常识、意识、动机以及它们之间的关系。也就是说,我们要把视觉上升到有意识的、可控制的一个过程。


     

     

    如果我们把前面提到的时序与动态处理等结合起来之后,应该更多考虑在线学习。我们不应该全部依赖目前这种离线学习、仅使用标注数据,而是应该在动态的环境当中,根据运动与动态数据流本身的特性来做预测与学习。这样可以把前面提到的记忆与注意力等一些机制结合起来,最终实现一种无监督的在线学习系统。这样一来就能把现实环境中的一些特点与变化考虑进来,形成一套新的理论。而这个理论,跟现在的深度学习、图像处理分析与理解等相比,会更接近我们讲的视觉这个概念。


     

    2. 陈熙霖

    预测可见未来是一件风险极大的事,对于这个命题作文我只能说个人的观点。我更愿意从历史的角度来看这件事情。首先,我们回顾一下计算机视觉的发展历程。我把过去几十年的过程分为以下几个阶段。第一个阶段我称之为启蒙阶段,标志性的事件是1963年L. Robert的三维积木世界分析的博士论文(Machine Perception of Three-dimensional Solids)和1966年夏天Minsky安排几个本科生做的手眼系统。这个阶段对计算机视觉的估计过于乐观,认为这事太容易了,很快就可以解决,正如S. Papert的报告中写到的“The summer vision project is an attempt to use our summer workers effectively in the construction of a significant part of a visual system”。启蒙阶段的重要启示就是发现这个问题远比想象的困难。

    从七十年代初期开始进入第二个阶段,我称之为重构主义,这是以D. Marr的视觉框架为代表的。这个框架在Marr的总结性著作“Vision --A Computational Investigation into the Human Representation and Processing of Visual Information”中有很好的阐述。其核心是将一切对象恢复到三维表达。其基本过程是:图像à基本要素图(primal sketch)à以观察者为中心的三维表达(2.5D skecth)à以观察对象为中心的3D表达。这个过程看起来很漂亮,但却存在两方面的问题——首先是这样的过程是否是必须的,其次是如果都试图恢复三维,这样不论对感知测量还是计算是否现实。我个人认为三维在计算机视觉中的作用也是有限的。这个阶段的工作也导致了上世纪90年代初对计算机视觉研究的反思和争论。有兴趣的各位可以看看1991年CVGIP: Image Understanding第53卷第1期上的讨论文章。

    第三个阶段我称之为分类主义,反正只要能识别就好,不管白猫黑猫抓住老鼠就好。人脸识别、各种多类物体识别等都在这个阶段大行其道,研究者们采用各种各样的方法,从研究各类不变算子(如SIFT、HOG等)到分类方法(如SVM、AdaBoost等)。这个阶段推进了识别问题的解决,但似乎总差最后一公里。

    最近的一个阶段我称之为拼力气比规模阶段,其核心是联结主义的复兴,这得益于数据和计算资源的廉价化。这类方法在各种分类问题上似乎得到了很好的解决。但这些方法背后缺少了很多研究需要追求和思考的东西,过去我们都在讲找一个美妙的办法。如同我们希望瞄准目标,以最小的代价击中目标。现在这类方法更像是炮决,今天我们似乎进入了这样的炮决时代。

    那么未来会是怎么样的?从前面的发展历史来看,计算机视觉经过几十年的发展进入了野蛮人的时代。什么叫进入野蛮人的时代了?今天大家说人工智能热,可几乎所有拿来验证人工智能的例子都是和计算机视觉相关的。而今天很多所谓的计算机视觉研究就是拿深度学习训练一个模型,所以说这是个野蛮人的时代。那么野蛮人时代有什么问题?我们看上一个和野蛮人时代相关的历史——罗马帝国。罗马帝国是被野蛮人消灭的,罗马(更具体的是指西罗马)从建国到被灭亡,中间大概有500年。而且西罗马被灭了以后,还有一个叫神圣罗马帝国,按照尤瓦尔·赫拉利《人类简史》上的说法后者既不神圣也不是帝国。当年罗马帝国也是所有的东西都讲究漂亮美丽——斗兽场、引水渠以及打到哪修到哪的条条大路(通罗马)。计算机视觉早年的研究者也是天天追求漂亮,要数学上美、物理上美等等,就和当年罗马帝国一样。现在也真的和罗马帝国一样了,我们遇到了蛮族人。这个蛮族人是谁?就是深度学习,和过去罗马人关心文明,蛮族人关心财富一样,在计算机视觉的研究上,我们也面临着如何选择的问题。当然,历史也会惊人地相似,蛮族人占领罗马以后也不是什么都没干。后来他们建立神圣罗马帝国,到后来导致文艺复兴。今天计算机视觉的研究在我们看来也需要一个文艺复兴。什么是我们的文艺复兴?我们当下的计算机视觉就处在这么一个需要思考的时期。而不是一味地倒向深度学习。现在有些研究走向比蛮力的阶段,就跟打仗比坦克、大炮的数量一样,靠拼GPU的规模和计算能力。下一步,我们需要往哪里走?这是现在这个野蛮人时代需要思考的。

    预测未来五到十年这是一个风险极大的问题。所以我只能通过前面讲的历史和我的一点思考谈谈对未来的一些可能。

    首先,一个值得关注的未来趋势是从识别到理解,套用古人的说法就是从知其然到知其所以然。过去十多年计算机视觉在识别方面取得了显著的进展,但是现在的识别远远不是我们所期望的识别。例如你教它识别一个杯子,它不会想到杯子和水有任何关系,不会想到杯子有任何的其他功能,因而完全是填鸭式的。今天的识别远远不是可解释的。谈到可解释,我认为在计算机视觉领域的可解释应该是对结论的解释,而不是解释网络行为,前者应该更有价值。那么要解释这一切靠什么?应该是靠某种形式的逻辑关系,这种关系可以通过语言表达,语言应该起到桥接作用。这里的语言和自然语言有关系也有区别,可以是独立于我们自然语言的,是机器自己对世界理解的语言。换句话说,我们把世界的物体重新编码起来,然后把物体和物体,物体和环境的联系建立起来就好。有了这样的从基本属性到对象直至环境的关系,就有可能实现从知其然到知其所以然。所以我觉得未来最重要的趋势就是从无需知识支撑的识别到需要知识支撑的理解,或者说从单纯的Bottom-up的识别到需要知识启发的具有反馈、推理的更广义的计算机视觉,这也是我自己这几年特别关注的研究方向。

    其次,值得关注的一个趋势就是对空间感的有限需求。关于为什么动物需要视觉,主要是两方面的需求——首先要保证寻找食物和不被天敌吃掉——识别能力;其次是保证不会因为对空间的错误判断而造成意外伤害(摔倒或者撞击等)。视觉最重要的就是解决这两件事情。那么为什么讲对空间感的有限需求?我们的三维空间感,只是在相对比较近的时候,才需要很精确。在距离稍远一点的情况下,大多数时候其实不关心精确的空间位置,而可能关心一些如遮挡、顺序等关系。另外,如果你试图把一切对象都用三维来表示的话,不管是从计算的代价还是从可实现性来讲都很难。试想恢复一个一米远处的对象,可以做得很精确,而对于一百米或者更远的对象,如果希望保持相同的量化精度,对深度值的量化就会成问题。这就是说的有限需求的含义,但是我觉得这件事情一定很重要,特别是在较近的时候。

    第三个值得关注的趋势就是不同模态的结合,即所谓聪明合一,人的聪明离不开耳聪目明。这里的模态不仅仅限于视听觉,还可以包括不同的二维、三维的视觉传感信息等。生物的感知从来不是仅靠单一模态的。在多模态中需要解决好的一个问题是不同模态间的对齐与因果问题。如果同时存在从多个模态获取的信息,时空对齐是非常重要的挑战。与时空对齐相关的另一个问题是因果关系,虽然我们希望获得因果,但绝大多数时候得到的仅仅是关联,两个现象之间可以是第三个因素导致的,如同云层间放电导致电闪和雷鸣,这两件事是关联的,但绝不是电闪导致雷鸣。在绝大多数情况下我更倾向于去探索关联而不是因果,特别是在数据驱动的模型下,离开机理试图发现因果是困难的。但在未来的计算机视觉研究中不同模态的结合和关联是一个重要的趋势。

    第四个需要关注的趋势是主动视觉,所谓主动就是在视觉系统中纳入了反馈的机制,从而具有选择的可能。视觉如果仅仅以独立的形式存在,则不论是从感知所需的精度、分辨率以及处理的能力都需要成指数规模的增加,生物视觉由于有了主动选择的机制,因而在视野、分辨率、三维感知与能量消耗方面得到了很好的平衡。当计算机视觉的研究不仅仅是为了验证某个单一的功能时,上述生物视觉的平衡一样需要在计算机视觉系统中考虑,实现从感知、响应到行为的闭环。从被动感知走到主动的感知,这是从算法到系统的一个重要趋势。将视觉的“看”与“响应”和“行为”构成广义的计算机视觉系统,通过有主动的“行为”进行探索,实现“魂”和“体”的合一。这对视觉应用系统是至关重要的——例如一个经过预训练的服务机器人,可以通过在新环境中的主动探索,实现整体智能的提升。所以我认为这是未来视觉应用系统的重要趋势。

    我没有讲具体的算法哪些是重要的。我想说一件事情,就是关于深度学习,我觉得未来深度学习就会像今天计算机里看到的寄存器、触发器、存储器乃至CPU一样,成为基本构件。关于趋势,延续前面的划分,计算机视觉将进入一个知识为中心的阶段。随着深度学习的广泛应用,计算机视觉系统将不仅处理单一任务。在复杂视觉任务的处理中,主动视觉将起到重要的作用。通过主动的响应和探索,构建并完善视觉系统对观察世界的关联(因果)关系并借此理解空间对象的时空关系、物理属性等。这算是我对今天讨论问题的个人预测。


     

    3. 卢湖川

    刚才前面两位老师已经提纲挈领的提了一些观点,我可能有一些和他们是相似的。

    从理论方面来讲,我觉得目前深度学习的理论好像有点走不太动了。具体来说,从Backbone的发展来看,网络结构的设计,基本上没有更多新的内容。另一方面,某些领域还是比较热门的,发展比较快。比如说自然语言处理(NLP)和视觉的结合,这几年取得了很多进展,特别是聊天机器人等相关的实际需求,驱动着VQA等技术都有较大的进展。尤其是基于图的方法和视觉结合在一起可能会越来越热。以知识图谱为例,如果知道一些先验知识,知道一些知识图谱的话,可能会更好的去理解图像或者视频。例如,给定一幅图像,里面有一只猫和一个鱼缸,猫用爪子抱住了鱼缸,还盯着鱼缸里面的鱼,如果我们知道知识图谱里猫和鱼的关系, 我们就能很好的描述出猫想吃鱼缸里的鱼,从而更好的帮助视觉理解图像或视频里目标和目标之间的关系。所以说,我觉得基于图或图谱的方法和视觉结合在一起未来几年会有更大的发展。

    第二方面,我觉得三维视觉会继续快速发展。从前两年开始冒头,到现在已经较为火爆,不仅仅局限于三维场景重构等领域,最近基于三维视觉的检测与分割等都有一些优秀的工作涌现。随着基于各种各样的嵌入式设备和手机端的需求,像华为手机已经有三个背面的摄像头,甚至多个摄像头(它的三个摄像头的定义,一个是超广角的,一个是广角的,另外一个是高精度的摄像头,不同的分辨率,可以更多的去模仿人的视觉方式)。由于人观测世界本身是三维的,所以移动端的这种大量的应用会牵引着三维视觉在这方面越来越走向更深入的发展。

    第三方面,最初我们提到深度学习时,通常都会说手工设计的特征(handcrafted feature)有各种各样的不好,而深度学习是一个端到端的网络。实际上,深度学习的网络结构也是手工设计的(handcrafted)。目前,网络结构搜索NAS兴起之后,我觉得在这方面可能会有更多的一些改善,能够把一些常规的操作,包括一些常规的模块都融入进去,来不断优化网络结构而不是手工设计(handcrafted design)。我觉得未来几年在这方面,甚至包括网络结构的压缩和裁剪方面都会有更多的进步。

    第四方面,深度学习兴起之后,我们看到诞生了一大堆的数据集,并且都是有ground truth标注的数据,在其驱动下,深度网络达到了一个比较好的性能,目前绝大多数的数据集在性能方面基本上也趋于饱和了,但是距离实际问题仍然有较大的距离。另一方面,人对世界的认知基本都是小样本学习的结果,和目前的大数据驱动的模式不太一样。所以能否将当前大数据驱动的方式和人参与的方式结合起来?现在也有很多这样的论文来研究人主动参与的或者是human in the loop的学习方式,可以把人对ground truth的主动标记结合起来,引导快速的学习,甚至把性能提高到一个更高的高度。

    第五方面,视频理解在前几年开始有初步的发展,特别是到这几年有更多的需求和深入的趋势。因为现在基于图像的所有任务做到一定程度之后可能都做不动了,或者说没有更多的花样了,那么对视频的各种理解越来越多,包括视频摘要、视频场景分类、广告识别、台标识别等等,很多这方面的应用,我觉得未来几年会有更长足的发展。

    我觉得在主题(topic)方面,未来会有更多的发展领域。随着刚才陈老师说到野蛮人的时代来了,大家参与视觉研究的热情很高,不光是学术界,产业界对这种需求也是非常巨大的。因此我觉得目前深度学习领域,视觉会在各个行业纵深发展。举个例子,这两天有一个公司提出这样的一个需求,即鞋印踩上去之后,希望能识别是哪个犯罪嫌疑人来踩的,这个就是足迹识别。进一步,他们想通过这个足迹来判断这个鞋的鞋面是什么样的,是什么牌子的。然后通过这些线索进而去库里搜索比对,搜索完了之后,再去视频里面去找犯罪嫌疑人,即穿这种鞋的人到底是谁。这个过程中,一步一步的从源头开始到后面,形成了一系列的视觉问题,行业的这种纵深发展需求是无限巨大的。视觉里面还有很多之前没有想到的事情在不断进步,两天前我参加了工业机器人展,看到有一个捡包裹的机器人。我们都知道快递小哥要送了一大堆包裹,各种各样的包裹都有,能否在包裹车拉来一车包裹后,让机器人去分类呢?我在展会上看到就有这么个机器人,它会自动的去识别是什么样的包裹,而且知道它的三维的曲面是怎么样,因为包裹放的角度都完全不同,它会调整机械臂,适应包裹的三维曲面的法线方向,去吸附它。我感觉在不同行业实际需求下,像分割、三维建模等视觉技术都会快速在各个行业里得到深入的发展。

    另外,我觉得在医疗图像方面也会有很大的进展。医疗图像现在更多的是各个疾病的检测。昨天跟一个医疗单位在一起交流,他们提供了一个很大的平台,它的最终目标是通过病人的不同模态的信息,来最后综合判断病人到底是什么样的病。不仅仅是关注医学影像信息的,还有一些其他的一些检查结果,其实是一个跨模态的融合,包括图像标注、病案标注等等,他们都使得医疗图像未来和视觉的结合会越来越紧密。

    目前5G不光是速度快容量大,它其实给计算机视觉AI带来了一个更广阔的前景,特别是无人车方面,刚才几位也提到了三维的地图等。跟中国移动交流了之后,发现他们的高精度地图,可以通过5G带宽实时传输,是可以看到马路崖子这种厘米级的精细度。所以我觉得5G+AI会为我们视觉相关领域的发展带来巨大的机会。以上就是我对未来5-10年视觉发展趋势的一些理解。 


     

    4. 刘烨斌

    我主要围绕三维视觉、虚拟现实和人工智能的发展谈点想法。虚拟现实是2016年火了之后一直发展比较平稳。2018年XISHUJI有过关于虚拟现实的重要性的指示,虚拟现实技术改变了未来的交互方式,主要是这种人与环境、人与人之间的交互方式可能会变得更加自然简单,并且取代键盘、手机触屏等现有的功能。

    三维视觉的趋势是做视觉信息的重构,提供三维的内容给虚拟现实,这个是三维重建,三维虚拟现实通过真实渲染能够产生很多数据,为视觉问题服务。很多视觉问题皆有数据驱动,数据如何得来,越来越多的部分时通过三维引擎来得到。计算机视觉的研究对象有好几类,室外的、室内的、包括人体人脸还有手,还有一些医学和生命对象。以人为本是计算机视觉的核心,所以我主要以人作为视觉研究对象,举例说明计算机视觉的发展趋势。

    从人为研究对象的角度,虚拟现实有三个目标,也即三个I,一个Immersion,一个Interaction,一个Imagination。三者都是虚拟人(AI、机器等)和真实人之间的作用关系。首先,虚拟人在视觉外观上是真实的,未来的虚拟人不管是真实做出来的机器人还是存储在计算机中的,都有逼近真人的发展趋势,使得交互更加友好。而这个目标,本质上就是人体的三维重建。第二个要素是人机的交互,虚拟人一定要能感知真实人的行为,包括手势识别,行为识别,情绪等这样的一些理解。最后,虚拟人需要对场景有反应,能够智能化,他能够根据你的行为智能地做下一步的处理,保证产生一个真实的虚拟人。

    总体来说,虚拟现实的智能建模技术被列为新一代人工智能发展规划里的八大关键共性技术,重点突破虚拟对象智能的行为建模技术,提升虚拟现实中智能对象行为的社会性、多样性、交互逼真性,实现虚拟现实和增强现实等技术与人工智能的有机结合和高效互动。上述定义中的重点是行为建模,行为必须是接近人的智能的行为,才能有交互的逼真性等等。围绕这个人体的建模,目前的目标一个是要精准的重建,第二是要规模化的采集,第三是要便携式(手机单图像也能做),第四是速度足够快,能够响应交互的要求,第五就是现在一个大的发展趋势,建模的结果含有语义信息,即语义化建模,包括服装,人脸,头发等。最后第六就是智能生成,即重建结果能真实动画展示。现有的三维视觉重建技术很难满足这六个方面的要求,所以围绕这些目标还有很多研究需要做。

    人体重建主要目的之一是全息通信。这里展示微软做的holoportation系统,它实现实时的,多相机下的人体动态三维重建。但这个系统的缺点是,它要求具有主动光,导致系统复杂度高,实时性和便捷性成为矛盾。实现实时高精度三维动态重建,也是未来的一个学术研究趋势。我们研制的单个深度相机实时的重建,虽然速度和便捷性都趋于完美,但精度还有待提高。单图像人体三维重建,虽然现在的质量还不算完美,但我觉得这是一个很实用的技术应用趋势。通过单个图像我们就可以来简便地重建它的三维模型,未来肯定是能大放光彩的。单图像人手动态三维重建,通过单个RGB监控相机就可以来实现实时性,可以看出三维重建输出了语义信息,已经取代了传统二维计算机视觉识别问题成为发展趋势。

    服装产业占据国民生产总值的6%,数字化服装是一个非常重要的计算机视觉应用之地。这个是展示我们最新做的一些事情,通过单个视频,可以网上的视频,就能通过语义的建模来实现比较高质量的服装三维建模,对一些VR、AR都可以应用,它是通过对人体和服装的解耦,语义信息的加入,包括光照和纹理的解耦来实现。这种东西未来可以产生一些应用,包括改变体型,包括增强现实的模拟,右边就是一个互联网视频的重构,它可以改变服装的颜色等等。我觉得这种便携实时的三维重建的趋势就是从低层次的三维建模,包括体素的、网格的,逐渐走向高层次的三维建模,包括部件级的重建、物理信息分离、感知物理动力学、特征空间的提取。这些高维信息能够智能地建模和生成,响应环境,控制和预测。包括图形学里做的一些研究,好玩的比如能让一个人去动的虚拟对象的这种物理的约束,包括我们自己去爬山这种增强现实的技术也会引入进来,把物理、智能响应引入进来。

    最后再谈谈更有广泛意义的一些动态三维重建问题。例如,医疗方面的比如外科手术的术野场景的三维感知,就是个非刚性复杂动态场景的三维建模问题。这是展示肝脏手术的视频,能够动态跟踪它的形状,三维扫描的CT可以在动态的场景下实时非刚性映射,辅助医疗和手术。还有就是在生命科学领域的动物行为三维重建,我觉得动物是未来视觉的一个很大的可以应用的点,我们叫计算行为学,也叫神经行为学。它研究的是行为跟神经活动的映射关系,通过采集动物行为数据来进行分析。行为学上对人进行分析非常难,因为人的基因差别非常大。但对于动物来说,可以做到每个小鼠基因都是一样的,像譬如在猪、猴子上也比较容易控制一些其他的差别的因素,所以对医疗,包括基因控制都会有帮助。在Nature子刊、Nature methods、Neural Science上都有一些相关的文章。它这里面其实有很多问题,包括群体对象自然环境下的交互,非刚性的捕捉,高层语义检测,互遮挡三维恢复,时间序列分析,有很多研究发表在Nature上。动物行为三维重建研究趋势就是希望动物更加自由地在实验环境里去生活,被记录,药物干预后提早发现行为差别。这样的研究还是很多的,包括可以提取维度更高的特征。我们也是在做这样一些研究,这里面有四个小猪,有两个是有渐冻症的,我们通过多视点拍摄,希望重构三维小猪的动作,通过重建动作来识别渐冻症小猪的行为特点,对未来的基因调控和药物治疗带来帮助。


     

    5. 章国锋

    几位老师已经从计算机视觉大的层面对未来5-10年发展趋势做了展望,我从我熟悉的三维视觉和AR方面对未来5-10年的发展趋势发表一下自己的看法。

    我的研究方向主要是SLAM,所以我就先从SLAM的角度做一些发展趋势的展望。我们都知道视觉SLAM是很依赖特征的,未来SLAM技术的发展趋势必然会从以前的底层特征比如点、线、面,向高层特征比如语义、文字、物体等趋势发展。并且,现在已经有一些提取运动规律的工作比如人的步态规律、机器人和无人车的运动规则等等,来进一步提高定位的稳定性。

    有一个趋势是朝着多传感器融合的方向发展,其实每个传感器都有着它的优点和缺点,那么最好的方法就是把这些传感器的信息都融合起来,比如说随着深度相机的流行,一些手机上都安装了深度摄像头,还有Wifi、蓝牙、地磁信号等等,把这些信号都融合起来肯定可以提升定位的稳定性。未来还会有更多类型的传感器出现,比如这几年新出来的事件相机、偏振相机,相信未来5-10年还会有一些新的传感器出来。通过多传感器融合,我相信SLAM技术会做的越来越精准和鲁棒。

    还有一个趋势就是随着5G时代的到来SLAM会朝着云和端结合的趋势发展,比如说现在高精度地图的构建是放在云上,并且支持动态的更新。这就很自然地涉及到移动端上的SLAM和云上的高精度地图如何做紧耦合,如何利用语义地图的信息来更好地定位,不同终端如何协同来做SLAM。

    现在主要是深度学习的时代,对于SLAM来说,目前已有不少基于深度学习的工作,相信未来还会有更多这方面的工作涌现出来,比如如何学习一个更好的特征,如何学习更好的策略去解决SLAM中手写规则的困境,可能还会有做得很好的端到端的位姿学习。还有一个非常重要的就是语义信息的融合,比如说,结构的信息怎么跟语义信息做更好的融合,就像人眼一样看世界。我觉得这是未来的一个发展趋势。

    以上是关于SLAM方面的。然后,三维重建,刘老师前面已经讨论得很多了,尤其是动态场景的重建,我这里稍微再做一点补充。我觉得未来物体的三维扫描方面,一些便携式、移动式的RGBD传感器会越来越流行,比如说基于结构光和ToF的深度传感器,未来我相信还会有一些新的传感器出现,可以帮助实现实时高效的三维重建。这里重建的不只是几何和纹理,还包括材质、语义等等。基于照片/视频的三维重建技术未来几年也还会有一些进展,比如实现更高的几何精度和纹理,能得到更细粒度的语义,并且结合分布式平台的算力实现更高效的重建。

    在大规模场景的三维扫描方面,目前基于相机拍摄的视频或者照片已经可以做到城市级场景的三维重建。一般都是通过无人机航拍,然后重建出来。如果进一步结合深度传感器(比如Lidar),相信可以实现更高精度的场景构建。再结合分布式平台的计算能力,实现整个城市甚至整个地球的完整三维地图的重建将不是问题。当然只是静态场景的重建还不算太难,更难的是怎么实现动态物体的重建和场景的动态更新,因为真实的世界不是静态的,而是动态变化的。我觉得未来可能会通过相对低成本比如多传感器融合的方式来实现四维的场景地图的动态更新。包括前面讲的通过三维扫描获得的物体模型可以注册到真实世界的三维地图中,来实现三维信息的共享和传递。


     

     

    然后,我想谈一下识别和重建的关系。识别和重建未来5到10年会往更深层次的融合。目前三维重建基本上是bottom-up的方式,对先验知识的利用不够充分,未来5-10年可能会诞生top-down的方式,比如说先识别后重建,或者两者同步进行。识别能够提供更高层次的结构先验,反过来重建能够帮助做更好的物体识别,因此未来会更加紧密的融合。另外,也还需要深度学习和几何优化算法的融合,才能最终构建出兼具几何外观、语义信息、结构化的、可动态更新的3D场景表示。

    另外,因为我本人一直在做AR方面的应用,所以也想谈一下关于AR/VR、AI和三维视觉协同发展的趋势。其实AR主要是AI和三维视觉的应用。这三者如果能够紧密协同发展,那么我相信未来五到十年就可以实现一个地球级的现实世界的数字化。左边这个图是华为前不久提出的Cyberverse数字现实技术,它主要是通过相机、Lidar等传感器对真实世界进行扫描并构建高精度地图,然后基于高精度地图来实现室内外精准的定位和导航以及各种AR效果。Cyberverse实际上也不是一个完全新的概念,Magic Leap在2018年就提出过类似的概念Magicverse,旨在将大规模物理世界和数字世界持续地融合在一起。如右图所示,Magicverse包括好几个层,主要两种类型,一类是叫做基础层(包含物理世界和数字世界),还有一类叫空间应用层。基础层最底下是物理世界,然后在物理世界上构造一个对应的数字世界,然后再上面就是空间应用层,包括流动性、能源与水、健康与保健、通讯、娱乐等。

    要实现这样一个数字化的现实世界,最关键的一点就是对物理世界进行三维数字化,也就是如何对高精度地图进行采集、构建和更新。我相信未来必然是朝着多模态、多传感器采集和融合的方式发展,因为每个传感器都有着它的优点和缺点,需要融合互补。这里最难的问题可能是怎么进行动态更新。我相信众包式的采集和更新是实现这个目标的有效方式,可以实现低成本、高频次的更新。高精度地图除了三维还应该包括语义信息,因此语义信息的提取也是非常重要的,而且需要满足不同应用的语义信息,比如说定位、AR/VR的展示、行为分析等等。这就要实现不同粒度语义信息的提取,这里面的粒度可以大到整个商场,再到一个门店,再小一点就是一个商品。除了物理世界的三维数字化,还需要对人的行为进行数字化,运动行为、消费的行为、社交行为等等。

    对于这样构建的人的行为也好、三维空间也好,再结合SLAM、AR技术,我们可以实现地球级的AR应用。当然,这里首先需要解决云端的高精度地图怎么与终端SLAM紧耦合,这样才能够实现长时间大范围的精准定位和高品质虚实融合。松耦合模式会有一些缺陷,误差累积会很快,稳定性也不够好。基于这样的一种方式,我们可以实现室内外的分米级甚至到厘米级的定位和导航。

    另外,我们知道5G时代很快就要到来了。目前的AR计算还主要是在终端,比如手机、AR眼镜等。未来有5G的情况下很多计算都可以放到云或边上,对终端的计算要求相对弱化,终端未来更多的是提供数据采集、连接和显示的能力。因为有云端算力的加持,高品质的AR效果可以得以实现,比如高逼真的物理效果模拟,准确的遮挡效果和虚实交互,精准的光照估计和电影级的真实感绘制与虚实融合效果就成为可能。在5G时代,一方面传输速度非常快,另一方面有云端算力加持,未来应用APP甚至都不要预装,我们打开一个APP就像在浏览器上输入网址或电视机上切换频道一样便捷。

    以上是我对三维视觉和AR方面未来发展趋势的看法,供大家参考。

     

    专家讨论发言

    谢晓华
     

    我感觉我们是不是忽略了一点,就是硬件发展。例如我们之前做超分辨率,做了很多,但是后来高清相机一出来,很多工作就白做了。那会不会在未来的十年范围内视觉传感器这一块会有比较大的突破,然后刚才提到的一些工作就没有必要去做了。


     

    林宙辰

    我想说一说什么样的计算体系适合做计算机视觉?现在我们都是基于冯诺依曼体系,但是人的视觉处理过程跟冯诺依曼体系有很大的差别。如果是在新型的计算平台上面,是不是很多计算机视觉的问题能更好或更高效的解决,我觉得是可以探讨的。另外一个,我赞成主动视觉和在线学习。我觉得现在的视觉系统触碰到了一点是,每个人都是from scratch,这样的话精力有限你就只能做一个非常简单的任务。我觉得将来可以做一个像wiki一样的项目,全世界都可以贡献,这样的话大家都在共同构建一个统一的系统,而且这个系统可以利用网络上的所有数据,可以自我进化(evolution)。然后这个系统大家都可以公用,这样就可以解决每个人的系统不停的从头学习的问题,因为单个人做的话只能做很小的一部分。


     

    林倞

    我想谈一谈关于benchmark或者关于AI的评价系统或者CV评价系统的好坏的基准。因为我认为我们很多的研究是受这个基准所驱动的,或者说是跟这个benchmark是相互驱动的。现在CV的趋势是融合、协同等,那么未来我们可能会需要一种新的评价体系来看CV的状况,可能不需要在一个特别的识别问题或者分割问题上达到特别高的精度,但是我们同时接入理解、分析、可解释性等,这样才能评价一个AI或者CV系统的鲁棒性,更像人一样的而不是把它归类为一个分类问题或者重建问题,我觉得这个可能是我们要很具体的去讨论和去发现的问题。


     

    山世光

    我们讨论十年后视觉可以发展到一个什么样的水平,可是我们并没有定义清楚,我们该如何从总体上度量视觉智能的进步,比如说现在视觉智能水平是60分,十年后我们可以做到80分,这个没有明确的标准。包括什么是视觉理解、图像理解,怎么定义呢?比如我们做人脸识别,很清楚,就是以某个数据库上的识别率为准。可是作为一个general的视觉我们好像没有这样的一个标准。

    另外,作为一个标准的benchmark的角度来说的话,是不是人的视觉也是分两种,一种是通用的视觉,一种是专用的视觉。比如我们普通人看不懂医疗影像但专业医师就可以,但是我们都有通用的视觉的能力。这两类视觉实现的路径是一样的还是不一样的?

    还有一个就是刚才提到的十年后我们可能把地球都数字化了,但是这个数字话不见得是个简单的数字化,比如是地图化的,那地图化的话对我们做视觉的有什么样的帮助呢?我觉得是不是类似于出现了一个视觉智能测试的“靶场”,我们的很多东西都可以在这个“靶场”里去测试。例如很多做自动驾驶的系统初步的训练都是用的合成的模拟数据。那么也许我们有了一个很好的关于地球的数字化模拟的时候,我们就有了一个很好的视觉的“靶场”,这个“靶场”既可以做训练也可以做测试。

    此外,要不要做视觉常识?大家都在说知识,我觉得知识这个体系如果没有常识,感觉有些空中楼阁。我们做视觉先得有视觉常识,有常识才有可能有所谓的理解,我不知道是否正确,我觉得这个问题可以讨论。


     

    陈熙霖

    关于理解的评价问题,我们可以想想人是怎么做的。对于人类形成体系的知识我们确实有benchmark,确实有考题。可是对人类探索中的知识是没有考题的。大家理解的知识最后形成一个公共认可的交集,最后逐步拓展。所以,我个人认为在未来的推动理解的研究中,benchmark不能没有,但是不能唯Benchmark。如果说过去近30年中Benchmark推动了计算机视觉的发展,今天可能成为束缚了计算机视觉发展的一个因素。我经常跟学生为此争论,一些学生认为离开可评测数据集的工作就不是研究。而对真正智能的研究可能就是没有Benchmark——没有最聪明,只有更聪明。对于场景理解一类的任务而言,一个机器可能发掘出100组关系,另一个机器可能发掘出300组关系,那后者的理解能力可能就超越了前者,如果前者的关系是后者的真子集,那后者就一定具有更强的理解能力。当然更多的是两者可能具有互补性,如同人类的三人行必有我师。

    第二件事情是说通用视觉与专用视觉,我的观点是对于医疗判读这类的所谓专用视觉其实远远超越了视觉本身,它不仅仅是视觉,医生的判断是在视觉现象基础上的知识/逻辑推理。


     

    胡占义

    这个观点我有点不大同意。我最近十多年一直在研究生物视觉,视觉绝不是说就是感知,视觉包含认知。仅仅视觉物体识别这个具体问题,人类就有约三分之一的大脑皮层参与。当然,某个大脑皮层区域参与视觉问题,绝不能说该皮层就是视觉皮层。大脑的大多数高级皮层,都在于加工多种感觉信息融合后的信息,进行认知决策和行为规划。所以说视觉问题,它涉及真个大脑,包括皮层和皮下组织的联合加工,绝不是完全由大脑的视觉皮层完成。视觉皮层是指主要对视觉信息进行加工的皮层,很多皮层参与视觉信息加工,但不是视觉皮层。

    我先说第一个观点,人的视觉和计算机视觉是有区别的,如果说把人类视觉的脑加工机制完全解释清楚,我觉得和搞清楚宇宙起源的难度没有区别,我研究了差不多十五六年生物视觉,据我所知,神经科学领域目前对视觉V1区研究的比较清楚,V2区已不太清楚,更不用后面的V4和IT区,以及前额叶(PFC)等高级皮层。视觉问题处理基本涉及到大脑皮层的各个区域。所以说研究计算机视觉我觉得我们要弄清楚到底什么是计算机视觉,什么是计算机视觉的核心科学问题,我们不能够把什么东西都往上加。我觉得我们要好好讨论讨论,五到十年内我们到底主要是研究视觉感知还是视觉认知?如果研究视觉认知那是一万年的事。我目前不怎么研究计算机视觉了,我主要关注生物视觉了,也许我说的不对,但我觉得大家还是聚焦一些,目标可实现一些。

    我们讨论五到十年的计算机视觉研究方向,不是指具体的算法,我们十年前也不知道深度学习能达到今天这样的一个高度,我们要讨论到底哪些方向是值得研究的,我自己觉得有三个需要关注的方向:1.基于神经生理的计算机视觉,估计在五到十年以内是一个重大方向;2.视频理解;3.涉及中国特色的全球战略相关的视觉研究:如卫星数据理解(全球战略),深海水下视觉信息处理(深海战略)。


     

    纪荣嵘

    我自己觉得我从博士毕业到现在大概10年的时间,我认为计算机视觉是远远超过了我当时读书时的任何方向,比如说自然语言理解,信息检索等等。我觉得一个重要的原因是深度学习带来的收获。但另一个方面,我们的这些系统太大太厚重,有没有可能把这个系统做的小一些,做的开销更小一些,这里面有几个维度。大家能马上想到的维度就是把系统做小,做小就可以把它放到端上,放到嵌入式设备上。第二个就是把系统做快,现在自动驾驶或者端上的设备的计算,有可能需要系统处理数据要远远快于实时。

    第三点,现在我们很多时候都是在做单点的系统,每个摄像机执行的功能都是一个完整的闭环,花了很多的计算代价做了很多重复的事情,未来的视觉系统有没有可能由点到面进行大范围系统之间的协同。就是说有没有可能由专到广的,为什么是由专到广,现在每个模型只能解决一个任务,为了解决目标识别用的是目标识别的模型,为了解决语义分割用的是语义分割的模型,为了解决人脸而用人脸的模型,我觉得我们的人脑并没有分得那么清楚。one by one或者 1 v 1的我个人感觉太消耗资源了,有没有可能有一种更灵活的机制,网络结构可以由不同的形式组合在一起,比如说一套模型的backbone,它往上的话既可以做识别又可以做分割还可以检索,还可以做相关的理解。这样的话就可以把整个计算量给降下来。我相信人类进化到现在这个阶段,我们用我们的大脑实现了多任务的,高效能的,并行而且只占用极小的存储开销,我们每天只用吃三碗米饭,我们能完成这个计算机系统消耗多少的计算量来完成的事情。

    第四个观点,我觉得我们的系统现在“吃”数据“吃”的太厉害。我觉得我们人类自身真的没有用到这么多的数据进行学习,我们用了大量的数据复用,比如说我识别消防车,只需要在车子上加一些特殊的部件,我就能识别消防车,我们人是很智能的。但是我们现在的计算机系统太吃这些硬性的资源,所以我觉得在计算资源的消耗上和训练数据消耗上我们也应该探索更多的机制。

    然后,从我自己的感受来说,过去的时间我们看到世界往前发展,我特别希望未来的五到十年里面,计算机视觉的发展是由我们中国的学者去引领的,因为我们现在有巨量的市场,这个市场有我们能马上可以看到的技术痛点,这痛点就在我们身边,应该是我们来做,而不是让外国人来做我们的痛点,我们应该去引领它,所以我觉得未来的五到十年有很多是我们这些中国计算机视觉的学者应该去做的事情。


     

    林宙辰

    在手机上要越做越小,我觉得这不是正确的方向。将来的视觉系统应该越做越大,不是越做越小。所有的运算通过5G放在云上面运算是未来的一个趋势。我们大家都在云端上建立一个大系统,这样的话能够解决多样性的问题。因为要用一个小系统来解决各种各样的问题,我觉得这个概率上讲是不可能的,就是要建立一个跟人脑一样复杂的一个系统,它才能够解决各式各样的问题,这个系统肯定只能放在云上面,手机端愿意多算就多,少算就少算,不要把所有的计算都挤到一个小的手机上面来。


     

    纪荣嵘

    我觉得不一定完全正确。我觉得端上可以做一些轻量级的计算,云上做更重量的计算。而且端上的计算可以使数据的传输由重量级变轻量级。比如说原来传图像,现在可以只传特征,原来要传所有的区域,现在只要传特定的区域。因为手机只用作摄像设备感觉太浪费了,手机其实是一个很好的计算设备。


     

    林宙辰

    我们并不矛盾。我是说想在手机上解决所有的问题这一点我是反对的。一开始你说要在手机上做小网络这个东西,肯定是越小功能越差。


     

    胡占义

    对于这个问题我提个建议,5G对我们计算机视觉影响有多大,其实就是小终端和大终端的问题。如果5G网络很快,终端干脆就可以很小,不需要在这里处理,直接放到云上。我觉得5G对计算机视觉的影响确实要好好理解。


     

    王亦洲

    你俩说的没有矛盾,在专业任务上一定要压缩。处理是与任务相关的,只要满足任务的需求就行。视觉是一个ill-defined problem。什么是视觉这个概念太大了,但如果局限到图像,又太小了。所以怎么去把握它呢?我们丢这个阵地,就丢在了问题的复杂度上面。现在已经被深度学习占领了,我们再漂亮的理论、性能都不行。 然后我们丢在哪儿了呢?视觉问题是不是深度学习就解决了?视觉并不仅仅是一个学习问题,刚才说视觉可以很大,它可以是个认知的问题,top-down、bottom-up、然后各种任务,我们定义的视觉问题的复杂度不够,系统的复杂度也不够。所以我们要把系统的复杂度给加上去,把任务的复杂度也加上去,但是在每个具体的专项的任务上面, 我们要尽量让它简洁(compact), 让它适合于任务(fit for task)就够, 所以怎么去拿回这个阵地,我觉得要在这两方面,复杂度上面加大,然后才能够有可能把这个视觉的东西给拿回来。但视觉其实不单单是视觉问题,应该是视觉主导的任务完成的一个问题。所以,以后CVPR它有没有存在的意义,或者说是不是还是那个趋之若鹜的东西都不一定。


     

    山世光

    我们值得讨论的问题是,怎么撇清计算机视觉与机器学习的关系?我们在未来几年是不是就认怂了,是不是计算机视觉的问题就是机器学习的问题。这个我觉得我们年轻人还是特别困惑,比如说有什么问题是机器学习肯定搞不定,只能靠计算机视觉理论和方法来去搞定的呢? 


     

    陈熙霖

    是现在很多东西都被划到机器学习了。可以对比一下30年前机器学习的书和30年前模式识别的书,再拿今天机器学习和模式识别的书,看差别就行。


     

    胡占义

    我觉得机器学习这个东西,是一种手段,它可以用于计算机视觉,也可以用于自然语言处理。模式识别和数学没有区别,我比较理想,我觉得一个是一种解释手段,一个是说要解决什么科学问题。


     

    王井东

    接着刚才山老师提到这个问题。现在计算机视觉这么火,有多少是机器学习能做出来的东西。像alexnet也是做视觉问题,其实根本没必要担心。我自己也做过机器学习,可以举个例子,早先做过加速、大规模等,在Matlab上面做,这怎么能证明这是个大规模的问题,所以说同样根本不用担心这个问题。

    刚才讨论到一个问题,就是说计算机视觉5到10年怎么走。现在遇到一个状况,不管是中国还是美国,今年年视觉方向的工作机会(opening)特别少,从2012起视觉火了8年,应该怎么继续走。计算机行业外的人给予CV很高的期望,比如超越人类。其实这件事情不靠谱,根本没有超越人类。但是不做计算机视觉的人总觉得计算机视觉的人应该做些什么东西。但是现在到这个阶段,也许这跟当年神经网络一样,像过街老鼠一样,说计算机视觉的人吹牛皮。其实不是我们吹得,是别人吹的。我们要思考,我们视觉如果继续往前走,科学研究方面是一个问题,另一方面是如何去得到持续关注真正做一些能够work的系统出来。尽管我们今天已经在很多方面做得不错,但坦白来讲还没真正work。计算机视觉是不是应该纯粹从视觉的角度解决,其实多模态是一个很好的方向,单单靠视觉这一点,在监控系统里面还是很大的一个问题。从方向上来讲我比较看好多模态这个方向。


     

    王涛

    关于未来计算机视觉发展的趋势很多。我感觉一个最重要的趋势应该是主动视觉。Imagenet竞赛能识别很多的物体,但是图像分类真正在实际场景中就不管用。真正管用的是基于物体检测,然后再进行识别的像人脸识别这种技术。为什么人脸识别成功了,图像分类系统还不成熟。输入一张图像,你必须得按不同的区域不同的粒度进行分析,比如在会场我们拍张照片,识别人,那我们去数人头。但是如果要识别投影仪设备,必须定位到这个投影仪图像才能找到。第二个问题是投影仪的信息有多种层次,比如说有人想知道牌子,那你必须再细看到那个Logo,但是另外有人想知道怎么操作这个投影仪,那你必须得识别它的各种接口,你才能把它的功能识别出来。我感觉最近的Imagenet和ActivityNet行为识别竞赛,大家现在做的这两类竞赛都是用图像分类的竞赛做。用图像分类做竞赛,实际中都不能用,为什么呢?它没有像人一样主动去识别,你得看到这个人,看到那个人真正发生动作的那一帧,这才能把它识别出来,所以我感觉主动是非常重要的。

    第二个,要有层次。层次就是不仅要识别出一些基本的要素,还要把里面的不同层次关系能够结构化的提取出来。我们实验发现把东西拿在一起学的效果会很差,但是如果把这个东西分成两个部分,先固定解码器学编码器,然后再固定编码器学解码器,系统就学出来了。我们的学习得有一些像搭积木一样的层次,先把基本的比如人脸、水杯、花识别出来,然后拍一张照片能把物体之间的关系给识别出来。

    第三个,应该怎么研究。视觉研究很广,想要做成功,得针对具体的应用。人脸识别系统很成熟,但是用在自动驾驶上识别行人就不行,得一类一类来,在不同应用场景中,需要看到不同的数据和不同的性质。所以我认为针对具体应用,未来除了在深度学习基础上主动视觉,发挥层次融合推理应该是一个比较好的趋势。


     

    胡占义

    我觉得主动视觉很重要,但5-10年主动视觉不可能取得巨大进展。这涉及到生物里面反馈(feedback)的高层知识,但反馈很难短期内取得进展。关于视觉的目的1994年CVGIP组织了一个专刊,曾经有过一个辩论。从1994年到现在,可以说主动视觉没有任何的进展。在生物神经系统里面有大量的反馈,但不知道反馈是什么东西。如果神经科学很难给出一点启示的话,那么我们计算机视觉就很难把它做成。这是我的一点个人观点。


     

    王涛

    我觉得以前主动视觉不成功是因为研究方法不对和技术限制。


     

    胡占义

    Recurrent有两个,一个是同层的抑制,一个是高层的反馈,而高层的反馈在生物视觉里面大家知道有大量的反馈,但是反馈的是什么东西还不清楚。所以说根据我的理解,我觉得3-5年内生物视觉很难有较大进展。


     

    王亦洲

    我补充一下,回到学习上,学习是视觉的核心。视觉其实是个伪问题,但学习是一个永恒的本质问题。没有学习,视觉存不存在都不太重要了。与其叫计算机视觉还不如叫computational visual intelligence. 视觉是一种智能,智能的核心是学习怎么去获得知识,反馈只是学习和推理的一个环节。学习是什么?是简单的模式识别,还是高级学习,这可能是学习下一步应该走的,给学习起一个俗的名字叫元学习,如果要和计算机视觉对应,我们叫元认知。核心就是学习,不搞学习是不行的。


     

    杨睿刚

    我觉得机器视觉与生物视觉应该有区别,不一定机器视觉要学习生物视觉。举个例子,比如说看全局我要大照片,然后看局部我要小照片,但是如果你有一个摄像头,可以一下子拍10亿像素,或者有一个摄像装置能把光场记录下来,那active learning与passive learning就没有区别了。这种硬件区别至少在二维图像上,将来我觉得十亿像素应该是很快到来的事情。


     

    陈熙霖

    这个地方我补充一句,这里的主动不仅指分辨率,其本质是通过主动的“行为”进行探索,从而达到有限资源的最大化利用。


     

    杨睿刚

    你说的是一种主动感知的explore,还有一种不改变环境不改变物体的。


     

    陈熙霖

    即使是不做改变,比如从一个角度看和从另一个角度看,光场相机并不解决这类问题,我们无法获得对象背后的光场。


     

    杨睿刚

    光场相机阵列。


     

    林宙辰

    杨睿刚的意思是说干脆把所有的信息都采集了,这个机制还是有点不一样。

     

    王亦洲

    主动学习有一个停机问题,有一个选择的问题。就是说,你所有信息都在这儿,你什么时候停下来,你决定采哪一块,这是最重要的。所以主动学习,它并不是你把所有东西都拍上去,你也得要选择。


     

    杨睿刚

    选择的问题肯定要在里面,但是现在做主动学习肯定涉及到机器人等问题,超出了计算机视觉的范畴。


     

    王亦洲

    所以就不要抱着计算机视觉了,这个就是我的意思。


     

    胡占义

    主动学习这里面有两个概念。第一个是要有探索和注视,否则的话就没有主动性。第二个是记忆,主动视觉是从生物来的概念。在计算机视觉里面,主动视觉这个概念太大了。


     

    查红彬

    我想这里可以将主动视觉与深度学习进行对比。深度学习的问题在于要有标注数据库,需要事先整理好的数据。而视觉系统在实际场景中工作时,需要自己选择对自己有用的样本。这样,将样本选择与视点选择,结构重构,计算优化等策略结合起来,就能有效地发挥其主动性,而不需要让人把所有的数据都收集好喂给它。


     

    郑伟诗

    学习对视觉很重要。Benchmark推动也束缚了目前计算机视觉的发展,ReID做到97%,大家就想不到该做什么,但问题本身并没解决。数据库太有限,采集的东西没有完全反映整个问题,比如说行人的遮挡问题,各种各样的问题。在有限数据的时候,学习可能不能完完全全地解决它。有限数据下的学习,有没有可能受到3D方面的启发?把一个人整个3D的信息,还有行人整个行为的3D信息都能捕捉到的话,我们就可以去掉开放环境下所受到的这些影响,然后我们就可以重构。像我们可以构造一个靶场,这个靶场很重要,无论我们做任何的系统都要做测试,但如果只在有限数据上或片面的数据上做测试的话,我们在真实应用的时候可能就会有受限。因此如果我们能够把3D这种因素嵌入到现在以2D图像为主导的计算机视觉里面的话,可能会对我们整个计算机视觉在未来3到5年的发展能有另外一个维度的推动作用。

    那么为什么做3D?另外一件事情就是现在可能在全世界都在谈的数据隐私问题。数据采集的隐私问题越来越重要,如果你用的是一个虚拟的靶场的话,这种隐私问题就完全不存在。所以,在未来包括可能在国外人脸识别、行人识别,甚至一些行为识别都有可能会受到严重的法律因素的滞后的影响的话,那么我们更需要从3D的角度,从另外一个维度去考虑,是不是在这方面可以拓宽计算机视觉的发展方向,这是我的观点。 


     

    贾云得

    我们做视觉很早了,早先把它作为一条小河,我们流那么多年,突然下大暴雨,现在是洪水猛兽(深度学习)来了。五年以后估计这个模式都过去了。我觉得那条河还会在。因为,从视网膜到视皮层这条通路在那摆着呢,非常高效。因此,还会有好多人研究,五年十年以后我们中国实验室做什么?肯定还是小河里面。

    我看好两个方向。第一个是三维视觉,三维视觉不会很热,也不会很冷,会一直往下走。第二,就是胡老师说的视频理解。这个好几个老师也说了,多模态,就像我们看电影也是一样的,看会儿画面看字幕,看会儿字幕看画面,来回互相理解,现在好像挺热的。原来我们遇到的是数据-语义的鸿沟。后面我们在识别结果和意识间的鸿沟也会出现,一旦有鸿沟就变成热点,因为里边主观加的东西太多了。我觉得视频理解应该是一个热点。


     

    鲁继文

    我觉得我们现在用了很多机器学习的知识。下一步,我自己更愿意做一些特别的工作,就是从机器学习到机器推理。比如给你一幅图像,你一看就知道这个图像未来应该怎么样发展,但对于计算机再强的网络都不行。我觉得现在计算机视觉里面很多时候性能之所以好,是在于我们对这个问题的定义,在这种定义基础上已经基本上可以解决。现在我们可能要再去找一些更能够描述或者更能够匹配人类视觉能力的计算机视觉任务。现在比如说检测、分割、检索、识别,都是单独的视觉任务,这种单纯的视觉任务还是有点简单。当然有的老师可能有不同的观点,就是说他们的变化这种东西可能比较难。但实际上人的视觉更多的时候可能不是这样子的。所以,我觉得在计算机视觉里面一个很重要的问题是怎么样找到这样的任务,能够更好的与我们人类的视觉任务匹配起来,这样的任务既不能太难也不能太简单。这样的任务我觉得还需要我们多花时间去思考讨论,我自己也不知道是什么任务。


     

    王亮

    未来5到10年的CV发展趋势这个主题的主要目的是希望听听我们国内视觉界专家们的新见解。今天听了各位讲了很多,方方面面都有。如果说个趋势的话,每一个方面可能都会有一定的趋势,但大家的意见有不相同,也有相同的地方。这个主题的定位是希望通过这次的深度研讨梳理几个视觉领域中最重要的大家都认可的这样一个发展趋势,有不同的意见没有关系,而且这个讨论也是有交叉的。


     

    查红彬

    这种讨论我觉得挺好。讲一些发展趋势,然后大家能够有一些思想上的碰撞和火花。做视觉研究,大家在发展趋势上,如果有完全一样的看法会很奇怪。要整理出比较明确的发展趋势也很难。为什么呢? 谁要想做出很好的工作,他就应该有一些与别人不一样的看法,如果大家都是同样的看法,这事情就很难往下做。所以我觉得,我们更多的是通过交流各自的想法,启发我们自己能有一些新的思路,或者在我自己的这些想法上能找到一些更多的理由、依据,然后把这个事情做下去。所以我想通过这些讨论,更多的是咱们能不能将来在国际会议上,在研究成果方面,我们也有自己的一些特色在里边。到目前为止,我们写文章是在拼什么?就拼数据库测试上性能提高了百分之几,而且大多数是在别人方法上改进一下,然后做个实验说我提高了百分之多少。但是我们很少有说你的想法跟别人在什么地方不一样,然后你这个不一样的东西在某个地方用起来会有一些效果。一开始你可能效果会比较差,而且你也不容易轻松地打动别人,但是在你的带领之下很多人都会来做这个事情的时候就不一样了。所以我想说,能不能将来不是只盯着这个数据库上的数据去拼,而是有更多的比较好的创意出来。


     

    山世光

    是不是可以倡议建立一个只评价idea、方法原理,不评价在benchmark或者数据库上的好坏的审稿机制?


     

    陈熙霖

    胡老师刚才提到的1994年CVGIP组织的一个专刊中,当年提出了三个需要改进的方面,今天真正实现的只有一件——就是benchmark。那场讨论中说我们这个领域里的工作缺乏比较,自说自话,之后就产生了各种各样比较的数据集。所以我刚才有一句话,在过去近30年中Benchmark推动了计算机视觉研究的进步,就是指的那场讨论开始的。


     

    查红彬

    我同意你的观点。现在回过头来看看,计算机视觉研究了这么多年,也许就是在那些文章出来之后,我们再没有看到什么新的主意、新的理论出来了。在那之前百家齐放,好像有很多新的说法出来。在那个benchmark出来之后大家都在做同样的事情,最后整个领域就变得不怎么活跃了。


     

    胡占义

    我们既然研究计算机视觉,我建议大家读一读Marr的书。


     

    卢湖川

    刚才说到的benchmark,我觉得至少计算机视觉这个benchmark的存在,使得计算机视觉有别于纯粹的机器学习,而且特别是起到了该有的历史作用。现在大家对它的诟病最主要的原因就是它还是一个单一的benchmark。那只能说这个benchmark并不像人一样,那如果有人再去定一个更复杂的benchmark,它是多维的,也许这个benchmark就能够驱动下一个时代的发展,也许就能够完成像人一样的学习或者识别等等。我觉得benchmark本身并没有太大问题,因为人从小受教育的时候就是教他这是什么那是什么,只是人是一个综合的智能体。现在的benchmark如果再往更高的维度发展,也许能够有更好的收获。


     

    杨睿刚

    现在的benchmark太多了,哪些benchmark重要,哪些benchmark不重要,还有随之而来的各种各样的比赛,哪些是重要的,哪些不重要。在某种意义上是不是也跟大家说,我又拿了个世界第一,但可能这个世界第一里面只有十个人参加。那有没有一种方法可以有这样的一个更加好的量化机制,可以给benchmark一个benchmark。


     

    王井东

    Benchmark现在有个很大的问题是很多人做不了。Imagenet很多人做不了,那做不了从我们研究人员的角度来讲,就是文章可能出不去,这是一个可能不好的地方。 但从另外一个角度来讲benchmark挺重要的。视觉的任务目的很多,我们做视觉还有一个重要目的就是培养学生,那至于视觉培养学生这个功能可能是区别于其他的,比如Multimedia。Multimedia从培养学生的角度上我觉得是很好的。但它有个很大的缺点,是没有benchmark。从这个角度来讲benchmark还是需要的。只是现在审稿人对数据集的规模期望更大了,这对很多人来讲尤其是学校里面是很有挑战的,现在可能就少数几个公司比较强。这是我对benchmark的观点。


     

    王亦洲

    建议PRCV单开一个track,鼓励创新性。单开一个不看性能的track。


     

     

     

    展开全文
  • 计算机组成原理试题及答案 一填空 12 分 某浮点数基值为 2阶符 1 位阶码 3 位数符 1 位尾数 7 位阶码和尾数均用补码表示尾数采用规格化形式用十进制数写出它所能 表示的最大正数 非 0 最小正数 最大负 数 最小负数 ...
  • 计算机系统结构总复习

    万次阅读 多人点赞 2019-01-08 08:27:31
    计算机系统结构基础及并行性的开发 计算机系统的层次结构 通用计算机系统可以被可以被看出是按机器级划分的多层机器级组成的层次结构。 语言应用机器级 高级语言 汇编 操作系统 传统机器语言 微程序机器级 机器:...

    计算机系统结构基础及并行性的开发

    第一章计算机系统的层次结构

    考试已经结束,现在我把我们考试考得知识点用#标注,请注意这些点

    1. #考了选择题重点:通用计算机系统可以被看成是按机器级划分的多层机器级组成的层次结构。

    语言应用机器级
    高级语言
    汇编
    操作系统
    传统机器语言
    微程序机器级

    这个据说很重要,请牢记。

    机器:能存储和执行相应语言程序的算法和数据结构的集合体。
    实际上,只有二进制机器指令,即传统所讲的机器语言与机器硬件直接对应,方可直接被硬件识别和执行。

    1. 各机器级的实现主要靠翻译和解释或两者结合进行。
      翻译是先用转换程序将高一级机器级上的程序整个地变换成低一级机器级上等效的程序,然后再在低一级机器级上实现的技术。
      解释则是在低级机器上用它的一串语句或指令来仿真高级机器上的一条语句或指令的功能,是通过对高级的机器级语言程序中的每条语句或指令逐条解释来实现的技术。

    2. M0用硬件实现,M1用微程序实现,M2-M5用软件实现。(指的是上面的6层)

    计算机系统结构,组成,实现

    1. 透明:客观存在的事物或属性从某个角度看不到,简称其为透明。
      选择有可能!!

    2. 计算机系统结构指的是传统机器级的系统结构。它是软件和硬件的交界面,是机器语言,汇编语言程序设计者,或编译层序设计者看到的机器物理系统的抽象。出在传统机器语言与操作系统级之间。

    下面计算机系统,计算机组成,计算机实现的区别,还是要掌握,可能会选择题出现。特别是那个例子。

    1. 计算机系统结构的属性:

    数据类型及格式等的数据表示
    寻址方式
    通用寄存器的设置,数量,字长,使用约定。
    二进制或汇编的操作类型,格式,排序,控制机构。
    主存的最小编址单位,编址方式,容量,最大可编址空间。
    中断的分类与分级,中断处理程序功能及入口地址。
    管态和用户态的定义与切换。

    1. 计算机组成:指的是计算机系统结构的逻辑实现,包括机器级内部的数据流,和控制流的组成以及逻辑设计。着眼于机器级内部各事件的排序方式与控制机构,各部件的功能及各部件间的联系。

    解决的问题是在所希望达到的性能和价格情况下,怎样更好,更合理地把各种设备和部件组织成计算机,来达成所确定的系统结构。

    1. 计算机实现指的是计算机组成的物理实现,包括处理机、主存等部件的物理结构。

    2. 举例:

      * 是否要设乘法指令->计算机系统结构
      * 乘法指令是用专门的高速乘法器还是用加法器和移位器实现->计算机组成
      * 乘法器、加法器的物理显示,如器件的类型,集成度,数量的确定和选择->计算机实现
      
      1. 主存容量与编址方式的确定----系统结构
      2.主存速度的确定、逻辑结构的模式---组成
      3.器件的选定、电路的设计、组装技术---实现
      
    3. 冯•诺依曼计算机的特点主要有(没啥用):

      一、计算机有运算器、存储器、控制器、输入设备和输出设备五大部件组成,这五大部件是计算机不可或缺的部分,缺少了哪一个都无法正常工作。
      二、指令和数据以同等地位存放于存储器内,并可按地址访问。
      三、指令和数据均可用二进制表示。
      四、指令由操作码和地址码组成。操作码表示操作的性质、地址码表示操作数在存储器中的位置.
      五、指令在存储器中按顺序存放。通常,指令是顺序执行的。在特殊情况下,可根据运算结果或指定的条件来改变运算顺序。
      六、机器以运算器为中心。输入输出设备和存储器之间的数据传送通过运算器完成。

    4. ISA:指令集体系结构 Instruction Set Architecture
      总共要知道是什么东西

    计算机系统的性能评测

    这是知识总结挺好的一个网站,建议进去看看,这是一个大佬博客,比我讲的好,强烈建议进去看下。流水线—你理解多少?

    1. 计算机系统的性能指标体现于时间和空间两个方面
    2. Tcpu = IC * CPI*1/Fc
    3. #这三个公式考了一个大题,注意那些单位啊
    • MIPS:百万条指令数每秒 MIPS:百万条指令数每秒
    • CPI :每条指令执行的平均时间周期数=执行程序的时钟周期数/IC
    • IC:所执行的指令条数
    • IPS:每秒执行的指令条数
    1. 在这里插入图片描述

    2. 在这里插入图片描述

    3. 在这里插入图片描述

    4. 计算机系统的定量原理:

      哈夫曼压缩原理:尽量加速处理高概率事件
      Amdahl定律:系统加速比 Sp Sp = 1/(1-fnew)+fnew/rnew
      性能提高的幅度受限于性能改进部分所占的比例大小,而性能改善的极限又受限于性能可改进比fnew 的约束
      程序访问的局部性原理
      在这里插入图片描述
      典型例题:https://wenku.baidu.com/view/f6e65a77783e0912a2162ae6.html

    5. 仿真和模拟的主要区别:在于解释用的语言,仿真是用微程序解释,其解释程序存在于控制存储器中,而模拟是用机器语言程序解释,其解释程序存在于主存中。

    6. 在这里插入图片描述
      这里主要要注意的便是这个成本性能比。

    7. 计算机系统的性能评价:

      时钟频率
      指令执行速度
      平均速度
      核心程序法
      峰值速度
      

    在这里插入图片描述

    系统结构中的并行性开发及计算机系统的分类

    1. 并行性:包含同时性:指两个或多个事件在同一时刻发生。
      并发性:只两个或多个事件在同一时间间隔内发生。

    2. 并行性的等级:

      指令内部
      指令之间
      任务或进程之间
      作业或程序之间

    3. 并行性开发的途径:

      时间重叠:在并行性概念中引入时间因素,让多个处理过程在时间上相互错开,轮流重叠地使用同一套硬件设备的各个部分,以加快硬件周转而赢得速度。
      
      资源重复:在并行性概念中引入空间因素。通过重复设置硬件资源来提高可靠性或性能。
      
      资源共享:利用软件的方法让多个用户按一定时间轮流地使用同一套资源,以提高其利用率。
      

    4.多机系统的耦合度:

    最低耦合
    松散耦合
    紧密耦合

    1. 各个子系统通过数据总线连接形成的数据传送路径称为数据通路
    2. 流水线技术:把一个重复的过程分解成多个子过程,每个子过程由专门的功能部件来实现。把多个处理过程在时间上错开,依次通过各个功能段,每个子过程就可以与其他i子过程并行进行。
    3. 输入->取指->译码->访存->写回->输出
    4. 流水线的种类

    部件级
    处理机级
    系统级

    在这里插入图片描述

    1. 在这里插入图片描述
      各段不相等时
      Tp = n/(所有段的和+(n-1)*max(每一段的值))
    2. 在这里插入图片描述
    3. 在这里插入图片描述

    第二章 数据表示,寻址方式与指令系统

    1. 浮点数

    2. 寻址方式

    3. 指令系统中指令的编码方法

      • 正交法
      • 整体法
      • 两者 混合法
    4. 在CPU中是以何种方式来存储操作数的。

      • 堆栈型
      • 累加器型 A
      • 通用寄存器型
    5. 编译优化的技术。

      • 使用大量寄存器,优化寄存器的分配和使用,提高效率,减少访存次数。
      • 减少局部变量和工作变量的中间传递,
      • 优化调整指令的执行次序,减少机器的空等时间。
    6. ##这个也考了一题大题。题目出现了指令Cache,和数据Cache。注意里面那个容量的计算,要先换算成为kbit,才可以。在这里插入图片描述
      Cache的容量=Cache的行数*(有效位+主存标识位的位数)+Cache数据区容量的大小*8
      这里算出来是kbit,你要总体再除以8,就算出有多少个字节了。
      主存标记位的位数的计算的话,要看你是直接映射,还是组相连映射,还是全相联映射。
      直接映射跟组相连的没啥差别,都是[有效位,标记,cache索引,块内地址]
      而全相联的则是[有效位,块内地址],有不同噢!

    地址的映象
    地址的映象:是将每个主存块按某种规则装入Cache,并建立主存地址与Cache地址之间的对应关系。
    地址的变换:是主存块按照这种映象关系装入Cache后,每次访Cache,如何将主存地址变换成Cache地址。

    9.命中率与地址流,预判算法,容量有关。

    遇到的一些问题

    1. 考了浮点数那边要注意一些基本问题,比如基数的改变,阶码的改变会造成什么后果。
      在这里插入图片描述
      就类似于这种题目.
      阶符是当一个数用科学计数法表示时,它的指数的符号,指数是正还是负,正负号就是阶符,阶码在机器中表示一个浮点数时需要给出指数,这个指数用整数形式表示,这个整数叫做阶码,阶码指明了小数点在数据中的位置 数符就是数字符号的简称 在浮点数中

    2. 重复设置瓶颈段,还有就是细分,都要掌握。 在这里插入图片描述
      这题就没啥办法了,自己多画几遍就好了。

    3. 有一个Cache—主存存储层次,主存共8块,Cache共4块,采用组相联映像,每组2块,LRU替换算法。(这个的图不需要把最新的往最上面提,不像题目有堆栈的话语的那种,见下面的第四点)
      1)对地址流124137012546472使用情况;
      2)指出块失效同时块争用的时刻
      3)求出命中率。
      在这里插入图片描述

    4. 注意两种题目的不同:

    • 执行的页地址流为****,若分配给该道程序的主存有3页,这种题目,最新的那个块不用往最上面提。
    • 另一种是,页地址流采用LRU算法进行堆栈处理的St变化过程。
    1. 有如下页面地址流:2,1,3,1,4,2,5,3,2,1,2,3,4,1,5利用堆栈技术一次模拟LRU在n=3,4,5条件下页面变化时空图,同时分别指出命中的页面以及计算它们各自的命中率。

    2. 在这里插入图片描述

    3. 在这里插入图片描述
      ##上面这题考了,命中率,要注意。

    4. 在这里插入图片描述
      这里要稍微注意那个主存块号->转换成Cache行号

    5. 在这里插入图片描述

    6. 在这里插入图片描述在这里插入图片描述
      解析:#这题也考了注意这题的a[][]是short类型的,是两个字节的。参照上面的解题思路,a[0][0]所在的主存号为:3200/64 = 50
      因为是2路组相联,所以,50mod 8 =2,就是Cache的行号了。
      接下来,算访问次数:256256 = 64k
      缺失次数(总块数):64k
      (2B/64B) = 2K;
      缺失率:2K/64K = 1/32
      所以,命中率31/32

    7. 在这里插入图片描述

    8. 在这里插入图片描述
      解析:##考的不是这种类型,是工作速率的
      该通道完成一个字节的传送需:9.8+0.2 = 10us
      为保证传输可靠性,不丢失数据,此通道至多可接500/10 = 50台设备
      对于A-F六种告诉设备,该通道一次传送数据的时间为:9.8+0.2*1024 = 214.6us
      上述设备发送1024字节数据的申请时间间隔分别为:
      204.8 256 512 194.56 409.6 215.04
      所以,B,C E,F可挂在该通道上,A ,D不能。

    9. 在这里插入图片描述

    10. 一些题目:https://max.book118.com/html/2016/1207/69323539.shtm

    在这里插入图片描述

    1. 比较好的一些题目集:计算机系统结构 学习笔记(期末复习总结)强烈推荐这个,考了很多大题

    在这里插入图片描述

    在这里插入图片描述
    这里的处理方法是:1+6+1+1+7+1+31 = 16+N
    相关的一些链接:系统结构_06_向量处理机指令技术
    考了一个大题,怪我没理解好。注意那种连续链接的
    20.
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    ##考了类似这种题目,要画时空图,别以为它不会考,掌握把。

    选择题

    1. 在这里插入图片描述
    2. 类似选择题有考

    在这里插入图片描述
    4. 在这里插入图片描述
    5. 在这里插入图片描述
    6. 在这里插入图片描述
    7. 在这里插入图片描述
    8. RISC是一种执行较少类型计算机指令的微处理器。
    9. 在这里插入图片描述
    10. 在这里插入图片描述
    11. **加粗样式**
    12. 在这里插入图片描述
    13. cache的总容量是cache每行的数据存储大小+tag位+数据是否有效位+其他一致性控制位。
    14. 在这里插入图片描述
    15. 在这里插入图片描述
    16. 在这里插入图片描述
    17. 在这里插入图片描述
    18. 在这里插入图片描述
    19. 在这里插入图片描述
    20. 选择题考了

    • 总线控制方式有串行链接、定时查询和独立请求3种。总线控制方式有串行链接、定时查询和独立请求3种。
      串行链接需增加3根控制线,优先级线连固定,无灵活性;
      定时查询需增加2十「log2N」根控制线,优先级可用程序改变,灵活;
      独立请求需增加2N+l根控制线,优先级可用程序改变,灵活。在这里插入图片描述

    在这里插入图片描述

    对复习提纲的总结

    1. CA, CA与CO ,CI 三者的相互影响?
    • CA也称为计算机系统的体系结构,它是指机器语言程序的设计者和编译程序的设计所看到的计算机系统的概念性结构和功能特性。
    • CO指的是计算机系统的逻辑实现,包括机器级内的数据流和控制流的组成和逻辑设计。
    • CI值得是计算机组成的物理实现。包括一些主存,处理机等部件的物理结构。
    1. 计算机系统的设计思路?
    • 从上往下:专用机 设计周期太长。
    • 从下往上:通用机->缺点,机器的性能指标虚假。
    • 从中间向两边:通用机->克服上面的缺点,克服软硬件设计分离和脱节的致命缺点,同时要求设计者同时具备丰富的软硬件和应用等方面的知识。
    1. 软件可移植的方法
    • 统一高级语言
    • 采用系列机
    • 模拟和仿真
    1. 并行性的含义
    • 我们把解题中同时进行运算或操作的特性,称为并行性。
    • 同时性:
    • 并发性:
    1. 并行性的级别
    • 指令内部
    • 指令外部
    • 进程与任务之间
    • 程序与作业之间
    1. 并行性开发的3种途径,##考了填空,太气了,记反了
    • 时间重叠
    • 资源重复
    • 资源共享
    1. FLnn分类法
    • SISD
    • SIMD
    • MISD
    • MIMD
    1. CA的层次
      六级 M0->M5
    2. 扩展操作码
      界于定长和全哈夫曼编码之间
      **特点 **:常用的代码短,不常用的代码长
    3. RISC和CISC的原则,特点,比较。
      在这里插入图片描述
    • RISC
      原则:
      1、确定指令系统时,只选择使用频度很高的那些指令,一般不超过 100 条。
      2、大大减少指令系统可采用的寻址方式的种类,一般不超过两种。
      3、让所有指令都在一个机器周期内完成。
      4、扩大通用寄存器的个数,以尽可能减少访存操作
      5、为提高指令执行速度,大多数指令都采用硬联控制实现, 少数指令采用微程序实现。
      6、以简单有效的方式来支持高级语言的实现。
      特点:
      1、有限、简单的指令集
        2、CPU配备大量的通用寄存器
        3、强调对指令流水线的优化
        4、使用等长指令(即:不需要解析指令)
        5、寻址方式少,绝不出现存储器间接寻址
        6、指令集中指令数一般少于100条,指令格式少于4种
      7、指令功能简单,控制器多采用硬布线方式等。
      比较
      从硬件角度来看CISC处理的是不等长指令集,它必须对不等长指令进行分割,因此在执行单一指令的时候需要进行较多的处理工作。而RISC执行的是等长精简指令集,CPU在执行指令的时候速度较快且性能稳定。因此在并行处理方面RISC明显优于CISC,RISC可同时执行多条指令,它可将一条指令分割成若干个进程或线程,交由多个处理器同时执行。由于RISC执行的是精简指令集,所以它的制造工艺简单且成本低廉。
      从软件角度来看,CISC运行的则是我们所熟识的DOS、Windows操作系统。而且它拥有大量的应用程序。因为全世界有65%以上的软件厂商都基于CISC体系结构的PC 及其兼容机服务的,象赫赫有名的Microsoft就是其中的一家。而RISC在此方面却显得有些势单力薄。虽然在RISC上也可运行DOS、 Windows,但是需要一个翻译过程,所以运行速度要慢许多。
    1. 浮点数的几个结论,考了
    • 阶码与表示数的范围有关
    • 尾数与表示数的精度有关
    1. ** 整数边界的处理**
    2. 大端小端,#考了
      在这里插入图片描述
    3. 在流水解释过程中可能会出现三种相关,这三种相关是资源相关、数据相关和控制相关。
    4. 数据相关
    • 读后写
    • 写后读
    • 写后写
    1. 数据相关的基本解决方法
      (1)推后相关单元的读。
      (2)设置相关专用通路,又称采用定向传送技术。
      (3)依靠编译器解决数据冲突 :让编译器重新组织指令顺序来消除冲突,这种技术称为指令调度或流水线调度。
    2. 向量链接技术的条件
    • 具有先写后读相关的两条指令
    • 在不出现功能部件冲突和源向量冲突的情况下
    1. 计算机存储系统三个基本参数
    • 存储容量S
    • 存储速度T
    • 存储价格C
    1. 存储系统的层次结构

    通用寄存器
    高速缓冲存储器
    主存储器
    辅助存储器
    脱机大容量存储器
    20.影响命中率的因素

    • 地址流
    • 预判算法
    • 主存容量
    • 页面大小
    • 页面调度方式
    1. 虚存与缓存层次的不同比较在这里插入图片描述
    2. 3种虚存管理方式的异同
    • 段式管理:按程序的逻辑功能来划分
    • 页式管理:按主存空间与虚存空间按固定的大小划分成块
    • 段页式管理 :将虚拟存储空间按段式管理,而主存空间按页式管理,存在虚空间的程序按逻辑关系分段,每一段又可分为固定大小的页。主存则只分为若干大小相同的页。
    1. 几种RAID的技术,用途。
    • RID0:数据以条带方式均匀的分散在各个磁盘上。2个或更多
    • RID1:数据以镜像为冗余方式,同一份数据有多份拷贝。2N个
    • RID3/4:数据按条带方式并行传输给各个成员磁盘上,同时计算XOR校验数据存放到专用的校验磁盘上。 3个或更多
      *RID5:数据以条带方式均匀的分散在各个磁盘上,校验信息被均匀的分配到各个磁盘上。最低位3个。
    1. 总线控制方式3种
    • 程序控制输入输出
    • 直接存贮器访问
    • I/O处理机方式
    1. 通道处理机工作原理
      通道方式的输入输出过程:
      1.用户在目态中安排广义I/O指令(包括访管指令和参数)
      2.当目态程序执行在访管指令后,产生访管中断。
      3.CPU响应中断,第一次转管态,运行目态程序
      4、编制通道程序,管理程序
      5、执行“启动”I/O‘指令选择通道,校验第一条通道指令格式,选择设备并启动通道及设备。
      6、通道启动后,
      1)CPU退出管态,运行目态程序
      2)通道与设备开始传送数据
      7、通道传送结束,向CPU发I/O中断。
      8.CPU响应中断,第二次转管态,对刚才的通道做”善后“处理
      9.返回目态,运行目态程序。
      在这里插入图片描述
      在这里插入图片描述
      在这里插入图片描述
      主要状态转换:
      1、进管态,编制通道程序(目——管态)
      2、启动,选择设备期(管态——目态)
      3、数据传送期(目态)
      4、传送结束,中断(管态——目态)
      只需两次转管,系统多个通道,多种外设可充分并行
    2. 通道流量分析原则
    • 一个通道在数据传送期间,单位时间内能够传送的数据量。所用单位一般为B/s。 又称为通道吞吐率、通道数据传输率等。
    • 通道最大流量
    • 一个通道在满负荷工作状态下的流量 。

    最后,祝大家考试顺利,考的都会,蒙的全对。一定要注意,每个题型都要打牢靠,不然稍微一变,你会发现,你就gg了。
    这里贴出我的复习资料,需要的同学自行下载。https://download.csdn.net/download/weixin_38809485/10936505

    展开全文
  • 详解NVMe SSD存储性能影响因素

    千次阅读 2018-11-03 07:21:50
    导读: NVMe SSD的性能时常捉摸不定,为此我们需要打开SSD的神秘盒子,从各个视角分析SSD性能影响因素,并思考从存储软件的角度如何最优化使用NVMe SSD,推进...
  • 随机分组主要目的是保证临床试验组间基线特征分布均衡,以最大限度控制干扰因素影响,更科学地估计干预效应。随机分组方法可分为简单随机分组、区组随机分组、分层随机分组和动态随机分组。简单随机分组和区组随机...
  • 计算机组成原理:最详细笔记

    万次阅读 多人点赞 2021-01-21 14:26:44
    参考:《王道计算机组成原理》学习笔记总目录+思维导图 2019 王道考研 计算机组成原理 第一章 计算机系统概述 1.1 计算机发展历程 1.1.1 计算机硬件的发展 计算机系统=硬件+软件 计算机硬件的发展: 第一代计算机...
  • 所以说,码率的变化,在没有假设某些因素不变的情况(如分辨率不变的情况)下,视频的质量的影响是从流畅度和清晰度两方面考虑的。 在视频帧率和分辨率不变的情况下,如何降低码率? 这里,我猜测的是通过减小位深...
  • 计算机网络》谢希仁第七版课后答案完整版

    万次阅读 多人点赞 2020-07-07 15:16:35
    计算机网络》谢希仁第七版课后答案完整版
  • 【Mark】计算机组成原理

    千次阅读 2020-02-18 10:53:49
    1.计算机系统概论 (贯穿本书) 2.计算机的发展及应用 (非重点) 3.系统总线 4.存储器 6.计算机的运算方法 7.指令系统
  • 计算机组成原理 --- 数据信息的表示

    千次阅读 2020-04-23 13:34:33
    计算机内部流动的信息可以分为两大类:一类是数据信息,另一类为控制信息。 数据信息是计算机加工处理的对象,而控制信息则控制数据信息的加工处理。 2.1 数据表示应考虑的因素 2.2 数值数据的表示 2.3 非数值数据的...
  • 计算机网络(第8版)笔记

    千次阅读 多人点赞 2021-12-09 22:08:52
    1.1 计算机网络在信息时代的作用 21世纪的一些重要特征:数字化、网络化、信息化 21世纪,是一个以网络为核心的信息时代 三大网络:电信网络、有线电视网络、计算机网络 电信网络最初的作用:向用户提供电话、电报...
  • 量子计算机研究进展

    千次阅读 2022-01-14 08:35:39
    量子计算机研究进展 人工智能技术与咨询 来自《南京邮电大学学报(自然科学版)》,作者郭光灿等 摘要:量子计算机是未来量子技术时代最具颠覆性的技术,文中将以量子计算机的诞生、工作原理和在世界范围内的发展...
  • 公务员考试计算机类专业

    千次阅读 2021-07-28 11:17:36
    存储原理及基本知识:当前流行的计算机系统中,广泛采用由三种运行原理不同、性能差异很大的存储介质,来分别构建 高速缓冲存储器 、主存储器和虚拟存储器 ,再将它们组成通过计算机硬软件统一管理与调度的三级结构...
  • 邱桂香老师-计算机基础.ppt

    千次阅读 2021-07-15 06:47:54
    邱桂香老师-计算机基础信息学竞赛基础知识 ;你给自己的定位如何?;奥赛辅导工作最重要的是什么?;我们很执着;初赛试题结构;第一部分; 一、计算机的发展与应用;1、下面列出的四项中,不属于计算机病毒特征的是( ) A....
  • 计算机保研夏令营准备流程建议

    万次阅读 多人点赞 2019-10-07 19:30:21
    计算机保研准备流程建议写在前面一、什么时候开始准备?准备的流程是什么?二、如何确定自己的读研意向及方向?建议完成时间:大三上学期是否读研?读研类型?读研方向?三、如何确定目标院校和招生途径?建议完成...
  • 如图 同样一部手机上的截图 最小的只有60多kb 最大的在1mb以上 这跟哪些因素有关?(图片为网上随便找的) 有时,人肉眼认为没有区别的两张照片,但是存储的大小差别会很大(例如一个200kb,一个2000kb) 分辨率 ...
  • 大学计算机基础选择题汇总

    千次阅读 2021-06-25 08:45:20
    《大学计算机基础》练习题3 C) 各种工具软件 D) 操作系统 【80】微型计算机的主机包括 A) 运算器和控制器 B) 运算器、控制器和硬磁盘存储器 C) CPU 和内存储器 D) CPU 和键盘 【81】 计算机字长取决于哪种总线的宽度...
  • 计算机网络期末总结

    千次阅读 多人点赞 2021-01-10 13:09:41
    写在前面 作者:夏日 ...题型及复习说明 题型及分值分布 一、单选题(本题共10题,每题2分,共20分) 二、填空题(本题共10题,每题2分,共20分 三、问答题(本题共5题,每题6分,共30分) ...2.计算机网络两种通信方式
  • 计算机组成原理(哈工大)学习笔记

    万次阅读 多人点赞 2020-07-08 08:10:46
    文章目录计算机组成原理一、计算机系统概论1.1计算机系统简介一、计算机的软硬件概念二、计算机系统的层次结构三、计算机体系结构和计算机组成1.2计算机的基本组成1.3计算机硬件的主要技术指标一、机器字长二、运算...
  • 计算机发展极简入门

    千次阅读 2020-07-30 11:09:07
    计算机技术的进步几乎影响着社会的方方面面,硬件的进步使得程序员可以编写出各种各样优秀的应用软件。也许不久的将来虚拟现实、无人驾驶、无现金支付就会成为现实。 计算应用分类 计算机从用途上来讲主要分为三种:...
  • 计算机网络按拓扑结构分为哪些

    千次阅读 2021-06-16 12:10:33
    计算机网络按拓扑结构分为:星型拓扑结构、总线拓扑结构、环型拓扑结构、树型拓扑结构、混合型拓扑结构、网型拓扑结构、开关电源拓扑结构。其中,星型网络拓扑结构是应用最广泛的一种网络拓扑结构。本教程操作环境:...
  • 第1章 计算机基础知识

    千次阅读 多人点赞 2021-03-14 16:02:33
    (1)计算机的基本概念 考试内容 计算机的发展过程、分类、应用范围及特点;信息的基本概念。 考试要求 了解计算机的发展过程; 了解计算机的分类; 了解计算机的主要用途; 了解信息的基本概念。 (2)...
  • 计算机硬件性能指标

    千次阅读 2019-09-25 19:36:29
    计算机包括软件和硬件,它们各自都有自己评价的指标。这里主要讨论硬件指标。衡量计算机硬件性能的指标常有机器字长、存储器容量、运算速度、浮点运算能力等。 机器字长 我们经常听到32位CPU或者64位CPU。这里的32...
  • 首先分析影响来波极化估计稳定性的因素,针对具体的天线型式给出病态情况下的计算机仿真结果,推导了带二次约束的极化估计最小二乘解并给出了算法流程.仿真结果表明了改进极化估计均方误差的有效性,该方法可显著提高...
  • 2022年硕士研究生408计算机学科考试大纲原文 I 考试性质 ​ 计算机学科专业基础综合考试是为高等院校和科研院所招收计算机科学与 技术学科的硕士研究生而设置的具有选拔性质的联考科目,其目的是科学、公平、 有效...
  • 计算机网络(自顶向下方法)学习笔记

    万次阅读 多人点赞 2019-03-24 21:20:07
    第一章 计算机网络和因特网 1.1 什么是因特网 1.1.1 组成描述 1.1.2 服务描述 1.1.3 协议 1.2 网络的边缘 1.2.1 接入网 1.2.2 物理媒体 1.3 网络核心 1.3.1 分组交换 1.3.2 电路交换 1.3.3 分组交换和...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 46,902
精华内容 18,760
关键字:

对计算机影响最小的因素