精华内容
下载资源
问答
  • 计算机内部各硬件详解

    千次阅读 2018-10-27 00:07:08
    一般我们所说的电脑指的是x86架构的个人计算机。 x86CPU有两大主流开发商(Intel,AMD),他们彼此不兼容,而且设计理念也有所区别,因此其主板芯片组设计也不太相同。 整个主板上面最重要的就是芯片组,Intel芯片...

    一般我们所说的电脑指的是x86架构的个人计算机。
    x86CPU有两大主流开发商(Intel,AMD),他们彼此不兼容,而且设计理念也有所区别,因此其主板芯片组设计也不太相同。
    整个主板上面最重要的就是芯片组,Intel芯片组通常又分为两个桥接器来控制各组件的通信,分别是:

    • 北桥负责连接速度较快的CPU、内存与显卡等组件
    • 南桥负责连接速度较慢的周边接口,包括硬盘、USB、网卡等。

    AMD芯片组的架构与Intel不同的地方在于,内存是直接与CPU通信而不通过北桥。CPU的数据主要来源就是内存,CMD加速这两者的通信,将内存控制组件集成到CPU中,理论上可以加速CPU与内存的传输速度。这是两种CPU在架构上面最主要的区别。
    主板上主要的组件为CPU、内存、磁盘设备、总线芯片组(南/北桥)、显卡接口与其他适配卡。

    CPU

    CPU负责大量的运算,会散发出大量的热。如果你曾拆过主板,应该会看到CPU上面会装一个风扇散热。并且CPU与风扇衔接处还会有硅脂散热膏。
    单核CPU只有一个运算单元,所谓的多核就是在一个CPU中嵌入两个以上的运算内核,简单来说,就是一个实际的CPU外壳内有多个CPU单元。
    不同的CPU型号具有不同的脚位(针脚),针脚限制了CPU所能匹配的主板,所以当你买主板的时候,不仅要考虑CPU,还要考虑CPU的型号是否匹配主板

    频率就是CPU每秒钟可以进行的工作次数。频率越高,CPU单位时间内可以执行的指令就更多。例:一个3.0GHz的CPU,一秒钟可以进行3.0 x 10^9次工作。
    注意:不同的CPU之间不能单纯的以频率来判断运算性能,因为每个CPU的微指令集不同,架构也不相同,每次能够工作的微指令个数也不同,所以,频率只能用来比较同款CPU的速度

    • 外频
      外频指的是CPU与外部组件进行数据传输/运算时的速度
    • 倍频
      倍频是CPU内部用来加速工作性能的一个倍数

    外频与倍频相乘,得到的就是CPU的频率。拿刚才的例子来说,一个3.0GHz的CPU,假设其外频为333MHz,那么它的倍频就是9倍。

    • 超频
      超频指的是:将CPU的倍频或者外频通过主板的设定功能更改成较高频率。因为CPU的倍频在出厂时就已经锁定无法修改,所以通常超频为修改外频。超频对CPU负荷较大,请谨慎使用。

    32位与64位

    前面我们提到过:CPU的数据是由内存提供的,内存与CPU之间的通信速度靠的是外频,每次工作可以传送的数据量与总线有关,一般主板芯片组分为南/北桥(以Intel CPU为例,其主板是有南/北桥的),北桥的总线称为系统总线,连接内存与CPU,是传输数据的信道,所以速度较快,南桥就是输出(I/O)总线,主要用于连接硬盘、USB、网卡等接口。
    北桥支持的频率从低到高不等,北桥所支持的频率通常称之为前端总线速度(FSB),每次传送的位数称为总线宽度。总线频宽是FSB与总线宽度的乘积,也就是每秒钟可以传送的最大数据量。总线宽度分为32/64位(bit)两种。
    例如:一个北桥频率为1600MHz,64位CPU的主板每秒钟最大传输数据量为:1600MHz x 64bit = 12.8GB/s
    CPU每次能够处理的数据量称为字组大小,字组大小依据CPU的设计分为32位与64位两种,我们现在所说的32位或64位主要就是说的CPU能处理的字组大小。早期的32位CPU每次能够解析的数据量有限,所以内存传来的数据就会被限制,所以32位CPU最大支持4GB内存。再大的内存没有意义。

    字组大小与总线宽度可以是不相同的,一个32位的CPU可以设计出64位的总线宽度。如果是这样的设计,我们通常以CPU的字组大小来称呼该CPU的架构。

    内存

    台式机主板上一般都有四个内存插槽。内存插槽中间通常有个突起物将整个插槽分为两个不等长的距离,这样用户在插内存条时就不会出现前后脚位安插错误的情况了。
    个人计算机的内存主要组件为动态随机访问内存(Dynamic Random Access Memory,DRAM),这种内存只有在通电以后才能记录与使用,断电后数据立即消失。我们也称这种RAM为挥发性内存。
    我们平时所说的DDR内存中DDR的意思是双倍数据传送速度(Double Data Rate),它可以在一次工作周期中进行两次数据的传送,感觉上就是CPU的倍频。
    内存的性能包括频率/频宽与容量,内存容量够大,才能将一个较大的数据完整加载,能同时启动更多的程序。内存越大表示系统越快,这是因为系统不用常常释放一些内存内部的数据。对服务器而言,内存的容量有时比CPU的速度还要重要一些。

    • 双通道设计
    • 所有需要使用的数据都必须要存到内存中,所以,内存的数据宽度越大越好。传统的总线宽最高达64位,双通道的设计就是为了加大总线宽,可以把两个内存的线宽加起来,形成128位的总线宽。
    • 启用双通道的功能必须要安装两条以上的内存,这两条内存最好型号一模一样,这是因为启用双通道功能时,数据是同步写入/读取这一对内存中,如此才能提升整体的频宽。
    • 主板上的内存槽一般是分为两种颜色的,只有将两根内存条插入同一颜色的内存槽中,才能启用双通道功能。
    • CPU频率与内存的关系

    理论上,CPU与内存的外频应该相同才好。

    • 只读存储器(ROM)
    • 主板上面的组件是非常多的,每个组件的参数又具有可调整型。栗子:CPU与内存的频率是可以调整的;主板上面如果有内置的网卡或显卡时,该功能是否启动与该功能的各项参数被记录到主板上面的一个叫CMOS的芯片上,这个芯片需要借助额外电源来供电,这就是主板上也会有一个电池的缘故。
    • 我们都知道BIOS吧,BIOS是一套程序,这套程序是写死在主板上的一个内存芯片中,这个内存芯片在没有通电也能将数据记录下来,这就是只读存储器(ROM)。BIOS对日常家用电脑来说是非常重要的,因为它是系统在开机的时候首先会去读取的一个程序
    • BIOS对计算机系统来讲是非常重要的,因为它掌握着系统硬件的详细信息与开机设备的选择。BIOS也是需要不断更新的,你可以在很多主板官网找到BIOS的更新程序。以前的BIOS是使用的无法改写的ROM,因此无法修改BIOS程序代码。所以,现在的BIOS通常是写入闪存或EEPROM。

    显卡

    显卡又称为VGA(Video Graphics Array),它的主要作用就是显示图形影像。一般对于图像的显示重点在于分辨率与色彩深度,因为每个图像显示的颜色会占用内存,所以显卡上会有一个内存的容量,这个显卡内存容量将会影响到屏幕分辨率与色彩深度。
    显卡主要是通过北桥芯片与CPU、内存等通信。如前面提到的,对于图形影像来说,显卡是需要高速运算的一个组件,所以数据的传输也是越快越好。

    假设你的桌面使用1024x768分辨率,且使用全彩(每个像素占用3B的容量),那么总共需要2.25MB以上的显卡内存(1024x768分辨率共有786432个像素)。如果考虑屏幕的刷新率,显卡的内存最好还是大一点。

    硬盘与存储设备

    计算机是需要记录数据的,内存是挥发性存储设备,如果我们将数据存储在内存中,断电数据就会丢失,所以我们需要一种可以持久化存储的设备来帮我们记录数据。计算机上面的存储设备包括硬盘、软盘、MO、CD、DVD、磁带机、U盘等,其中最常见的存储设备就是硬盘了。

    硬盘是由许多的盘片、机械手臂、磁头与主轴马达所组成的,数据都是记录在具有磁性物质的盘片上,而数据的读取是通过机械手臂上的读取头(磁头)来完成的。当硬盘工作时,主轴马达让盘片转动,机械手臂伸展,磁头在盘面上空进行读与写的操作。单一盘片的容量非常有限,所以大部分硬盘内部会有两个以上的盘片。

    硬盘物理结构
    我们看下面的图,硬盘所记录的数据都是写在盘片上,那么数据是如何写入盘片上的呢? 盘片就像是多个同心圆绘制出的一个大圆,由圆心以放射状方式分割出磁盘的最小存储单位叫做扇区,每个扇区的大小为512bytes,这个值是不会改变的。由一圈扇区组成的圆叫做磁道,我们说过,硬盘中有至少两个以上的盘片,所有的盘片上面的同一个磁道组成一个柱面,柱面是我们分隔硬盘时的最小单位。

    了解:
    计算硬盘存储量:磁头数量 x 每个磁头负责的柱面数量 x 每个柱面所含有的扇区数量 x 扇区容量(512bytes)。

    盘片的存储数据结构

    选购磁盘时应注意哪些:

    • 容量
      磁盘是一种消耗性用品,目前来说,一部1080P电影大概2G,如果你要玩大型游戏可能一个游戏就要30G的硬盘空间。一定要挑选一个适合自己的磁盘容量。磁盘内的重要数据还要定期备份
    • 转速
      转速影响着CPU从硬盘读取数据的速度,我们知道,CPU的运行速度是非常快的,从硬盘读取数据的速度严重影响着CPU的工作效率。

    了解:
    平均寻道时间是指硬盘在接收到系统指令后,磁头从开始移动到移动到数据所在磁道所需要的平均时间,它是指计算机在发出一个寻址命令,到相应目标数据被找到所需时间,单位为毫秒(ms)。在寻道时间内,足够CPU进行几十万条指令。所以说,I/O操作会影响CPU的工作效率。

    展开全文
  • 计算机硬件概述

    千次阅读 2019-09-15 14:57:43
    第二节:计算机硬件基础2.1 冯诺依曼结2.2 巧记计算机硬件2.3 计算机硬件实物图解2.3.1 cpu2.3.1.1 CPU的分类2.3.1.1.1 精简指令集2.3.1.1.2 复杂指令集2.3.1.2 CPU历史2.3.1.3 控制器2.3.1.4 处理器设计的演变2.3....

    第二节:计算机硬件基础

    2.1 冯诺依曼结构

    冯诺依曼
    1944年,冯·诺伊曼参加原子弹的研制工作,该工作涉及到极为困难的计算。在对原子核反应过程的研究中,要对一个反应的传播做出“是”或“否”的回答。解决这一问题通常需要通过几十亿次的数学运算和逻辑指令,尽管最终的数据并不要求十分精确,但所有的中间运算过程均不可缺少,且要尽可能保持准确。他所在的洛·斯阿拉莫斯实验室为此聘用了一百多名女计算员,利用台式计算机从早到晚计算,还是远远不能满足需要。无穷无尽的数字和逻辑指令如同沙漠一样把人的智慧和精力吸尽。

    被计算机所困扰的诺伊曼在一次极为偶然的机会中知道了ENIAC计算机的研制计划,从此他投身到计算机研制这一宏伟的事业中,建立了一生中最大的丰功伟绩。

    1944年夏的一天,正在火车站候车的冯·诺伊曼巧遇戈尔斯坦,并同他进行了短暂的交谈。当时,戈尔斯坦是美国弹道实验室的军方负责人,他正参与ENIAC计算机的研制工作。在交谈在,戈尔斯坦告诉了冯·诺伊曼有关ENIAC的研制情况。具有远见卓识的冯·诺伊曼为这一研制计划所吸引,他意识到了这项工作的深远意义。

    冯·诺依曼由ENIAC机研制组的戈尔德斯廷中尉介绍参加ENIAC机研制小组后,便带领这批富有创新精神的年轻科技人员,向着更高的目标进军.1945年,他们在共同讨论的基础上,发表了一个全新的"存储程序通用电子计算机方案"–EDVAC(Electronic Discrete Variable Automatic Computer的缩写).在这过程中,冯·诺依曼显示出他雄厚的数理基础知识,充分发挥了他的顾问作用及探索问题和综合分析的能力。诺伊曼以“关于EDVAC的报告草案”为题,起草了长达101页的总结报告。报告广泛而具体地介绍了制造电子计算机和程序设计的新思想。这份报告是计算机发展史上一个划时代的文献,它向世界宣告:电子计算机的时代开始了。

    EDVAC方案明确奠定了新机器由五个部分组成,包括:运算器1、逻辑控制装置2、存储器3、输入4和输出设备5,并描述了这五部分的职能和相互关系.报告中,诺伊曼对EDVAC中的两大设计思想作了进一步的论证,为计算机的设计树立了一座里程碑。

    EDVAC设计思想之一是二进制,他根据电子元件双稳工作的特点,建议在电子计算机中采用二进制。报告还提到了二进制的优点,并预言,二进制的采用将大简化机器的逻辑线路。
    在这里插入图片描述

    2.2 巧记计算机硬件

    计算机是人的奴隶,可以将其当作一个人去看,请思考下述组件等同于人的哪些器官:

    控制器+运算器=CPU,CPU、内存(主存储器)以及其他I/O设备都由一条系统总线(bus)连接起来并通过总线与其他设备通信
    现代计算机的结构更复杂,包括多重总线,后面会讲到
    在这里插入图片描述

    将计算机类比为人
    上课开始,老师讲课,学生听课,老师是程序员,学生是计算机,学生的器官都是计算机各部分组成

    1.你通过耳朵接收老师讲的知识->输入
    输入设备是耳朵或眼睛或嘴巴,负责接收外部的信息存入内存

    2.通过自己的神经,将接收的数据存入自己的内存/短期记忆(总线、内存)
    内存是人的记忆,负责临时存储

    3.光听不行,你还需要反应/处理老师讲的知识,于是你的大脑/cpu从短期记忆里取出知识/指令,分析知识/指令,然后学习知识/执行指令 (cpu取指、分析、执行)
    cpu是人的大脑,负责控制全身和运算

    4.你通过作业或者说话输出你学到的结果
    输出设备是你的脸部(表情)或者屁股,负责经过处理后输出的结果

    5.你想要永久将知识保存下来,只能拿出一个笔记本,把刚刚学会的知识都写到本子上,这个本子就是硬盘(磁盘)
    硬盘是人的笔记本,负责永久存储

    2.3 计算机硬件实物图解

    在这里插入图片描述
    我们买来电脑,如果只有键盘鼠标、显示器、音箱,我们能玩电脑么?肯定不能。 那么其实电脑机箱才是真正的工作的设备,输入输出设备只是用来让我们和电脑机箱来做交互的。

    那机箱内部都有什么呢?我们看一下下面的图片:
    在这里插入图片描述
    我们来看一下这里的零件都有什么用

    主板:连接所有其他设备的设备,是其他设备的载体,主板主要是为CPU、内存、显卡、硬盘等提供平台,相当于人体的躯干,关联着各个器官。
    主板

    2.3.1 cpu

    CPU:中央处理单元(Cntral Pocessing Uit)的缩写,也叫处理器,是计算机的运算核心和控制核心。人靠大脑思考,电脑靠CPU来运算、控制。让电脑的各个部件顺利工作,起到协调和控制作用。
    在这里插入图片描述
    通常将运算器和控制器合称为中央处理器(Central Processing Unit,CPU)。其中运算器用来主要负责程序运算与逻辑判断,控制器则主要协调各组件和各单元的工作,所以CPU的工作主要在于管理和运算。可以说计算机的大脑就是CPU,它从内存中取指令->解码->执行,然后再取指->解码->执行下一条指令,周而复始,直至整个程序被执行完成。

    既然CPU的重点在于进行运算和判断,那么要被运算与判断的数据是从哪里来的?CPU读取的数据都是从主存储器(内存)来的!主存储器内的数据则是从输入单元所传输进来!而CPU处理完毕的数据也必须先写回主存储器中,最后数据才从主存储器传输到输出单元。

    综合上面所说的,我们会知道其实计算机是由:输入单元、输出单元、CPU(控制单元、算术逻辑单元)与主存储器五大单元构成的。也可以说CPU+输入输出+主存储器构成了电子计算机的三大核心组件,相关性如下图:
      cpu
      在超大规模集成电路构成的微型计算机中,往往将CPU制成一块具有特定功能的芯片,称为微处理器,芯片里边有编写好的微指令集,我们在主机上的所有操作或者说任何软件的执行最终都要转化成cpu的指令去执行,如输入输出,阅读,视频,上网等这些都要参考CPU是否内置有相关微指令集才行。如果没有那么CPU无法处理这些操作。不同的CPU指令集不同对应的功能也不同,这就好比不同的人脑,对于大多数人类来说,人脑的结构一样,但是大家的智商都有差别。
      
       那么目前世界上的主流CPU由那些呢?我们笔记本上贴的Intel、AMD是怎么回事呢?下面我们来认识一下:

    2.3.1.1 CPU的分类

    我们已经知道CPU内部是含有微指令集的,我们所使用的的软件都要经过CPU内部的微指令集来完成才行。这些指令集的设计主要又被分为两种设计理念,这就是目前世界上常见到的两种主要的CPU种类:分别是精简指令集(RISC)与复杂指令集(CISC)系统。下面我们就来谈谈这两种不同CPU种类的差异!

    2.3.1.1.1 精简指令集

    精简指令集(Reduced Instruction Set Computing,RISC):这种CPU的设计中,微指令集较为精简,每个指令的运行时间都很短,完成的动作也很单纯,指令的执行效能较佳;但是若要做复杂的事情,就要由多个指令来完成。常见的RISC指令集CPU主要例如Sun公司的SPARC系列、IBM公司的Power Architecture(包括PowerPC)系列、与ARM系列等。【注:Sun已经被Oracle收购;】

    SPARC架构的计算机常用于学术领域的大型工作站中,包括银行金融体系的主服务器也都有这类的计算机架构;

    PowerPC架构的应用,如Sony出产的Play Station 3(PS3)使用的就是该架构的Cell处理器。

    ARM是世界上使用范围最广的CPU了,常用的各厂商的手机、PDA、导航系统、网络设备等,几乎都用该架构的CPU。

    2.3.1.1.2 复杂指令集

    复杂指令集(Complex Instruction Set Computer,CISC)与RISC不同,在CISC的微指令集中,每个小指令可以执行一些较低阶的硬件操作,指令数目多而且复杂,每条指令的长度并不相同。因此指令执行较为复杂所以每条指令花费的时间较长,但每条个别指令可以处理的工作较为丰富。常见的CISC微指令集CPU主要有AMD、Intel、VIA等的x86架构的CPU。

    由于AMD、Intel、VIA所开发出来的x86架构CPU被大量使用于个人计算机(Personal Computer)上面,因此,个人计算机常被称为x86架构的计算机!举个例子,我们在MySQL官网下载MySQL时名字为:
    Windows(x86,32-bit),ZIP Archive
    (mysql-5.7.20-win32.zip)

    我们发现名字中有x86,这其实就是告诉我们该软件应用于x86结构的计算机。那么为何称为x86架构呢?这是因为最早的那颗Intel发展出来的CPU代号称为8086,后来依此架构又开发出80285、80386…,因此这种架构的CPU就被称为x86架构了。

    在2003年以前由Intel所开发的x86架构CPU由8位升级到16、32位,后来AMD依此架构修改新一代的CPU为64位,为了区别两者的差异,因此64位的个人计算机CPU又被统称为x86_64的架构了。

    不同的x86架构的CPU的差别在哪呢?除了CPU的整体结构(如第二层缓存、每次运作可执行的指令数等)之外,主要是在于微指令集的不同。新的x86的CPU大多含有很先进的微指令集,这些微指令集可以加速多媒体程序的运作,也能够加强虚拟化的效能,而且某些微指令集更能够增加能源效率,让CPU耗电量降低,这对于高电费是个不错的消息。 试想一下,如果CPU的指令集都相同,那么OS是不是就不用分32bit和64bit了,各种程序的跨平台是不是就更简单了呢。

    2.3.1.2 CPU历史

    计算机的发展主要表现在其核心部件——微处理器【微处理器由一片或少数几片大规模集成电路组成的中央处理器。这些电路执行控制部件和算术逻辑部件的功能。微处理器能完成取指令、执行指令,以及与外界存储器和逻辑部件交换信息等操作,是微型计算机的运算控制部分。它可与存储器和外围电路芯片组成微型计算机。】的发展上,每当一款新型的微处理器出现时,就会带动计算机系统的其他部件的相应发展,如计算机体系结构的进一步优化,存储器存取容量的不断增大、存取速度的不断提高,外围设备的不断改进以及新设备的不断出现等。根据微处理器的字长和功能,可将其发展划分为以下几个阶段。
    在这里插入图片描述
     总结:CPU按照指令集可以分为精简指令集CPU和复杂指令集CPU两种,区别在于前者的指令集精简,每个指令的运行时间都很短,完成的动作也很单纯,指令的执行效能较佳;但是若要做复杂的事情,就要由多个指令来完成。后者的指令集每个小指令可以执行一些较低阶的硬件操作,指令数目多而且复杂,每条指令的长度并不相同。因为指令执行较为复杂所以每条指令花费的时间较长,但每条个别指令可以处理的工作较为丰富。

    根据位数又可分为32bit和64bit(指的是CPU一次执行指令的数据带宽),这个具体后面了解。CPU往往又可细分为运算器和控制器两部分,下面我们再来叙说一下这两部分。
    #2.1、运算器
      运算器是对信息进行处理和运算的部件。经常进行的运算是算术运算和逻辑运算,所以运算器又可称为算术逻辑运算部件(Arithmetic and Logical,ALU)。

    运算器的核心是加法器。运算器中还有若干个通用寄存器或累加寄存器,用来暂存操作数并存放运算结果。寄存器的存取速度比存储器的存放速度快很多。关于寄存器,我们在后面介绍CPU的时候再认识。

    2.3.1.3 控制器

    控制器是整个计算机的指挥中心,它的主要功能是按照人们预先确定的操作步骤,控制整个计算机的各部件有条不紊的自动工作。

    控制器从主存中逐条地读取出指令进行分析,根据指令的不同来安排操作顺序,向各部件发出相应的操作信号,控制它们执行指令所规定的任务。

    控制器中包括一些专用的寄存器。
    因访问内存以得到指令或数据的时间比cpu执行指令花费的时间要长得多,所以,所有CPU内部都有一些用来保存关键变量和临时数据的寄存器,这样通常在cpu的指令集中专门提供一些指令,用来将一个字(可以理解为数据)从内存调入寄存器,以及将一个字从寄存器存入内存。cpu其他的指令集可以把来自寄存器、内存的操作数据组合,或者用两者产生一个结果,比如将两个字相加并把结果存在寄存器或内存中。

    寄存器的分类:

    1.除了用来保存变量和临时结果的通用寄存器外

    2.多数计算机还有一些对程序员课件的专门寄存器,其中之一便是程序计数器,它保存了将要取出的下一条指令的内存地址。在指令取出后,程序计算器就被更新以便执行后期的指令

    3.另外一个寄存器便是堆栈指针,它指向内存中当前栈的顶端。该栈包含已经进入但是还没有退出的每个过程中的一个框架。在一个过程的堆栈框架中保存了有关的输入参数、局部变量以及那些没有保存在寄存器中的临时变量

    4.最后 一个非常重要的寄存器就是程序状态字寄存器(Program Status Word,PSW),这个寄存器包含了条码位(由比较指令设置)、CPU优先级、模式(用户态或内核态),以及各种其他控制位。用户通常读入整个PSW,但是只对其中少量的字段写入。在系统调用和I/O中,PSW非常非常非常非常非常非常重要

    寄存器的维护:

    操作系统必须知晓所有的寄存器。在时间多路复用的CPU中,操作系统会经常中止正在运行的某个程序并启动(或再次启动)另一个程序。每次停止一个运行着的程序时,操作系统必须保存所有的寄存器,这样在稍后该程序被再次运行时,可以把这些寄存器重新装入。

    你可以找到更多关于寄存器的信息here.

    2.3.1.4 处理器设计的演变

    1.最开始取值、解码、执行这三个过程是同时进行的,这意味着任何一个过程完成都需要等待其余两个过程执行完毕,时间浪费

    2.后来被设计成了流水线式的设计,即执行指令n时,可以对指令n+1解码,并且可以读取指令n+2,完全是一套流水线。
       在这里插入图片描述
    3.超变量cpu,比流水线更加先进,有多个执行单元,可以同时负责不同的事情,比如看片的同时,听歌,打游戏。

    两个或更多的指令被同时取出、解码并装入一个保持缓冲区中,直至它们都执行完毕。只有有一个执行单元空闲,就检查保持缓冲区是否还有可处理的指令
    在这里插入图片描述
    这种设计存在一种缺陷,即程序的指令经常不按照顺序执行,在多数情况下,硬件负责保证这种运算结果与顺序执行的指令时的结果相同。

    2.3.1.4.1 内核态与用户态

    除了在嵌入式系统中的非常简答的CPU之外,多数CPU都有两种模式,即内核态与用户态。

    通常,PSW中有一个二进制位控制这两种模式。

    内核态:当cpu在内核态运行时,cpu可以执行指令集中所有的指令,很明显,所有的指令中包含了使用硬件的所有功能,(操作系统在内核态下运行,从而可以访问整个硬件)

    用户态:用户程序在用户态下运行,仅仅只能执行cpu整个指令集的一个子集,该子集中不包含操作硬件功能的部分,因此,一般情况下,在用户态中有关I/O和内存保护(操作系统占用的内存是受保护的,不能被别的程序占用),当然,在用户态下,将PSW中的模式设置成内核态也是禁止的。

    内核态与用户态切换

    用户态下工作的软件不能操作硬件,但是我们的软件比如暴风影音,一定会有操作硬件的需求,比如从磁盘上读一个电影文件,那就必须经历从用户态切换到内核态的过程,为此,用户程序必须使用系统调用(system call),系统调用陷入内核并调用操作系统,TRAP指令把用户态切换成内核态,并启用操作系统从而获得服务。

    请把的系统调用看成一个特别的的过程调用指令就可以了,该指令具有从用户态切换到内核态的特别能力。

    2.3.1.4.2 多线程和多核芯片

    moore定律指出,芯片中的晶体管数量每18个月翻一倍,随着晶体管数量的增多,更强大的功能称为了可能,如

    I.第一步增强:在cpu芯片中加入更大的缓存,一级缓存L1,用和cpu相同的材质制成,cpu访问它没有时延

    II.第二步增强:一个cpu中的处理逻辑增多,intel公司首次提出,称为多线程(multithreading)或超线程(hyperthreading),对用户来说一个有两个线程的cpu就相当于两个cpu,我们后面要学习的进程和线程的知识就起源于这里,进程是资源单位而线程才是cpu的执行单位。

    多线程运行cpu保持两个不同的线程状态,可以在纳秒级的时间内来回切换,速度快到你看到的结果是并发的,伪并行的,然而多线程不提供真正的并行处理,一个cpu同一时刻只能处理一个进程(一个进程中至少一个线程)

    III.第三步增强:除了多线程,还出现了傲寒2个或者4个完整处理器的cpu芯片,如下图。要使用这类多核芯片肯定需要有多处理操作系统
    在这里插入图片描述
    在这里插入图片描述

    你可以找到更多关于中央处理器的信息here.

    2.3.2 存储设备

    计算机中第二重要的就是存储了,所有人都意淫着存储:速度快(这样cpu的等待存储器的延迟就降低了)+容量大+价钱便宜。然后同时兼备三者是不可能的,所以有了如下的不同的处理方式
     在这里插入图片描述
     存储器系统采用如上图的分层结构,顶层的存储器速度较高,容量较小,与底层的存储器相比每位的成本较高,其差别往往是十亿数量级的

    2.3.2.1 寄存器即L1缓存

    用与cpu相同材质制造,与cpu一样快,因而cpu访问它无时延,典型容量是:在32位cpu中为3232,在64位cpu中为6464,在两种情况下容量均<1KB。

    2.3.2.2 高速缓存即L2缓存

    主要由硬件控制高速缓存的存取,内存中有高速缓存行按照064字节为行0,64127为行1。。。最常用的高速缓存行放置在cpu内部或者非常接近cpu的高速缓存中。当某个程序需要读一个存储字时,高速缓存硬件检查所需要的高速缓存行是否在高速缓存中。如果是,则称为高速缓存命中,缓存满足了请求,就不需要通过总线把访问请求送往主存(内存),这毕竟是慢的。高速缓存的命中通常需要两个时钟周期。高速缓存为命中,就必须访问内存,这需要付出大量的时间代价。由于高速缓存价格昂贵,所以其大小有限,有些机器具有两级甚至三级高速缓存,每一级高速缓存比前一级慢但是容易大。

    缓存在计算机科学的许多领域中起着重要的作用,并不仅仅只是RAM(随机存取存储器)的缓存行。只要存在大量的资源可以划分为小的部分,那么这些资源中的某些部分肯定会比其他部分更频发地得到使用,此时用缓存可以带来性能上的提升。一个典型的例子就是操作系统一直在使用缓存,比如,多数操作系统在内存中保留频繁使用的文件(的一部分),以避免从磁盘中重复地调用这些文件,类似的/root/a/b/c/d/e/f/a.txt的长路径名转换成该文件所在的磁盘地址的结果然后放入缓存,可以避免重复寻找地址,还有一个web页面的url地址转换为网络地址(IP)地址后,这个转换结果也可以缓存起来供将来使用。

    缓存是一个好方法,在现代cpu中设计了两个缓存,再看4.1中的两种cpu设计图。第一级缓存称为L1总是在CPU中,通常用来将已经解码的指令调入cpu的执行引擎,对那些频繁使用的数据自,多少芯片还会按照第二L1缓存 。。。另外往往设计有二级缓存L2,用来存放近来经常使用的内存字。L1与L2的差别在于对cpu对L1的访问无时间延迟,而对L2的访问则有1-2个时钟周期(即1-2ns)的延迟。

    2.3.2.3 内存

    在这里插入图片描述
    再往下一层是主存,此乃存储器系统的主力,主存通常称为随机访问存储RAM,就是我们通常所说的内存,容量一直在不断攀升,所有不能再高速缓存中找到的,都会到主存中找,主存是易失性存储,断电后数据全部消失

    除了主存RAM之外,许多计算机已经在使用少量的非易失性随机访问存储如ROM(Read Only Memory,ROM),在电源切断之后,非易失性存储的内容并不会丢失,ROM只读存储器在工厂中就被编程完毕,然后再也不能修改。ROM速度快且便宜,在有些计算机中,用于启动计算机的引导加载模块就存放在ROM中,另外一些I/O卡也采用ROM处理底层设备的控制。

    EEPROM(Electrically Erasable PROM,电可擦除可编程ROM)和闪存(flash memory)也是非易失性的,但是与ROM相反,他们可以擦除和重写。不过重写时花费的时间比写入RAM要多。在便携式电子设备中中,闪存通常作为存储媒介。闪存是数码相机中的胶卷,是便携式音译播放器的磁盘,还应用于固态硬盘。闪存在速度上介于RAM和磁盘之间,但与磁盘不同的是,闪存擦除的次数过多,就被磨损了。

    还有一类存储器就是CMOS,它是易失性的,许多计算机利用CMOS存储器来保持当前时间和日期。CMOS存储器和递增时间的电路由一小块电池驱动,所以,即使计算机没有加电,时间也仍然可以正确地更新,除此之外CMOS还可以保存配置的参数,比如,哪一个是启动磁盘等,之所以采用CMOS是因为它耗电非常少,一块工厂原装电池往往能使用若干年,但是当电池失效时,相关的配置和时间等都将丢失.

    你可以找到更多关于内存的信息here.

    2.3.2.4 硬盘

    在这里插入图片描述
    存储资料和软件等数据的设备,有容量大,断电数据不丢失的特点。也被人们称之为“数据仓库”。
    在这里插入图片描述
    磁盘低速的原因是因为它一种机械装置,在磁盘中有一个或多个金属盘片,它们以5400,7200或10800rpm(RPM =revolutions per minute 每分钟多少转 )的速度旋转。从边缘开始有一个机械臂悬在盘面上,这类似于老式黑胶唱片机上的拾音臂。信息卸载磁盘上的一些列的同心圆上,是一连串的2进制位(称为bit位),为了统计方法,8个bit称为一个字节bytes,1024bytes=1k,1024k=1M,1024M=1G,所以我们平时所说的磁盘容量最终指的就是磁盘能写多少个2进制位。

    每个磁头可以读取一段换新区域,称为磁道

    把一个戈丁手臂位置上所以的磁道合起来,组成一个柱面

    每个磁道划成若干扇区,扇区典型的值是512字节

    数据都存放于一段一段的扇区,即磁道这个圆圈的一小段圆圈,从磁盘读取一段数据需要经历寻道时间和延迟时间

    平均寻道时间

    机械手臂从一个柱面随机移动到相邻的柱面的时间成为寻到时间,找到了磁道就以为着招到了数据所在的那个圈圈,但是还不知道数据具体这个圆圈的具体位置

    平均延迟时间
    机械臂到达正确的磁道之后还必须等待旋转到数据所在的扇区下,这段时间成为延迟时间

    2.3.2.4.1 虚拟内存

    许多计算机支持虚拟内存机制,该机制使计算机可以运行大于物理内存的程序,方法是将正在使用的程序放入内存取执行,而暂时不需要执行的程序放到磁盘的某块地方,这块地方成为虚拟内存,在linux中成为swap,这种机制的核心在于快速地映射内存地址,由cpu中的一个部件负责,成为存储器管理单元(Memory Management Unit MMU)

    PS:从一个程序切换到另外一个程序,成为上下文切换(context switch),缓存和MMU的出现提升了系统的性能,尤其是上下文切换

    你可以找到更多关于硬盘的信息here.

    2.3.2.5 磁带

    在这里插入图片描述
    在价钱相同的情况下比硬盘拥有更高的存储容量,虽然速度低于磁盘,但是因其大容量,在地震水灾火灾时可移动性强等特性,常被用来做备份。(常见于大型数据库系统中)

    2.3.2.6 cpu 内存 硬盘三者之间的关系

    简单来说,硬盘用来存储我们的程序和数据,当我们运行程序的时候,CPU首先接受到我们的命令,之后CPU是告诉硬盘,我要运行你存储的程序A,你把程序A送到内存去。CPU对内存说,我让硬盘把程序A送到你这里来了,你保存一下。 等程序A被完整的送到内存之后。CPU就开始执行程序A。

    过程就像上面说的,我们在举一个接近我们生活的例子。

    如果说把硬盘比喻成一个大仓库,CPU比喻成加工车间,那么内存就是一个临时的小仓库。从距离上来说, 相比内存到CPU的距离和硬盘到内存的距离,内存和CPU的距离更短。

    硬盘(大仓库)用来保存车间需要用的原料和最终生产出来的商品。仓库太大,取出原料和存储商品太慢,耗时间。

    内存(临时小仓库):原料会先放到这里,小仓库,可以很快的找到需要的原料或商品。

    CPU(车间):从内存(小仓库)里拿到原料,生产商品。中间会有半成品,半成品可以放在内存(小仓库)里。

    以这种方式,车间的生产速度就会提高。

    参考图
    在这里插入图片描述

    2.3.3 输入输出设备

    在这里插入图片描述
    输入输出设备(IO设备),是数据处理系统的关键外部设备之一,可以和计算机本体进行交互使用。如:键盘、写字板、麦克风、音响、显示器等。因此输入输出设备起了人与机器之间进行联系的作用。

    你可以找到更多关于输入输出设备的信息here.

    2.3.4 其他设备(略)

    2.3.4.1 主板

    在这里插入图片描述

    2.3.4.2 总线

    四小节中的结构在小型计算机中沿用了多年,并也用在早期的IBM PC中。但是随着处理器和存储器速度越来越快,单总线很难处理总线的交通流量了,于是出现了下图的多总线模式,他们处理I/O设备及cpu到存储器的速度都更快。

    北桥即PCI桥:连接高速设备

    南桥即ISA桥:连接慢速设备
    在这里插入图片描述

    2.3.4.3 显卡

    在这里插入图片描述

    2.3.4.4 网卡

    2.3.4.5 声卡

    2.3.4.5 电源

    2.4 计算机启动流程

    在计算机的主板上有一个基本的输入输出程序(Basic Input Output system)

    BIOS就相当于一个小的操作系统,它有底层的I/O软件,包括读键盘,写屏幕,进行磁盘I/O,该程序存放于一非易失性闪存RAM中。

    启动流程

    1.计算机加电

    2.BIOS开始运行,检测硬件:cpu、内存、硬盘等

    3.BIOS读取CMOS存储器中的参数,选择启动设备

    4.从启动设备上读取第一个扇区的内容(MBR主引导记录512字节,前446为引导信息,后64为分区信息,最后两个为标志位)

    5.根据分区信息读入bootloader启动装载模块,启动操作系统

    6.然后操作系统询问BIOS,以获得配置信息。对于每种设备,系统会检查其设备驱动程序是否存在,如果没有,系统则会要求用户按照设备驱动程序。一旦有了全部的设备驱动程序,操作系统就将它们调入内核。然后初始有关的表格(如进程表),穿件需要的进程,并在每个终端上启动登录程序或GUI

    2.5 附录及参考资料


    1. 运算器:实现算术运算和逻辑运算的部件。 ↩︎

    2. 控制器:计算机的指挥系统。控制器通过地址访问存储器,从存储器中取出指令,经译码器分析后,根据指令分析结果产生相应的操作控制信号作用于其他部件,使得各部件在控制器控制下有条不紊地协调工作。 ↩︎

    3. 存储器:是计算机用来存放所有数据和程序的记忆部件。它的基本功能是按指定的地址存(写)入或者取(读)出信息。 计算机中的存储器可分成两大类:一类是内存储器,简称内存或主存;另一类是外存储器(辅助存储器),简称外存或辅存。 存储器由若干个存储单元组成,每个存储单元都有一个地址,计算机通过地址对存储单元进行读写。一个存储器所包含的字节数称为存储容量,单位有B、KB、MB、GB、TB等。 ↩︎

    4. 输入设备:是向计算机中输入信息(程序、数据、声音、文字、图形、图像等)的设备。常见的输入设备有:键盘、鼠标、图形扫描仪、触摸屏、条形码输入器、光笔等。 外存储器也是一种输入设备。 ↩︎

    5. 输出设备:主要有显示器、打印机和绘图仪等。外存储器也当作一种输出设备。 ↩︎

    展开全文
  • 冯·诺依曼是美籍匈牙利数学家,他于1945年首先提出了以二...计算机内部采用二进制表示指令和数据,一条指令至少要有两部分组成:一部分是操作码,指出要完成的具体操作,即让计算机“干什么”;另一部分是地址码...

    冯·诺依曼是美籍匈牙利数学家,他于1945年首先提出了以二进制数据为基础的存储程序自动控制思想,奠定了现代电子数字计算机的发展基础。他的基本思想可简要概括为:

    1. 五大部件机构体系。计算机由运算器、控制器、存储器、输入设备和输出设备五个基本部分组成;
    2. 二进制指令操作。计算机内部采用二进制表示指令和数据,一条指令至少要有两部分组成:一部分是操作码,指出要完成的具体操作,即让计算机“干什么”;另一部分是地址码,指出计算机操作对象所在的“地址”;
    3. 存储程序自动控制。要让计算机完成某项工作,就必须事先编制好相应的程序,并把程序和原始数据存入计算机的存储器中,启动计算机后,无需人工干预,计算机从第一条指令开始逐条执行程序,使计算机在程序的控制下,自动完成解题的全过程。这就是注明的存储程序自动控制原理。

    现代计算机一般都是按照冯·诺依曼基本思想设计制造的,所以称之为冯·诺依曼计算机。现代计算机硬件基本结构如下:



    计算机硬件各部分功能简介:

    1、运算器(Arithmetical and Logical Unit,ALU)

    运算器又称算术逻辑单元。运算器的主要功能是进行算术运算和逻辑运算,大量数据的运算任务是在运算器中进行的。

    算术运算包括加、减、乘、除等基本运算;逻辑运算包括逻辑判断、关系比较以及其他的基本逻辑运算,如“或”、“与”、“非”等。


    2、控制器(Control Unit)

    控制器是整个计算机系统的指挥控制中心,它控制计算机各部分自动协调地工作,保证计算机按照预先规定的目标和步骤有条不紊的进行操作及处理。


    控制器的工作过程:

    从内存中取出一条指令,并指出下一条指令在内存中位置
    对指令进行译码或测试,并产生相应的操作控制信号,以便启动规定的动作;
    指挥并控制CPU、内存和输入/输出设备之间数据流动的方向。
    控制器根据事先给定的命令发出控制信息,使整个电脑指令执行过程一步一步地进行,是计算机的神经中枢。

    控制器和运算器合称为中央处理单元,即CPU(Central Processing Unit),它是计算机的核心部件,其性能指标主要是工作速度和计算精度,对机器的整体性能有全面的影响。


    3、存储器(Memory Unit)

    存储器的计算机的“记忆”装置,它的主要功能是存储程序和数据,并能在计算机运行过程中高速、自动的完成程序或数据的存取。存储器可以将输入设备接收到的信息以二进制的数据形式存到存储器中。

    存储器有两种,分别叫做内存储器和外存储器。

    内存储器微型计算机的内存储器是由半导体器件构成的。从使用功能上分,有随机存储器 (Random Access Memory,简称RAM),又称读写存储器;只读存储器(Read Only Memory,简称为ROM)。

    外存储器的种类很多,又称辅助存储器。外存通常是磁性介质或光盘,像硬盘,软盘,磁带,CD等,能长期保存信息,并且不依赖于电来保存信息,但是其速度与内存相比非常且价格较内存相比非常低廉。

    计算机存储信息的基本单位是位(bit),即一位可以存储一个二进制数“0”或“1”,每8位二进制数合在一起称为一个字节(Byte,简称1B)。微机中存储器的一个存储单元一般存放一个字节的信息。

    计算机一次可以并行处理的二进制信息量称为一个字(Word,简称1W),一个字节中所包含的二进制位数称为字长。字长越长,计算机处理信息的功能就越强。不同型号的就安吉字长是不一样的,比如,286机的字长是16位,386机和486机的字长是32位。

    目前的计算机绝大多数采用按地址访问的方式在存储器中存数据和取数据,因此,存数据的存数和取数的速度是计算机系统的一个非常重要的性能指标。

    衡量存储器性能优劣的主要指标有存储容量、存储速度、可靠性、功耗、体积、重量、价格等。

    存储容量指存储器所能存储的全部二进制信息量,通常以字节B为单位。常见的存储容量大小的单位还有KB(千字节),MB(兆字节),GB(吉字节),TB(太字节)。换算关系为:

    1 KB=1024 B;         1 MB=1024 KB;         1 GB=1024 MB;         1 TB=1024 GB


    4、输入设备

    将数据、程序、文字符号、图象、声音等信息输送到计算机中的设备。输入设备把各种形式的信息,如数字、文字、图像等转换为数字形式的“编码”,即计算机能够识别的用“1”和“0”表示的二进制代码,并把它们“输入”到计算机的内存中存储起来。

    常见的输入设备有:键盘、鼠标、扫描仪、光笔、数字化仪、麦克风、触摸屏等。


    5、输出设备

    将计算机的运算结果或者中间结果打印或显示出来的设备。输出设备把计算机加工处理的结果(仍然是数字形式的编码)变换为人或其他设备所能接收和识别的信息形式,如文字、数字、图形、图像等。

    常见的输出设备有:显示器、打印机、绘图仪和传真机等。

    通常把输入设备和输出设备合称为I/O设备或输入/输出设备。

    展开全文
  • 引子市场上用于深度学习训练计算机大致情况如下:(1)服务器/工作站(支持2、4、8块GPU架构):普遍存在噪音大,无法放置于办公环境,必须放到专门的机房,维护成本高,另外数据存储带宽、延迟、容量也不尽如意。...

    引子

    市场上用于深度学习训练计算机大致情况如下:

    (1)服务器/工作站(支持2、4、8块GPU架构):普遍存在噪音大抓狂,无法放置于办公环境,必须放到专门的机房,维护成本高抓狂,另外数据存储带宽、延迟、容量也不尽如意。

    (2)分布式集群架构:性能强大,但是开发成本太高(太贵抓狂,是大多数科研单位及个人无法承受。

    (3)组装电脑:这类特点是价格便宜,但是在散热和功率方面依然是普通家用/游戏电脑标准,稳定性巨差抓狂

    (4)大部分GPU计算机(服务器/工作站):重点都放在GPU卡数量上,似乎只要配上足够GPU卡,就可以了。

    然而,机器硬件配置还需要整体均衡,不同的学习框架更需要不同GPU卡去适配。



    上图是不同的DL框架加速效能(NVIDIA GP100为例),不同的框架并不是GPU越多效能就越高。

         

    深度学习计算密集,所以需要一个快速多核CPU,对吧?!尴尬

    听说深度学习有很多显卡就可以了,一个高速CPU可能是种浪费?!尴尬

    搭建一个深度学习系统时,最糟糕的事情之一就是把钱浪费在并非必需的硬件上。尴尬

    一个高性能且经济的深度学习系统所需的硬件到底要如何配置?!


    一 还是先从深度学习计算特点与硬件配置分析:

    1 数据存储要求

    在一些深度学习案例中,数据存储会成为明显的瓶颈。做深度学习首先需要一个好的存储系统,将历史资料保存起来。

    主要任务:历史数据存储,如:文字、图像、声音、视频、数据库等。

    数据容量:提供足够高的存储能力。

    读写带宽:多硬盘并行读写架构提高数据读写带宽。

    接口:高带宽,同时延迟低。

    传统解决方式:专门的存储服务器,借助万兆端口访问。

    缺点:带宽不高,对深度学习的数据读取过程时间长(延迟大,两台机器之间数据交换),成本还巨高。

    UltraLA解决方案:

    将并行存储直接通过PCIe接口,提供最大16个硬盘的并行读取,数据量大并行读取要求高,无论是总线还是硬盘并行带宽,都得到加大提升,满足海量数据密集I/O请求和计算需要。

     

    2 CPU要求

    如今深度学习CPU似乎不那么重要了,因为我们都在用GPU,为了能够明智地选择CPU我们首先需要理解CPU,以及它是如何与深度学习相关联的,CPU能为深度学习做什么呢?当你在GPU上跑深度网络时,CPU进行的计算很少,但是CPU仍然需要处理以下事情:

    (1)数据从存储系统调入到内存的解压计算。

    (2)GPU计算前的数据预处理。

    (3)在代码中写入并读取变量,执行指令如函数调用,创建小批量数据,启动到GPU的数据传输。

    (4)GPU多卡并行计算前,每个核负责一块卡的所需要的数据并行切分处理和控制。

    (5)增值几个变量、评估几个布尔表达式、在GPU或在编程里面调用几个函数——所有这些会取决于CPU核的频率,此时唯有提升CPU频率。

    传统解决方式:CPU规格很随意,核数和频率没有任何要求。

    UltraLA解决方案:

    CPU频率尽量高

    CPU三级缓存尽量大(有必要科普一下CPU缓存)

    “这是个经常被忽视的问题,但是通常来说,它在整个性能问题中是非常重要的一部分。CPU缓存是容量非常小的直接位于CPU芯片上的存储,物理位置非常接近CPU,能够用来进行高速计算和操作。CPU通常有缓存分级,从小型高速缓存(L1,L2)到低速大型缓存(L3,L4)。作为一个程序员,你可以将它想成一个哈希表,每条数据都是一个键值对(key-value-pair),可以高速的基于特定键进行查找:如果找到,就可以在缓存得值中进行快速读取和写入操作;如果没有找到(被称为缓存未命中),CPU需要等待RAM赶上,之后再从内存进行读值——一个非常缓慢的过程。重复的缓存未命中会导致性能的大幅下降。有效的CPU缓存方案与架构对于CPU性能来说非常关键。深度学习代码部分——如变量与函数调用会从缓存中直接受益。

    CPU核数:比GPU卡数量大(原则:1核对应1卡,核数要有至少2个冗余)。

     

    3 GPU要求

    如果你正在构建或升级你的深度学习系统,你最关心的应该也是GPU。GPU正是深度学习应用的核心要素——计算性能提升上,收获巨大。

    主要任务:承担深度学习的数据建模计算、运行复杂算法。

    传统架构:提供1~8块GPU。

    UltraLA解决方案:

    数据带宽:PCIe8x 3.0以上。

    数据容量:显存大小很关键。

    深度学习框架匹配:CPU核-GPU卡 1对1。

    GPU卡加速:多卡提升并行处理效率。

     

    4 内存要求

    至少要和你的GPU显存存大小相同的内存。当然你也能用更小的内存工作,但是,你或许需要一步步转移数据可怜。总而言之,如果钱够安静而且需要做很多预处理,就不必在内存瓶颈上兜转,浪费时间

    主要任务:存放预处理的数据,待GPU读取处理,中间结果存放。

    UltraLA解决方案:

    数据带宽最大化:单Xeon E5v4 4通道内存,双XeonE5v4 8通道内存,内存带宽最大化。

    内存容量合理化:大于GPU总显存。

    说了那么多,到底该如何配置深度学习工作站,下面是干货来袭大笑

    二 UltraLAB GXi/GXM深度学习工作站介绍与配置推荐

    1. GX370i-科研型

    硬件架构:4核4.7GHz~5.0GHz+4块GPU+64GB内存+4块硬盘(最大)

    机器特点:高性价比,最快预处理和GPU超算架构

    数据规模: 小规模

     

    2. GX490i-高效型

    硬件架构:配置10核4.5GHz+4块GPU+128GB+4块硬盘(最大)

    机器特点:较GX360i,CPU核数和内存容量提升

    数据规模: 中小规模

     

    3. GX490M-高性能型

    硬件架构:配置6核4.5GHz/8核4.3GHz/10核4.3GHz+最大7块GPU+256GB+20盘位并行存储

    机器特点:GPU数量支持到7块,支持海量数据并行存储

    数据规模: 中大规模

     

    4 GX620M-超级型

    硬件架构:双Xeon可扩展处理器(最大56核,最高3.8GHz)+最大9块GPU+20盘位并行存

    机器特点:目前最强大的CPU+GPU异构计算

    数据规模:  建模与仿真计算、高性能科学计算、机器/深度学习

     

    UltraLAB深度学习工作站特点:

    (1)种类丰富: GX370i(1C4G), GX490i(1C4G) --科研型,GX490M(1C7G)、GX620M(2C9G)--超级型。

    (2)性能特点:超高频+多GPU+海量高速存储+静音级=最完美强大DL硬件平台。

    (3)应用平台:完美支持TensorFlow,Caffe,Torch,DIGITS,Theano,MXNet等。


    专注高性能图形工作站定制

    详询:微信/QQ596349281


    展开全文
  • 文章目录第二章 指令:计算机的语言2.1 引言2.2 计算机硬件的操作2.3 计算机硬件的操作数2.3.1 存储器操作数2.3.2 常数或立即操作数2.4 有符号数与无符号数2.5 计算机中指令的表示2.6 逻辑操作2.7 决策指令2.7.1 ...
  • 【解析题】在机器学习的背景上,人工智能区别于传统计算机的地方就在于人工智能能自主进行(),来揭示数据的内在价值【解析题】计算机网络【解析题】计算机启动后1短报警,请问是以下哪种情况 (...
  • 无法启动计算机时该怎么办

    千次阅读 2020-09-06 05:00:09
    Don’t panic (yet). Here are some troubleshooting steps to take when your ... 这是计算机无法正确启动时要采取的一些故障排除步骤。 By Whitson Gordon 通过 惠特森戈登 You sit down at your computer...
  • 嵌入式开发者需要掌握的硬件知识

    千次阅读 2018-07-10 10:05:43
    对于一些刚接触嵌入式系统开发的小白来说,误以为嵌入式开发只是需要掌握软件即可。但当你对嵌入式掌握的越来越深是,你会发现,真正的高嵌入式开发软硬件都要懂,下面就由小编我介绍一下嵌入式开发中硬件相关的知识...
  • 计算机硬件基础知识

    千次阅读 2013-05-30 22:43:24
    计算机硬件知识  冯·诺依曼体系结构:控制器、运算器、存储器、输入设备、输出设备。  微型计算机的主机组成:中央处理单元、主存储器、系统总线、输入/输出接口电路。  存储器系统的组成:主存储器、辅助...
  • 计算机的冷启动与热启动

    千次阅读 2013-04-17 17:51:16
    启动和热启动 ...DOS的启动又可分为冷启动和热启动。冷启动是指切断电脑电源后重新开启电源启动的过程。热启动是指在没有切断...冷启动后机器要首先进行硬件的自检(不同的机器可能自检时间不同,这主要取决于各
  • 计算机启动过程(详细)

    万次阅读 多人点赞 2018-12-11 14:50:33
    零、boot的含义 先问一个问题,”启动”用英语怎么说? 回答是boot。可是,boot原来的意思是靴子,”启动”与靴子有什么关系呢? 原来,这里的boot是bootstrap...最早的时候,工程师们用它来比喻,计算机启动是...
  • 安装win10,win8时会有时有这个提示:安装程序无法将Windows配置为在此计算机硬件 原因有2: 1,基本驱动不全 (解决方式是离线安装驱动:dism++) 2,BSD保护机制(解决方式是绕过或...
  • 当面试官问你为什么需要有三次握手、三次握手的作用、讲讲三次三次握手的时候,我想很多人会这样回答: 首先很多人会先讲下握手的过程: 1、第一次握手:客户端给服务器发送一个 SYN 报文。 2、第二次握手:服务器...
  • 《编码:隐匿在计算机硬件背后的语言》   第一章 电筒密谈 假若你才10岁,你的好朋友与你临街而住,而且你们卧室的窗户面对着面。每天晚上,当父母像平常一样很早催你上床睡觉时,你可能还想与好朋友交流思想...
  • 一般硬件装机完成开机 进BIOS 设置各项参数..启动顺序 OK...重启用PE开始分区装系统... 然后重启继续...这个时候主板开始2B了...Y会在启动项那里自动跑出一个 windows boot manager还是啥的..而且Y会默认从这个选项...
  • 无人驾驶硬件平台

    万次阅读 多人点赞 2017-03-15 18:02:59
    本文是无人驾驶技术系列的第十篇,着重介绍无人驾驶硬件平台设计。无人驾驶硬件系统是多种技术、多个模块的集成,主要包括:传感器平台、计算平台、以及控制平台。本文将详细介绍这三个平台以及现有的...
  • 老农的计算机学习笔记(二)硬件

    千次阅读 2014-06-25 06:49:02
    计算机硬件篇 --------------- 体系结构
  • 硬件工程师成长之路(1)

    万次阅读 多人点赞 2021-01-19 11:10:03
    硬件工程师成长之路 提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录硬件工程师成长之路前言一、pandas是什么?二、使用步骤1.引入库2.读入数据总结新的改变功能快捷键合理的创建标题...
  • 计算机科学与技术专业:主要学什么? 本文主要包括如下内容: 程序员职位要求 CS 专业课程列表 怎样寻找资源学习? 程序员高薪排行榜 程序员职位要求 看课程之前,我们先来看看 BAT 的招聘岗位 JD: 新...
  • 计算机本质

    万次阅读 2017-02-16 15:49:56
    首页发现话题 提问 ...为什么计算机能读懂 1 和 0 ? 关注问题写回答 计算机 计算机科学 为什么计算机能读懂 1 和 0 ? 从小到大,我们被告知的都是,计
  • 计算机发展历史

    万次阅读 2019-09-03 14:31:13
    第一节:简述计算机 1.1 为什么要学计算机基础 1.2 计算机发展历史 1.2.1 早期的计算工具 1.2.2 1801年:卡片时期 1.2.3 1835到1900年代:程式化计算机 1.2.4 1930到1960年代:桌上型计算器 1.2.5 首代冯·诺伊曼...
  • 计算机硬件知识

    千次阅读 2012-09-14 17:32:41
    计算机硬件知识 一、微机基本工作原理 ...包括计算机本身运行所需要的系统软件、各种应用程序和用户文件等。软件是用来指挥计算机具体工作的程序和数据,是整个计算机的灵魂。 计算机硬件系统主要由运算
  • 计算机文化基础—计算机软件

    千次阅读 2017-03-25 18:17:52
    软件是指能指挥计算机工作的程序与程序运行时所需要的数据,以及与这些程序和数据相关的文档说明。软件是用户与机器的接口。 程序 程序由计算机基本的操作指令组成,由程序员用计算机语言编写而成的。计算机按照...
  • 无人驾驶之硬件平台详解

    千次阅读 多人点赞 2019-01-30 14:15:26
    本文是无人驾驶技术系列的第十篇,着重介绍无人驾驶硬件平台设计。无人驾驶硬件系统是多种技术、多个模块的集成,主要包括:传感器平台、计算平台、以及控制平台。本文将详细介绍这三个平台以及现有的解决方案。希望...
  • 计算机组成原理基本概念汇总

    千次阅读 2015-07-28 00:27:44
    计算机组成原理是计算机科目中偏向于硬件的,我真的没学好,唯一做的好的笔记还是比较完整的。哈哈。这门课真的是博大精深。现在把组成原理的基本知识点与大家分享,希望大家在这门课的学习中少走弯路。 计算机系统...
  • 引言 由于矿难可以在闲鱼上看到很多的蚂蚁矿机BB板,价格只有20~30块钱。BB板做为开源的开发平台,资料和系统镜像都可以在官网上免费下载到,所以入手一块...接下来我们会仔细梳理一下有哪些地方改动过,以及需要做哪些
  • 安装 配置SharePoint Server 2016 的硬件和软件要求 硬件要求:物理服务器的位置 一些企业具有紧密放置的数据中心,它们由高带宽的光纤链路进行连接。在该环境中,可以将两个数据中心配置为单场。该分布式场...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 54,236
精华内容 21,694
关键字:

启动计算机至少需要的硬件是