精华内容
下载资源
问答
  • 2021-10-05 22:43:54

    刚开始训练就重启解决方法

    控制gpu的最大功耗

    参考电脑跑神经网络容易自动重启,通过nvidia-smi命令可以查看当前电源的最大功率是215W,经测试,本机通过下面的命令改为了125W,可根据实际情况进行调整。

    sudo nvidia-smi -pl 125
    

    修改过后,结果如下图所示。
    **在这里插入图片描述**
    功率可调范围

    125-240w之间

    在这里插入图片描述

    [1]:电脑跑神经网络容易自动重启

    更多相关内容
  • 深度学习电脑配置推荐

    万次阅读 多人点赞 2019-07-11 09:21:11
    半夜睡不着,想谈谈自己对深度学习主机配置的一些经验,想自己diy深度学习硬件的朋友可以参考一下,因为本人也不是特别资深的电脑diy爱好者,所以很多地方也是一知半解,有错误请大家指正。首先我会谈几点必须注意的...

    半夜睡不着,想谈谈自己对深度学习主机配置的一些经验,想自己diy深度学习硬件的朋友可以参考一下,因为本人也不是特别资深的电脑diy爱好者,所以很多地方也是一知半解,有错误请大家指正。首先我会谈几点必须注意的事项;然后我阐述一些配件选择的原则,因为硬件更新是很快的;最后会给出一下当下的配置清单。下面我们步入正题。

    配置深度学习主机的注意事项:

    1.一定计算好需要多大功率的电源!我们配置深度学习主机最核心的就是显卡,GPU的功耗往往很大,尤其我们经常使用两块以上的显卡。因此电源功率很重要,这是我们主机稳定工作的保障,我看到很多服务器甚至会选择双电源,但是我自己没有试过,不是很清楚双电源。

    2.双显卡以上时必须注意处理器和主板的选择。如果是双显卡以上,那么pcie就面临是工作在x16还是x8的状态,这里应该是说带宽。我们在选择CPU是就要关注他们的pcie通道数,通道数大约40条以上两个GPU才会都工作在x16状态。另外可以选择双CPU的主板,这样就可以支持两个甚至更多的GPU工作在x16状态。

    3.使用m.2固态硬盘时注意是否影响GPU工作在x16状态。这点也是个第二点有关的,就是pcie的通道资源是有限的,有的主板会写你使用m.2的固态会占用谁的资源,导致那个接口不能用。所以我一般会用sata那种接口。不过通道多的一般没什么影响,还是要看一下主板说明。

    硬件选择原则

    1.GPU选择

    因为我们核心就是为了使用GPU,所以我们就先想好用几块GPU,什么型号,然后再去选择其他配件。GPU有许多参数,比如频率,位宽,cuda数。其中√深度学习影响大的大约是这几个参数,cuda核心数数,显存大小,位宽。所以我们选择时可以主要参考这三个参数,越大越好。另外大的原则是越新的架构会越好,比如10系列的会比9系列的好,因为架构上做了优化,具体的我不懂,比如gtx1080肯定比gtx980好,gtx1060和980就要看看了,这个可以参考网上的天梯图,因为我们大部分都是买1080ti或者泰坦,所以还是好比较的。如果是专门的计算卡Tesla,就要看刚才说的三大参数。有钱当然上计算卡,没钱就游戏卡。然后想看总几块显卡,这对后面硬件的选择影响很大。

    2.CPU与主板选择

    CPU与主板是挂钩的,所以放在意思说。影响我们cpu选择的就是gpu的数目。前面提到过一个概念pcie通道数。我们使用一个gpu时,基本不用考虑pcie通道数,目前主流的8带cpu都是没问题的,当然推荐使用i7系列了,因为我们的程序除了使用gpu,很多通用计算是在cpu上进行的,他大大影响了我们程序运行的速度。另外如果是多人使用的工作站还是推荐使用至强系列的e3或者e5,一个是稳定,另一个是一般核心和线程多。多人使用时一定要注意线程数,线程越多,每个人使用时就越流畅。如果是两个那么必须使用i9或者至强系列中通道数足够的芯片。两个以上的推荐使用至强系列的cpu,而且最好是两个cpu, i9应该最多带三个gpu,别太勉强人家了。最后我们一般也都会关注主频,当然主频越高越快,价格也越贵,我认为参考主流i5的主频是个好的基准。这点也为我们选择至强系列芯片提供了参考。关键点,线程,主频,pcie通道数。然后根据cpu原则主板,一般家用芯片我们会选择z系列主板,i7八代配z370,如果是一个gpu其实我觉得好的b系列也没问题,b360之类,因为为了稳定,我们不会超频,所以b系列完全够用。这里注意的就是供电相数,大家可以查一下,因为我也不懂,就觉得数越发越好。多显卡的话,x299等x系列主板,或者其他服务器主板,就是不太好买。对了,多显卡千万不要查那个交火!!!

    3.内存

    CPU和主板支持什么内存就插哪种。主要参数就是类型,ddr4,ddr3这种的表示。频率要看主板支持多大,在主板BIOS设置中要设置才会倍频,要不白买高频率的了。内存大小,当然越大越好!还是那句话看主板支持多大的内存。一般16g一个人用足够,多个人怎么也得32g吧。毕竟matlab有时还是会用到的,内存别太小。一般就是看威刚,金士顿,芝奇,海盗船这几个牌子,芝奇,海盗船用的晶元据说好一些,金士顿也有骇客神条,还是看预算吧,一般不会差太多钱。

    4.散热器

    推荐水冷吧,要是i5什么的风冷就行,服务器主板的话,不太懂,我还是点名海盗船,还有酷冷,九州。

    5.电源

    之前说过注意功率!电源核定功率的80%差不多等于你所有配件的总功率比较好。长城,振华,海韵,海盗船推荐使用,鑫谷,安钛克,先马也还可以。这里有时提到的的金牌,银牌,白金就是转换率的不同。金牌一般就够用了。

    6.机箱

    不是越大越好,风道合理就行,当然还是买全塔式的。选品牌的质量比较好,好吧,其实我一般就买先马的,我感觉便宜。

    6.硬盘

    一般固态和机械都要,固态装系统,机械买监视级别的,放数据用。LINUX的话我一般选择把home挂载到机械盘,乱七八糟的都放自己home里。别买杂牌子吧,颗粒不会太好,使用寿命短。

    目前推荐配置表

    1.单显卡常规推荐

    这个配置整体已经算中等的,CPU这里是盒装价格,也可以考虑散片便宜一点,没什么区别,就是盒装保修三年吧。这里主板我们一般不超频,可以选用B360,具体的可以自己看一下,重点看一下内存条支持的大小和频率,供电相数。内存只能多不能再少,最后我会推荐大家一套更家庭化的低配,内存可以少一点。散热同价位可以选择九州风神的堡垒或者水元素,这两个没用过,也不好说怎么样,贵一些的就是美商海盗船的H100i,115i,150i等。电源这里之前提过推荐使用的牌子都可以入手,预算不够可以买还可以的几个牌子,功率这个算是高的,应该700w就可以,甚至650w也能带,所以我推荐的850w,以稳为主。硬盘可以根据需要调整大小,希捷的硬盘也可以。显卡的话也可以选用新出的2080ti或者泰坦,看预算吧。价格方面这个是我之前在京东看的,淘宝上的天猫旗舰店应该会便宜些,大家还是货比三家再下单。可以省不少钱。

    2.双显卡普通配置

    使用的i9带动双显卡,这里的显卡选用的微星,比较便宜,也可以换成华硕,技嘉等,现在新出了2080ti,这个价格可能已经不准了。两个泰坦的话应该问题也不大,电源能带起来。这里再补充一个服务器CPU的配置

    3.三个及以上显卡

    这种情况我还是推荐大家买品牌服务器,然后和他们沟通去定制。

    这是京东上的一个没有GPU的配置,价格肯定是要贵一些,但是没办法,因微原则上要用到两个CPU,这类主板市场不太好买,洋垃圾很多,所以最好还是找一些代理商直接定制。两个GPU之前大约算个,4.7k左右吧,如果是RTX2080ti就要贵一些,也得50k多,要加双电源。这里参考我之前说的大原则,合理定制配置,这里能省的恐怕就是内存和硬盘的大小,不会省太多钱。最最后,给各位穷鬼提供一个我认为的家用深度学习最低配。血泪省钱史啊。

    4.最低家用深度学习配置

    这里是我的以1050ti为核心的最低配置,最好最低配置一个1060 6g的,会好很多,电源还是能带起来的。内存也可以多插一个8g。要是想更多内存条只能换主板了。主板方面可以选用稍微贵一下的低端z370,可以超频。要换I7的话,还是用水冷稳点。

    最后一句话,有钱的话就随便买,舒心省心。有钱真的可以为所欲为

    2018.11.13补充 :目前看RTX2080ti 性能要好 但是价格也昂贵 ,性价比还是低 。有游戏玩家称他们的显卡有翻车的, 建议预算允许的话 ,观察一段时间再入手 。另外2080和1080ti的话,cuda核数目我没有对比,主要是显存上差距,同样的程序占用的显存在不同显卡上应该是一样的。这点涉及到一些cuda和nvidia的底层调用,我没有查过资料,想入手2080代替1080ti的查一下这部分的资料,否则加大batch size时会出现溢出的现象。

    2018.12.18补充:GTX1080ti新的基本断货,二手的现在很便宜,但是质量不敢保证,有一批之前挖矿的在鱼目混珠。建议用RTX2080代替吧,没办法了,价格比较相近,能上2080ti就上吧。另外最近看了一篇文章,讲了GPU在x8和x16状态下性能影响不大,所以普通的主板其实装两个或以上的GPU也是完全可以的,并不一定要服务器主板。这里还要考虑电源问题。
    内存的大小,至少保持和显存大小一致,频率影响不大。

    展开全文
  • 深度学习,配置清单,详细列举了各项配置的参数,并附有说明
  • 深度学习电脑配置

    万次阅读 2017-09-12 17:06:44
    与“传统” AI 算法相比,深度学习(DL)的计算性能要求,可以说完全在另一个量级上。 而 GPU 的选择,会在根本上决定你的深度学习体验。那么,对于一名 DL 开发者,应该怎么选择合适的 GPU 呢?这篇文章将深

    来源:雷锋网

    本文作者:三川

    原文链接:https://www.leiphone.com/news/201705/uo3MgYrFxgdyTRGR.html

    与“传统” AI 算法相比,深度学习(DL)的计算性能要求,可以说完全在另一个量级上。

    而 GPU 的选择,会在根本上决定你的深度学习体验。那么,对于一名 DL 开发者,应该怎么选择合适的 GPU 呢?这篇文章将深入讨论这个问题,聊聊有无必要入手英特尔协处理器 Xeon Phi,并将各主流显卡的性能、性价比制成一目了然的对比图,供大家参考。

    先来谈谈选择 GPU 对研究深度学习的意义。更快的 GPU,能帮助新人更快地积累实践经验、更快地掌握技术要领,并把这些应用于新的任务。没有快速的反馈,从错误中学习要花费太高的时间成本,学习深度学习便很可能变成一个令人反胃、进而望而生畏的经历。

    是否需要多卡?

    出于最初的激动,我走上了多卡交火的不归路——用 40Gbit/s 的 InfiniBand 桥接器连接,我搭建了一个迷你 GPU “集群”,万分激动地试验多卡是否能有更好的表现。

    但很快我就发现,让神经网络在多卡上高效地并行处理,其实是一件挺不容易的事。尤其是对于更密集的神经网络,性能的提升可以用一句“不过如此”来形容。通过数据并行化,小型神经网络倒可以很高效地并行处理,但大型的就不行了。比如 Kaggle 竞赛“Partly Sunny with a Chance of Hashtags”,我用深度学习方法拿下了第二名,多卡就基本没有加速效果。

    这之后,我继续探索如何在多卡环境玩深度学习。

    我开发了一个全新的 8 bit 压缩技术,其模型并行化比起 32 bit 方法要高效得多,尤其是密集或全连接层。但我同时发现,并行化可以让你极度失望——我幼稚地针对一系列问题优化了并行算法,结果发现,即便有优化的特制代码,多 GPU 的并行化仍然效果一般,尤其考虑到投入的大量精力。

    在搞并行化之前,你必须要非常了解你的硬件,以及它与深度学习算法的相互支持程度,来估计是否能从并行化获益。

    玩深度学习选哪块英伟达 GPU?有性价比排名还不够!


    这是我的 PC。你看到的是三块泰坦以及 InfiniBand 桥接卡。但这个配置适合深度学习吗?

    从那时起,对 GPU 并行的支持越来越常见,但离普及还差得远,更不要提高效地运行。到目前为止,唯一一个能在多卡、多机环境实现高效算法的深度学习框架,是 CNTK。它利用了微软特制的具有 1 bit 量化(高效)和 block momentum(非常高效)的并行化算法。

    如果在 96 卡 GPU 集群上运行 CNTK,线性速度预计可达到 90 到 95 倍。PyTorch 或许会是另一个能高效地支持多机并行化的框架,但暂时还没到位。如果你在一台设备上搞并行化,你的选择基本就是 CNTK、Torch 或者 PyTorch。这些框架有不错的加速表现(3.6-3.8 倍),对于一机四卡(最多)有预定义的算法。其他支持并行化的库和框架也存在,但它们要么很慢(比如 TensorFlow,只有两到三倍的加速);要么对于在多卡环境很难用(比如 Theano);再要么两个缺点都有。

    如果并行化对你很重要,我推荐你用 Pytorch 或 CNTK。

    多卡,但不搞并行

    多卡的另一个优势是,即便你不对算法做并行化,还可以同时跑多个算法、实验——每个算法在在一个 GPU 上单独运行。你不会获得任何加速,但同时使用不同算法或参数,你会得到更多关于效果表现的信息。如若你的主要目标是尽快积累深度学习经验,这是非常有用处的。对于需要对一个新算法的不同版本做实验的研究人员,这也相当有用。

    这是多卡在心理上的价值。处理一个任务与获得结果反馈之间的时间越短,大脑把相关记忆碎片组织起来、建立起该任务知识图的效果就越好。如果数据集不大,你在两块 GPU 上用这些数据同时训练两个卷积网络,你会很快就会知道“一切顺利”的感觉有多好。你会更快地发现交叉验证误差,并做合理解释。你能发现一些线索,让你知道需要添加、移除或调整哪些参数或层。

    总的来讲,你可以说对于几乎所有任务,一块 GPU 基本就够了。但用多卡来加速深度学习模型,正在变得越来越重要。如果你的目标是快速入门深度学习,多块便宜的显卡也是不错的。就我个人而言,我更倾向选择多块弱一点的 GPU,而不是一块核弹,对于研究实验也是如此。

    应该选哪家的加速器——英伟达 GPU,AMD GPU,还是英特尔 Xeon Phi?

    英伟达的标准算法库,使得在 CUDA 中建立第一批深度学习库非常简单。但对于 AMD OpenCL,这样的强大标准库并不存在。现实是,现在 A 卡并没有好用的深度学习库——所以一般人只能选 N 卡。即便将来有了 OpenCL 库,我仍会接着用 N 卡。原因很简单:GPU 通用计算,或者说 GPGPU 的社群基本上是围绕着 CUDA 转的,而没有多少人钻研 OpenCL。因此,在 CUDA 社区,你可以立刻获得好的开源方案和代码建议。

    另外,对于深度学习,即便这项技术及其产业尚在襁褓之中,英伟达可谓是全面出击。老黄的投入并没有白费。那些现在才投入资金、精力,想要赶上深度学习风口的公司,由于起步晚,离英伟达的距离有老大一截。当前,使用任何除 NVIDIA-CUDA 之外的软硬件组合玩深度学习,简直是故意跟自己过不去。

    至于英特尔 Xeon Phi,官方宣传是你能用标准的 C 语言代码,并轻松把代码转化为加速的 Xeon Phi 代码。该功能听着不错——你也许会想着可以借助海量的 C 语言资源。但实际情况是,只有非常少数的 C 语言代码有支持,而且大部分能用的 C 代码会非常非常的慢。因此,它其实比较鸡肋。

    我曾在一个 Xeon Phi 集群工作站搞研究,这期间的经历不忍回想,一把辛酸泪:

    我无法运行单位测试,因为 Xeon Phi MKL 和 Python Numpy 不兼容;我不得不重构大部分的代码,因为 Xeon Phi 编译器无法对模板做恰当的 reduction,比如说对 switch statement;我不得不修改 C 界面,因为 Xeon Phi 编译器不支持一些 C++11 功能。

    所有这些迫使我在心酸沮丧中重写代码,并且没有单位测试。这过程极度漫长,堪称地狱般的经历。

    直到我的代码终于成功执行,但所有东西速度都很慢。有一些问题,搞不清是 bug 还是线程调度程序的原因,总之如果张量大小接连发生改变,性能就会大幅降低。举个例子,如果你有大小不同的全连接层或 dropout 层,Xeon Phi 比 CPU 还要慢。我在独立矩阵乘法上重现了这个问题,并发给英特尔,但没有回音。

    所以,如果你真想搞深度学习,离 Xeon Phi 越远越好。

    预算有限,怎么挑 GPU?

    想到为深度学习挑选 GPU,你脑子里冒出来的第一个问题大概是:最重要的性能参数是什么?Cuda 核心数目?频率?显存大小?

    都不是。

    对深度学习性能影响最大的参数是显存带宽。

    简单来讲,GPU 为显存带宽而优化,为此牺牲了显存读取时间,即延迟。而 CPU 恰恰与此相反——如果只涉及少量内存,它能非常快速地做计算,比如个位数之间的乘法(3*6*9)。但是对于大量内存之上的运作,比如矩阵乘法(A*B*C),CPU 是非常慢的。由于高显存带宽,GPU 就很擅长处理这类问题。当然,CPU 与 GPU 之间有的是微妙细致的区别,这只是非常重要的一个。

    因此,如果你想要买一个玩深度学习快的 GPU,首先要看显存带宽。

    从显存带宽评估 GPU




    玩深度学习选哪块英伟达 GPU?有性价比排名还不够!

    近几年 CPU、GPU 的带宽对比

    同一代架构内,GPU 的带宽可以直接比较。比如 Pascal GTX 1080 vs. GTX 1070。单独看显存带宽就可以直接判断它们在深度学习上的性能差距:GTX 1080 (320GB/s) 比 GTX 1070 (256 GB/s) 带宽快 25%,实际情况大约如是。

    但不同架构之间,比如 Pascal GTX 1080 vs. Maxwell GTX Titan X,带宽并不能直接比较。这是由于不同的制造工艺对显存带宽的使用情况不同。这使得 GPU 之间的对比会稍嫌棘手。但即便如此,仅仅看带宽还是能大致估出 GPU 的深度学习速度。

    另一个需要考虑的因素,是与 cuDNN 的兼容性。并不是所有 GPU 架构都提供支持。几乎所有的深度学习库都借助 cuDNN 进行卷积运算,这会把 GPU 的选项限制到 Kepler 开普勒或之后的架构,即 GTX 600 系列或更新。另外,Kepler GPU 大多很慢。因此,你应该选择 GTX 900 或 1000 系的 GPU 获得理想性能。

    为了对每块显卡在深度学习上的性能差异,给大家一个大致估计,我创建了一个简单的条形图。读这张图的姿势很简单。比如说,一个 GTX 980 的速度大约是 0.35 个 Titan X Pascal;或者,一个 Titan X Pascal 几乎比 GTX 980 快三倍。

    雷锋网(公众号:雷锋网)提醒,我自己并没有所有这些显卡,我也并没有在每张显卡上做深度学习跑分评测。这些性能对比,是从显卡参数以及计算评测(与深度学习同一级别的计算任务,比如密码挖掘)中获得。因此,这些只是大略估计。真实数字会有一点变化,但误差应该是极小的,并不会影响排序。

    另外需要注意的是,对 GPU 性能利用不足的小型神经网络,会让性能更强的 GPU 在对比中吃亏。比如说,在 GTX 1080 Ti 上跑一个小型 LSTM(128 隐层; batch size > 64),并不会比在 GTX 1070 上快很多。得到下图中的数字,你需要跑更大的神经网络,比如 1024 个隐层的 LSTM(batch size > 64)。

    玩深度学习选哪块英伟达 GPU?有性价比排名还不够!


    GPU 粗略性能对比

    性价比分析

    如果我们把上图中的显卡性能除以价格,就得到了每张卡的性价比指数,便是下图。它在一定程度上反映出我们的装机推荐。

    玩深度学习选哪块英伟达 GPU?有性价比排名还不够!


    性价比对比

    新卡的价格来自美亚,旧卡来自 eBay。雷锋网提醒,该图的数字在很多方面都有些些微偏颇。首先,它没有考虑显存大小。通常情况下,你需要比 GTX 1050 Ti 更大的显存来玩深度学习。因此,榜上靠前的部分显卡虽然性价比很高,但是并不实用。

    同样的,用四个小 GPU 比用一个大 GPU 要困难得多,因此小 GPU 出于劣势。另外,买 16 个 GTX 1050 Ti 不可能得到四个 GTX 1080 Ti 的性能,你还需要另外买 3 个 PC。如果我们把这一点也考虑进去,上图看上去应该是这样的:

    这幅修正过的 GPU 性价比条形图,把其他 PC 硬件的成本也纳入考虑——把可兼容 4 GPU 的高端 PC 平台的成本,定为 $1500。该情况下,如果你想要买许多 GPU,不出意料的,更高端的 GPU 会占优势,因为 PC 平台+ 显卡的整体性价比更高。

    但其实,这还是有所偏颇的。不管四个 GTX 1080 Ti 性价比有多高,对普通人而言,这并没有意义——因为买不起。因此,开发者真正感兴趣的应是有限预算里的性价比。针对你的预算,最佳系统选项是什么?你还需要考虑一些其它问题:你计划让这个 GPU 服役多久?几年后,你是要升级 GPU 还是升级整机?将来是否希望出手旧 GPU,回收一些成本,再买个新的?

    如果你能平衡多方面的考虑,最后的结论应该与下面的建议介意。

    GPU 推荐

    通常,我会推荐 GTX 1080 Ti, GTX 1080 或 GTX 1070。如果你的预算足够买 GTX 1080 Ti,就不用犹豫了。GTX 1070 便宜一点,但仍然比上代 GTX Titan X (Maxwell) 要快。相比 GTX 980 Ti,所有这些卡都应该优先考虑,因为更大的显存:11GB、8GB  而不是 6GB。8GB 显存听上去或许不多,但对许多任务是绰绰有余的。对于 Kaggle 竞赛里的大多数图像数据集、deep style 和自然语言理解任务,你基本不会遇到问题。

    如果你是第一次尝试深度学习,只是偶尔参加 Kaggle 竞赛,GTX 1060 是最好的入门 GPU。但我不会推荐 3GB 显存的 GTX 1060。

    在性价比方面,10 系显卡是相当不错的。GTX 1050 Ti, GTX 1060, GTX 1070, GTX 1080 和 GTX 1080 Ti 都排在前列。GTX 1060 和 GTX 1050 Ti 面向初学者,GTX 1070、GTX 1080 是适合初创公司的多面手,对部分学术研究和产业界也可。GTX 1080 Ti 则是全能高端选项。

    我通常不推荐新推出的 Titan Xp,相比其性能,它定价过高,不如选 GTX 1080 Ti。但对于摆弄大型数据集或视频数据的计算机视觉研究人员,Titan Xp 仍然有市场。在这些领域,每一 GB 显存都有价值,而 Titan Xp 比 GTX 1080 Ti 多了 1GB。有了这两者,我不会推荐 Titan X (Pascal) 。

    如果你已经有了 GTX Titan X (Maxwell),想要升级到 Titan Xp。我的建议是:把钱存着买下一代,不值。

    如果你预算有限,偏偏又需要 12GB 的内存,可以考虑买个二手的 GTX Titan X (Maxwell) 。

    但是,对于大多数研究人员,最好的选项仍然是 GTX 1080 Ti。泰坦的额外 1GB 在大多数情况下没什么影响。

    对我个人而言,会选择多个 GTX 1070 或 GTX 1080 来做研究。我宁愿多运行几个慢一点的试验,而不仅仅是运行一个更快的。在 NLP,内存要求并没有计算机视觉那么高,单只 GTX 1070/GTX 1080 对我来说就够了。我需要处理的任务、如何进行试验,决定了对我而言的最佳选择,不管是 GTX 1070 还是 GTX 1080。

    对于预算紧张的开发者而言,选择余地非常有限。租 AWS 上的 GPU 实体价格已经太高,还是买自己的 GPU 更划算。我不推荐 GTX 970,不仅慢,二手的价格也不够实惠,而且它还存在显存启动问题。我的建议是加点钱上 GTX 1060,更快、显存更大而且没有毛病。GTX 1060 超出你的预算的话,我建议 4GB 版 GTX 1050 Ti。4GB 显存确实限制比较大,但如果对模型做些修改,仍可以得到还可以的性能表现。对于大多数 Kaggle 竞赛而言,GTX 1050 Ti 是合适的,在少部分比赛可能会影响你的竞争力。

    如果你只是私下玩玩深度学习,没打算认真钻研,GTX 1050 Ti 是一个合适的选择。

    结论

    有了本文中的所有信息,你大概已经能平衡显存大小、带宽、价格等多方面因素,来做出合理的购买决策。现在,我的建议是若预算充足,就上 GTX 1080 Ti, GTX 1080 或 GTX 1070。刚刚上手深度学习、预算有限的话,选 GTX 1060。预算实在有限,那么 GTX 1050 Ti。计算机视觉研究人员可能会需要 Titan Xp。

    本文转自雷锋网,如需转载请至雷锋网官网申请授权

    展开全文
  • 深度学习电脑硬件配置

    千次阅读 2018-11-14 08:15:11
    深度学习电脑硬件配置 这一部分记录了博主在配置深度学习所用的电脑硬件的过程中使用的参数和遇到的问题,以供参考。更新于2018.11.12。 文章目录深度学习电脑硬件配置硬件配置第一种第二种主板+CPUGPU内存条 ...

    深度学习电脑硬件配置

    这一部分记录了博主在配置深度学习所用的电脑硬件的过程中使用的参数和遇到的问题,以供参考。更新于2018.11.13。

    硬件配置

    博主目前应用过两种配置的电脑。第一种是目前正在用的,第二种是即将配置的。

    第一种

    在这里插入图片描述

    第二种

    运行环境要求:
    在这里插入图片描述

    选定配置:

    器件型号价格备注
    CPUIntel 酷睿i9-9900k约4899(京东)
    主板华硕 Z390-A约2099(官网)CPU与主板套装约6499(京东)
    GPUNVIDIA TESLA P100 16G x 2约90000(京东)87500(天猫)需要主板PCIe x 16接口(Z390-A可以)
    内存条海盗船 DDR4 16G 3600 x 4约1640 x 4
    固态硬盘三星970evo 250-256GB约539(京东)需要主板支持NVME协议(Z390-A可以)
    机械硬盘西部数据4TB 金盘约1199(京东)
    电源海盗船 HX1200i约1929(京东)电源与机箱风冷可以选择套装,套装价约2899(京东)
    机箱海盗船 AIR 540 加水冷约1899(京东)下单之前联系对方将机箱、水冷、电源放在一起,机箱本身带3个风扇
    显示器Dostyle DM270QD约1099(京东)27英寸2K平面 ADS面板
    键盘Logitech K120约45(京东)键盘鼠标套装约89(京东)
    鼠标Logitech M100r约44(京东)

    主板+CPU

    型号价格缓存内核数线程最大Turbo频率
    酷睿i7-8700k2593.02左右12 MB SmartCache6124.70 GHz
    酷睿i9-9900k4999左右16 MB SmartCache8165.00 GHz

    博主选择的是i9-9900k(无自带散热模块,仅支持300系列主板):
    在这里插入图片描述

    主板:PRIME Z390-A,2099元,可以搭载2块NVIDIA
    TESLA P100 GPU。官网:https://www.asus.com.cn/store/product-2064.html。

    在这里插入图片描述

    GPU

    型号显存价格
    NVIDIA TESLA P10012G或16G40000或45000
    NVIDIA Quadro GP10016G46000,但满减后单块43750

    天猫链接上说GP100的散热更好,而且可以支持NVLink(需单独购买桥接器);P100不支持NVLink。两块板子都可以放在Z390-A主板上(PCIe x 16)。不过按照要求,只能装p100的卡了。

    官网技术参数:

    在这里插入图片描述

    虽然配上nvlink效果更好,但目前国内网上能买到的好像只有PCI-E版的,接口是PCIe x 16。

    网上商家提供的参数:

    在这里插入图片描述

    在这里插入图片描述

    内存条

    根据主板的限制挑选内存条,默认的频率是2666,如果需要到4266是需要打开超高频的。

    根据主板限制,应当购买4根16GB的内存条(因为有4个卡槽)。

    网址:https://detail.tmall.com/item.htm?id=577391795458&spm=a220o.1000855.0.0.6839580fMdE5Ln

    更多内容,欢迎加入星球讨论。
    在这里插入图片描述

    展开全文
  • 深度学习在游戏中的应用.pdf
  • 深度学习电脑配置选择

    千次阅读 2019-04-19 21:51:32
    《如何DIY自己的深度学习工作站》 《如何配置一台适用于深度学习的工作站?》知乎https://www.zhihu.com/question/33996159/answer/143971704 《码农的高薪之路,如何组装一台适合深度学习的工作站?》subtitle ...
  • 组装深度学习电脑

    万次阅读 2018-03-20 08:39:40
    我们首先要知道我们电脑需要哪些配件。组装其实很简单,将下列10样东西买齐就可以自己组装了:1、CPU:cpu我选择的是intel的8代i7--最新款i7-8700k,对比如图1所示。这款cpu是我在淘宝上淘得的散片,具体哪个店铺我...
  • 前言 最近打算将实验室的电脑配置升级一下,但是自己对电脑组装了解不多,对硬件的选择也了解很少,因此这里我笔记一些关于深度学习GPU和CPU,内存,硬盘,cuda的相关知识。 ...
  • 如何组装深度学习的计算机

    千次阅读 2022-02-10 21:08:45
    今天这篇博客来讲讲进行深度学习时,所需的设备配置的问题。 1.如果需要运行特别大的深度学习模型,可以用一些在线的资源,比如华为云、Paddle、Amazon Web Services、Google Cloud、Microsoft Azure等云计算资源。 ...
  • 深度学习需要的电脑配置

    万次阅读 多人点赞 2020-05-07 03:21:52
    深度学习核心的是GPU(深度学习加速) 反过来说:GPU的选择将从根本上决定你的深度学习体验 电脑配置 可以进行深度学习的显卡(有些显卡不能进行深度学习)【独立显卡】 显存的大小不能低于4G 内存的大小不能低于...
  • 深度学习工作站配置推荐

    千次阅读 2021-07-09 08:27:55
    目前只有Nvida GPU能完整的支持深度学习,所以请购买较新的nvidia显卡(pascal、turing架构以上)2.GPU上的投资回报比基本呈线性变化,因此可以按照自己的需要配置不同GPU。3.保持工作站长期稳定工作需要一个靠谱的...
  • 此代码资源包为本人在 CSDN 上分享的博文:基于深度学习的中文车牌识别与管理系统(含UI界面,Python代码),网址:https://blog.csdn.net/qq_32892383/article/details/123088309中分享的完整代码和资源整合。...
  • Halcon深度学习介绍(一)

    千次阅读 2022-01-05 22:11:58
      Halcon自从18版本以后,便支持深度学习,其中18、19版本训练时候要求电脑必须有GPU,并且是英伟达独立显卡才可以,检测有无GPU都可以,而20、21版本等不仅可以GPU训练,更支持CPU训练,对于配置低的使用者或者...
  • 深度学习电脑GPU环境配置

    千次阅读 2018-09-11 20:37:07
    Ubuntu16.04+GTX1070+Nvidia 375.66+CUDA8.0+CUDNN5.0+Tensorflow-gpu 目录 Ubuntu16.04+GTX1070+Nvidia 375.66+CUDA8.0+CUDNN5.0+Tensorflow-gpu 1.anaconda安装 2.NVIDIA驱动安装 3....
  • 深度学习电脑辨认新境界.pdf
  • 前言很多深度学习入门者或多或少对计算机的配置需求有一些疑惑。入门的硬性需求是什么,应该买什么样的电脑,什么样的显卡比较适合,自己的笔记本可以使用吗等等问题。这些问题之前我也有很多疑惑,现在总结了下,为...
  • 2021年深度学习主机配置推荐

    千次阅读 2021-07-31 00:56:00
    点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达 本文转自|计算机视觉life深度学习领域学习以工作者该如何选择主机的配置?本文给出了答案,作者在...
  • 对于刚接触深度学习的学友而言,可能都会碰到电脑配置的问题,比如显卡型号、内存容量、处理器型号等。好的电脑配置,比如GPU加速的显卡,是能够有效缩短算法的训练时间的,这能让人尽快的看到算法的结果,也便于...
  • 如何配置一台深度学习的主机

    千次阅读 2020-07-26 23:31:53
    配置深度学习主机 首先需要整一台GPU的电脑,自己前前后后花了半年的时间组装了一台电脑,配置如下: cpu i9700k(对于深度学习来说,这个U已经够了) 主板 华硕z390-A(主要是这款主板支持SLI) 内存 ...
  • 有很多电脑使用的都是集成显卡,而进行深度学习大都需要英伟达的显卡,那么没有Nvidia的显卡会有什么影响呢? cuda 提到深度学习cuda是一个绕不开的概念,CUDA(Compute Unified Device Architecture),是显卡厂商...
  • 自行装配适合深度学习电脑

    千次阅读 2017-09-12 17:08:51
    是的,你可以在一个39美元的树莓派板子上运行TensorFlow,你也可以在用一个装配了GPU的亚马逊EC2的节点上跑TensorFlow...但是如果你和我是一样的人,你绝对想自己攒一台奇快无比的深度学习电脑。 好吧,一
  • 深度学习需要处理大量的图像、音频,这里就涉及到大型矩阵的乘法计算,所以评价显卡带宽是必须首要考虑的。 GPU计算速度比CPU快的原因之一就是内存带宽。 在同一个架构内内存带宽是可以进行比较的。例如...
  • 不管你是Windows用户,Mac用户还是Ubuntu用户,只要电脑配置允许,都可以做深度学习,毕竟Windows、Mac和Ubuntu系统都可以进行深度学习环境的搭建。接下来就记录下自己在Windows系统上搭建深度学习环境的过程,方便...
  • 计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。...
  • 【安装记录】深度学习电脑配置

    千次阅读 2018-06-30 16:54:00
    开心!开心!研究了大概一个晚上和一个早上的时间,骚扰了淘宝客服N个,参考了很多网友,给出了几种配置。i7 7700k 和z270-p是一对的i78700k 和 z370-a是一对的i7 7800 和x299是一对的需要考虑机箱与显卡大小、主板...
  • 深度学习相关的硬件配置

    千次阅读 2020-06-01 16:43:58
    1.目前只有Nvida GPU能完整的支持深度学习,所以请购买较新的nvidia显卡(pascal、turing架构以上) 2.GPU上的投资回报比基本呈线性变化,因此可以按照自己的需要配置不同GPU。 3.保持工作站长期稳定工作需要一个...
  • 阅读大概需要10分钟 Follow小博主,每天更新前沿干货 选自 | Medium 作者 | Towards AI Team 转自 | 机器之心 编辑 | 陈萍、杜伟 一份来自 Towards AI 的关于机器学习、数据科学和深度学习的最佳笔记本电脑。...
  • 沃达德软件:深度学习,实现智能聊天对话机器人(大数据人工智能公司) 智能对话机器人是聊天机器人的一种,是通过语音或文本进行对话的人工智能程序。目前使用广泛的聊天机器人采用机器学习、深度学习技术,如检索...
  • 显卡(GPU)是深度学习的重要部件,甚至比CPU更重要。做深度学习不用GPU只用CPU显然是不明智的,慢的如乌龟,跑个模型等几天,难熬,但适合摸鱼 使用16bit的RTX 2070或者RTX 2080 Ti性价比更高。另外购买二手的32...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 69,716
精华内容 27,886
关键字:

深度学习电脑

友情链接: qwe.rar