• 深度学习电脑配置

    2017-09-12 17:06:44
    与“传统” AI 算法相比,深度学习(DL)的计算性能要求,可以说完全在另一个量级上。 而 GPU 的选择,会在根本上决定你的深度学习体验。那么,对于一名 DL 开发者,应该怎么选择合适的 GPU 呢?这篇文章将深

    来源:雷锋网

    本文作者:三川

    原文链接:https://www.leiphone.com/news/201705/uo3MgYrFxgdyTRGR.html

    与“传统” AI 算法相比,深度学习(DL)的计算性能要求,可以说完全在另一个量级上。

    而 GPU 的选择,会在根本上决定你的深度学习体验。那么,对于一名 DL 开发者,应该怎么选择合适的 GPU 呢?这篇文章将深入讨论这个问题,聊聊有无必要入手英特尔协处理器 Xeon Phi,并将各主流显卡的性能、性价比制成一目了然的对比图,供大家参考。

    先来谈谈选择 GPU 对研究深度学习的意义。更快的 GPU,能帮助新人更快地积累实践经验、更快地掌握技术要领,并把这些应用于新的任务。没有快速的反馈,从错误中学习要花费太高的时间成本,学习深度学习便很可能变成一个令人反胃、进而望而生畏的经历。

    是否需要多卡?

    出于最初的激动,我走上了多卡交火的不归路——用 40Gbit/s 的 InfiniBand 桥接器连接,我搭建了一个迷你 GPU “集群”,万分激动地试验多卡是否能有更好的表现。

    但很快我就发现,让神经网络在多卡上高效地并行处理,其实是一件挺不容易的事。尤其是对于更密集的神经网络,性能的提升可以用一句“不过如此”来形容。通过数据并行化,小型神经网络倒可以很高效地并行处理,但大型的就不行了。比如 Kaggle 竞赛“Partly Sunny with a Chance of Hashtags”,我用深度学习方法拿下了第二名,多卡就基本没有加速效果。

    这之后,我继续探索如何在多卡环境玩深度学习。

    我开发了一个全新的 8 bit 压缩技术,其模型并行化比起 32 bit 方法要高效得多,尤其是密集或全连接层。但我同时发现,并行化可以让你极度失望——我幼稚地针对一系列问题优化了并行算法,结果发现,即便有优化的特制代码,多 GPU 的并行化仍然效果一般,尤其考虑到投入的大量精力。

    在搞并行化之前,你必须要非常了解你的硬件,以及它与深度学习算法的相互支持程度,来估计是否能从并行化获益。

    玩深度学习选哪块英伟达 GPU?有性价比排名还不够!


    这是我的 PC。你看到的是三块泰坦以及 InfiniBand 桥接卡。但这个配置适合深度学习吗?

    从那时起,对 GPU 并行的支持越来越常见,但离普及还差得远,更不要提高效地运行。到目前为止,唯一一个能在多卡、多机环境实现高效算法的深度学习框架,是 CNTK。它利用了微软特制的具有 1 bit 量化(高效)和 block momentum(非常高效)的并行化算法。

    如果在 96 卡 GPU 集群上运行 CNTK,线性速度预计可达到 90 到 95 倍。PyTorch 或许会是另一个能高效地支持多机并行化的框架,但暂时还没到位。如果你在一台设备上搞并行化,你的选择基本就是 CNTK、Torch 或者 PyTorch。这些框架有不错的加速表现(3.6-3.8 倍),对于一机四卡(最多)有预定义的算法。其他支持并行化的库和框架也存在,但它们要么很慢(比如 TensorFlow,只有两到三倍的加速);要么对于在多卡环境很难用(比如 Theano);再要么两个缺点都有。

    如果并行化对你很重要,我推荐你用 Pytorch 或 CNTK。

    多卡,但不搞并行

    多卡的另一个优势是,即便你不对算法做并行化,还可以同时跑多个算法、实验——每个算法在在一个 GPU 上单独运行。你不会获得任何加速,但同时使用不同算法或参数,你会得到更多关于效果表现的信息。如若你的主要目标是尽快积累深度学习经验,这是非常有用处的。对于需要对一个新算法的不同版本做实验的研究人员,这也相当有用。

    这是多卡在心理上的价值。处理一个任务与获得结果反馈之间的时间越短,大脑把相关记忆碎片组织起来、建立起该任务知识图的效果就越好。如果数据集不大,你在两块 GPU 上用这些数据同时训练两个卷积网络,你会很快就会知道“一切顺利”的感觉有多好。你会更快地发现交叉验证误差,并做合理解释。你能发现一些线索,让你知道需要添加、移除或调整哪些参数或层。

    总的来讲,你可以说对于几乎所有任务,一块 GPU 基本就够了。但用多卡来加速深度学习模型,正在变得越来越重要。如果你的目标是快速入门深度学习,多块便宜的显卡也是不错的。就我个人而言,我更倾向选择多块弱一点的 GPU,而不是一块核弹,对于研究实验也是如此。

    应该选哪家的加速器——英伟达 GPU,AMD GPU,还是英特尔 Xeon Phi?

    英伟达的标准算法库,使得在 CUDA 中建立第一批深度学习库非常简单。但对于 AMD OpenCL,这样的强大标准库并不存在。现实是,现在 A 卡并没有好用的深度学习库——所以一般人只能选 N 卡。即便将来有了 OpenCL 库,我仍会接着用 N 卡。原因很简单:GPU 通用计算,或者说 GPGPU 的社群基本上是围绕着 CUDA 转的,而没有多少人钻研 OpenCL。因此,在 CUDA 社区,你可以立刻获得好的开源方案和代码建议。

    另外,对于深度学习,即便这项技术及其产业尚在襁褓之中,英伟达可谓是全面出击。老黄的投入并没有白费。那些现在才投入资金、精力,想要赶上深度学习风口的公司,由于起步晚,离英伟达的距离有老大一截。当前,使用任何除 NVIDIA-CUDA 之外的软硬件组合玩深度学习,简直是故意跟自己过不去。

    至于英特尔 Xeon Phi,官方宣传是你能用标准的 C 语言代码,并轻松把代码转化为加速的 Xeon Phi 代码。该功能听着不错——你也许会想着可以借助海量的 C 语言资源。但实际情况是,只有非常少数的 C 语言代码有支持,而且大部分能用的 C 代码会非常非常的慢。因此,它其实比较鸡肋。

    我曾在一个 Xeon Phi 集群工作站搞研究,这期间的经历不忍回想,一把辛酸泪:

    我无法运行单位测试,因为 Xeon Phi MKL 和 Python Numpy 不兼容;我不得不重构大部分的代码,因为 Xeon Phi 编译器无法对模板做恰当的 reduction,比如说对 switch statement;我不得不修改 C 界面,因为 Xeon Phi 编译器不支持一些 C++11 功能。

    所有这些迫使我在心酸沮丧中重写代码,并且没有单位测试。这过程极度漫长,堪称地狱般的经历。

    直到我的代码终于成功执行,但所有东西速度都很慢。有一些问题,搞不清是 bug 还是线程调度程序的原因,总之如果张量大小接连发生改变,性能就会大幅降低。举个例子,如果你有大小不同的全连接层或 dropout 层,Xeon Phi 比 CPU 还要慢。我在独立矩阵乘法上重现了这个问题,并发给英特尔,但没有回音。

    所以,如果你真想搞深度学习,离 Xeon Phi 越远越好。

    预算有限,怎么挑 GPU?

    想到为深度学习挑选 GPU,你脑子里冒出来的第一个问题大概是:最重要的性能参数是什么?Cuda 核心数目?频率?显存大小?

    都不是。

    对深度学习性能影响最大的参数是显存带宽。

    简单来讲,GPU 为显存带宽而优化,为此牺牲了显存读取时间,即延迟。而 CPU 恰恰与此相反——如果只涉及少量内存,它能非常快速地做计算,比如个位数之间的乘法(3*6*9)。但是对于大量内存之上的运作,比如矩阵乘法(A*B*C),CPU 是非常慢的。由于高显存带宽,GPU 就很擅长处理这类问题。当然,CPU 与 GPU 之间有的是微妙细致的区别,这只是非常重要的一个。

    因此,如果你想要买一个玩深度学习快的 GPU,首先要看显存带宽。

    从显存带宽评估 GPU




    玩深度学习选哪块英伟达 GPU?有性价比排名还不够!

    近几年 CPU、GPU 的带宽对比

    同一代架构内,GPU 的带宽可以直接比较。比如 Pascal GTX 1080 vs. GTX 1070。单独看显存带宽就可以直接判断它们在深度学习上的性能差距:GTX 1080 (320GB/s) 比 GTX 1070 (256 GB/s) 带宽快 25%,实际情况大约如是。

    但不同架构之间,比如 Pascal GTX 1080 vs. Maxwell GTX Titan X,带宽并不能直接比较。这是由于不同的制造工艺对显存带宽的使用情况不同。这使得 GPU 之间的对比会稍嫌棘手。但即便如此,仅仅看带宽还是能大致估出 GPU 的深度学习速度。

    另一个需要考虑的因素,是与 cuDNN 的兼容性。并不是所有 GPU 架构都提供支持。几乎所有的深度学习库都借助 cuDNN 进行卷积运算,这会把 GPU 的选项限制到 Kepler 开普勒或之后的架构,即 GTX 600 系列或更新。另外,Kepler GPU 大多很慢。因此,你应该选择 GTX 900 或 1000 系的 GPU 获得理想性能。

    为了对每块显卡在深度学习上的性能差异,给大家一个大致估计,我创建了一个简单的条形图。读这张图的姿势很简单。比如说,一个 GTX 980 的速度大约是 0.35 个 Titan X Pascal;或者,一个 Titan X Pascal 几乎比 GTX 980 快三倍。

    雷锋网(公众号:雷锋网)提醒,我自己并没有所有这些显卡,我也并没有在每张显卡上做深度学习跑分评测。这些性能对比,是从显卡参数以及计算评测(与深度学习同一级别的计算任务,比如密码挖掘)中获得。因此,这些只是大略估计。真实数字会有一点变化,但误差应该是极小的,并不会影响排序。

    另外需要注意的是,对 GPU 性能利用不足的小型神经网络,会让性能更强的 GPU 在对比中吃亏。比如说,在 GTX 1080 Ti 上跑一个小型 LSTM(128 隐层; batch size > 64),并不会比在 GTX 1070 上快很多。得到下图中的数字,你需要跑更大的神经网络,比如 1024 个隐层的 LSTM(batch size > 64)。

    玩深度学习选哪块英伟达 GPU?有性价比排名还不够!


    GPU 粗略性能对比

    性价比分析

    如果我们把上图中的显卡性能除以价格,就得到了每张卡的性价比指数,便是下图。它在一定程度上反映出我们的装机推荐。

    玩深度学习选哪块英伟达 GPU?有性价比排名还不够!


    性价比对比

    新卡的价格来自美亚,旧卡来自 eBay。雷锋网提醒,该图的数字在很多方面都有些些微偏颇。首先,它没有考虑显存大小。通常情况下,你需要比 GTX 1050 Ti 更大的显存来玩深度学习。因此,榜上靠前的部分显卡虽然性价比很高,但是并不实用。

    同样的,用四个小 GPU 比用一个大 GPU 要困难得多,因此小 GPU 出于劣势。另外,买 16 个 GTX 1050 Ti 不可能得到四个 GTX 1080 Ti 的性能,你还需要另外买 3 个 PC。如果我们把这一点也考虑进去,上图看上去应该是这样的:

    这幅修正过的 GPU 性价比条形图,把其他 PC 硬件的成本也纳入考虑——把可兼容 4 GPU 的高端 PC 平台的成本,定为 $1500。该情况下,如果你想要买许多 GPU,不出意料的,更高端的 GPU 会占优势,因为 PC 平台+ 显卡的整体性价比更高。

    但其实,这还是有所偏颇的。不管四个 GTX 1080 Ti 性价比有多高,对普通人而言,这并没有意义——因为买不起。因此,开发者真正感兴趣的应是有限预算里的性价比。针对你的预算,最佳系统选项是什么?你还需要考虑一些其它问题:你计划让这个 GPU 服役多久?几年后,你是要升级 GPU 还是升级整机?将来是否希望出手旧 GPU,回收一些成本,再买个新的?

    如果你能平衡多方面的考虑,最后的结论应该与下面的建议介意。

    GPU 推荐

    通常,我会推荐 GTX 1080 Ti, GTX 1080 或 GTX 1070。如果你的预算足够买 GTX 1080 Ti,就不用犹豫了。GTX 1070 便宜一点,但仍然比上代 GTX Titan X (Maxwell) 要快。相比 GTX 980 Ti,所有这些卡都应该优先考虑,因为更大的显存:11GB、8GB  而不是 6GB。8GB 显存听上去或许不多,但对许多任务是绰绰有余的。对于 Kaggle 竞赛里的大多数图像数据集、deep style 和自然语言理解任务,你基本不会遇到问题。

    如果你是第一次尝试深度学习,只是偶尔参加 Kaggle 竞赛,GTX 1060 是最好的入门 GPU。但我不会推荐 3GB 显存的 GTX 1060。

    在性价比方面,10 系显卡是相当不错的。GTX 1050 Ti, GTX 1060, GTX 1070, GTX 1080 和 GTX 1080 Ti 都排在前列。GTX 1060 和 GTX 1050 Ti 面向初学者,GTX 1070、GTX 1080 是适合初创公司的多面手,对部分学术研究和产业界也可。GTX 1080 Ti 则是全能高端选项。

    我通常不推荐新推出的 Titan Xp,相比其性能,它定价过高,不如选 GTX 1080 Ti。但对于摆弄大型数据集或视频数据的计算机视觉研究人员,Titan Xp 仍然有市场。在这些领域,每一 GB 显存都有价值,而 Titan Xp 比 GTX 1080 Ti 多了 1GB。有了这两者,我不会推荐 Titan X (Pascal) 。

    如果你已经有了 GTX Titan X (Maxwell),想要升级到 Titan Xp。我的建议是:把钱存着买下一代,不值。

    如果你预算有限,偏偏又需要 12GB 的内存,可以考虑买个二手的 GTX Titan X (Maxwell) 。

    但是,对于大多数研究人员,最好的选项仍然是 GTX 1080 Ti。泰坦的额外 1GB 在大多数情况下没什么影响。

    对我个人而言,会选择多个 GTX 1070 或 GTX 1080 来做研究。我宁愿多运行几个慢一点的试验,而不仅仅是运行一个更快的。在 NLP,内存要求并没有计算机视觉那么高,单只 GTX 1070/GTX 1080 对我来说就够了。我需要处理的任务、如何进行试验,决定了对我而言的最佳选择,不管是 GTX 1070 还是 GTX 1080。

    对于预算紧张的开发者而言,选择余地非常有限。租 AWS 上的 GPU 实体价格已经太高,还是买自己的 GPU 更划算。我不推荐 GTX 970,不仅慢,二手的价格也不够实惠,而且它还存在显存启动问题。我的建议是加点钱上 GTX 1060,更快、显存更大而且没有毛病。GTX 1060 超出你的预算的话,我建议 4GB 版 GTX 1050 Ti。4GB 显存确实限制比较大,但如果对模型做些修改,仍可以得到还可以的性能表现。对于大多数 Kaggle 竞赛而言,GTX 1050 Ti 是合适的,在少部分比赛可能会影响你的竞争力。

    如果你只是私下玩玩深度学习,没打算认真钻研,GTX 1050 Ti 是一个合适的选择。

    结论

    有了本文中的所有信息,你大概已经能平衡显存大小、带宽、价格等多方面因素,来做出合理的购买决策。现在,我的建议是若预算充足,就上 GTX 1080 Ti, GTX 1080 或 GTX 1070。刚刚上手深度学习、预算有限的话,选 GTX 1060。预算实在有限,那么 GTX 1050 Ti。计算机视觉研究人员可能会需要 Titan Xp。

    本文转自雷锋网,如需转载请至雷锋网官网申请授权

    展开全文
  • 电脑配置 可以进行深度学习的显卡(有些显卡不能进行深度学习)【独立显卡】 显存的大小不能低于4G 内存的大小不能低于8G CPU不能低于四核八线程 GPU选择建议 使用GTX 1070或更好的GPU 购买带有张量核心的RTX ...

    深度学习核心的是GPU(深度学习加速)
    反过来说:GPU的选择将从根本上决定你的深度学习体验


    电脑配置

    1. 可以进行深度学习的显卡(有些显卡不能进行深度学习)【独立显卡】
    2. 显存的大小不能低于4G
    3. 内存的大小不能低于8G
    4. CPU不能低于四核八线程

    GPU选择建议

    1. 使用GTX 1070或更好的GPU
    2. 购买带有张量核心的RTX GPU
    3. 在GPU上进行原型设计,然后在TPU或云GPU上训练模型

    显卡型号

    显卡型号 描述
    RTX 2080 Ti 性能最好的GPU
    RTX 2080,GTX 1080(高端),RTX 2060或GTX 1060 (6GB)(中低端) 高性价比
    GTX 1070, GTX 1070 Ti, GTX 1060 性价比高,便宜
    RTX 2080 Ti, RTX 2080 使用的数据集>250GB
    GTX 1060 (6GB) 预算很少、穷人之选
    GTX 1050 Ti (4GB)/CPU(建模)+ AWS/TPU(训练) 几乎没预算
    GTX 1060 (6GB)(建模)+ AWS(最终训练)+ fast ai库、RTX 2070 Kaggle竞赛
    RTX 2080 Ti NLP研究人员
    采用鼓风设计的GTX 2080 Ti,如果训练非常大的网络,请选择RTX Titans 计算机视觉或机器翻译研究人员
    RTX 2070起步,以后按需添置更多RTX 2070 已经开始研究深度学习
    GTX 1050 Ti(2GB或4GB显存) 尝试入门深度学习

    显卡选择参考网址:

    • https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/
    • https://www.sohu.com/a/305898939_610300
    展开全文
  • 从李飞飞的课程里,可以看到她的电脑配置,可以估计的配置是机器学习的基本配置,我们可以参考一下:CPU: intel core i7-7700k 4.4G内存:4X8G 显示卡: 两个NV GTX 1070硬盘: HDD一个, SSD两个参考的文章:...
    从李飞飞的课程里,可以看到她的电脑配置,这个配置是机器学习的基本配置,我们可以参考一下:
    CPU: intel core i7-7700k 4.4G
    内存:4X8G 
    显示卡: 两个NV GTX 1070

    硬盘: HDD一个, SSD两个




    参考的文章:

    http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture8.pdf

    Python游戏开发入门

    你也能动手修改C编译器

    纸牌游戏开发

    http://edu.csdn.net/course/detail/5538 

    五子棋游戏开发

    http://edu.csdn.net/course/detail/5487
    RPG游戏从入门到精通
    http://edu.csdn.net/course/detail/5246
    WiX安装工具的使用
    http://edu.csdn.net/course/detail/5207
    俄罗斯方块游戏开发
    http://edu.csdn.net/course/detail/5110
    boost库入门基础
    http://edu.csdn.net/course/detail/5029
    Arduino入门基础
    http://edu.csdn.net/course/detail/4931
    Unity5.x游戏基础入门
    http://edu.csdn.net/course/detail/4810
    TensorFlow API攻略
    http://edu.csdn.net/course/detail/4495
    TensorFlow入门基本教程
    http://edu.csdn.net/course/detail/4369
    C++标准模板库从入门到精通 
    http://edu.csdn.net/course/detail/3324
    跟老菜鸟学C++
    http://edu.csdn.net/course/detail/2901
    跟老菜鸟学python
    http://edu.csdn.net/course/detail/2592
    在VC2015里学会使用tinyxml库
    http://edu.csdn.net/course/detail/2590
    在Windows下SVN的版本管理与实战 
    http://edu.csdn.net/course/detail/2579
    Visual Studio 2015开发C++程序的基本使用 
    http://edu.csdn.net/course/detail/2570
    在VC2015里使用protobuf协议
    http://edu.csdn.net/course/detail/2582
    在VC2015里学会使用MySQL数据库
    http://edu.csdn.net/course/detail/2672


    展开全文
  • 半夜睡不着,想谈谈自己对深度学习主机配置的一些经验,想自己diy深度学习硬件的朋友可以参考一下,因为本人也不是特别资深的电脑diy爱好者,所以很多地方也是一知半解,有错误请大家指正。首先我会谈几点必须注意的...

    原文地址:https://blog.csdn.net/qq_30263737/article/details/95447461

    半夜睡不着,想谈谈自己对深度学习主机配置的一些经验,想自己diy深度学习硬件的朋友可以参考一下,因为本人也不是特别资深的电脑diy爱好者,所以很多地方也是一知半解,有错误请大家指正。首先我会谈几点必须注意的事项;然后我阐述一些配件选择的原则,因为硬件更新是很快的;最后会给出一下当下的配置清单。下面我们步入正题。

    配置深度学习主机的注意事项:

    1.一定计算好需要多大功率的电源!我们配置深度学习主机最核心的就是显卡,GPU的功耗往往很大,尤其我们经常使用两块以上的显卡。因此电源功率很重要,这是我们主机稳定工作的保障,我看到很多服务器甚至会选择双电源,但是我自己没有试过,不是很清楚双电源。

    2.双显卡以上时必须注意处理器和主板的选择。如果是双显卡以上,那么pcie就面临是工作在x16还是x8的状态,这里应该是说带宽。我们在选择CPU是就要关注他们的pcie通道数,通道数大约40条以上两个GPU才会都工作在x16状态。另外可以选择双CPU的主板,这样就可以支持两个甚至更多的GPU工作在x16状态。

    3.使用m.2固态硬盘时注意是否影响GPU工作在x16状态。这点也是个第二点有关的,就是pcie的通道资源是有限的,有的主板会写你使用m.2的固态会占用谁的资源,导致那个接口不能用。所以我一般会用sata那种接口。不过通道多的一般没什么影响,还是要看一下主板说明。

    硬件选择原则

    1.GPU选择

    因为我们核心就是为了使用GPU,所以我们就先想好用几块GPU,什么型号,然后再去选择其他配件。GPU有许多参数,比如频率,位宽,cuda数。其中√深度学习影响大的大约是这几个参数,cuda核心数,显存大小,位宽。所以我们选择时可以主要参考这三个参数,越大越好。另外大的原则是越新的架构会越好,比如10系列的会比9系列的好,因为架构上做了优化,具体的我不懂,比如gtx1080肯定比gtx980好,gtx1060和980就要看看了,这个可以参考网上的天梯图,因为我们大部分都是买1080ti或者泰坦,所以还是好比较的。如果是专门的计算卡Tesla,就要看刚才说的三大参数。有钱当然上计算卡,没钱就游戏卡。然后想看总几块显卡,这对后面硬件的选择影响很大。

    2.CPU与主板选择

    CPU与主板是挂钩的,所以放在意思说。影响我们cpu选择的就是gpu的数目。前面提到过一个概念pcie通道数。我们使用一个gpu时,基本不用考虑pcie通道数,目前主流的8带cpu都是没问题的,当然推荐使用i7系列了,因为我们的程序除了使用gpu,很多通用计算是在cpu上进行的,他大大影响了我们程序运行的速度。另外如果是多人使用的工作站还是推荐使用至强系列的e3或者e5,一个是稳定,另一个是一般核心和线程多。多人使用时一定要注意线程数,线程越多,每个人使用时就越流畅。如果是两个那么必须使用i9或者至强系列中通道数足够的芯片。两个以上的推荐使用至强系列的cpu,而且最好是两个cpu, i9应该最多带三个gpu,别太勉强人家了。最后我们一般也都会关注主频,当然主频越高越快,价格也越贵,我认为参考主流i5的主频是个好的基准。这点也为我们选择至强系列芯片提供了参考。关键点,线程,主频,pcie通道数。然后根据cpu原则主板,一般家用芯片我们会选择z系列主板,i7八代配z370,如果是一个gpu其实我觉得好的b系列也没问题,b360之类,因为为了稳定,我们不会超频,所以b系列完全够用。这里注意的就是供电相数,大家可以查一下,因为我也不懂,就觉得数越发越好。多显卡的话,x299等x系列主板,或者其他服务器主板,就是不太好买。对了,多显卡千万不要查那个交火!!!

    3.内存

    CPU和主板支持什么内存就插哪种。主要参数就是类型,ddr4,ddr3这种的表示。频率要看主板支持多大,在主板BIOS设置中要设置才会倍频,要不白买高频率的了。内存大小,当然越大越好!还是那句话看主板支持多大的内存。一般16g一个人用足够,多个人怎么也得32g吧。毕竟matlab有时还是会用到的,内存别太小。一般就是看威刚,金士顿,芝奇,海盗船这几个牌子,芝奇,海盗船用的晶元据说好一些,金士顿也有骇客神条,还是看预算吧,一般不会差太多钱。

    4.散热器

    推荐水冷吧,要是i5什么的风冷就行,服务器主板的话,不太懂,我还是点名海盗船,还有酷冷,九州。

    5.电源

    之前说过注意功率!电源核定功率的80%差不多等于你所有配件的总功率比较好。长城,振华,海韵,海盗船推荐使用,鑫谷,安钛克,先马也还可以。这里有时提到的的金牌,银牌,白金就是转换率的不同。金牌一般就够用了。

    6.机箱

    不是越大越好,风道合理就行,当然还是买全塔式的。选品牌的质量比较好,好吧,其实我一般就买先马的,我感觉便宜。

    6.硬盘

    一般固态和机械都要,固态装系统,机械买监视级别的,放数据用。LINUX的话我一般选择把home挂载到机械盘,乱七八糟的都放自己home里。别买杂牌子吧,颗粒不会太好,使用寿命短。

    目前推荐配置表

    1.单显卡常规推荐

    这个配置整体已经算中等的,CPU这里是盒装价格,也可以考虑散片便宜一点,没什么区别,就是盒装保修三年吧。这里主板我们一般不超频,可以选用B360,具体的可以自己看一下,重点看一下内存条支持的大小和频率,供电相数。内存只能多不能再少,最后我会推荐大家一套更家庭化的低配,内存可以少一点。散热同价位可以选择九州风神的堡垒或者水元素,这两个没用过,也不好说怎么样,贵一些的就是美商海盗船的H100i,115i,150i等。电源这里之前提过推荐使用的牌子都可以入手,预算不够可以买还可以的几个牌子,功率这个算是高的,应该700w就可以,甚至650w也能带,所以我推荐的850w,以稳为主。硬盘可以根据需要调整大小,希捷的硬盘也可以。显卡的话也可以选用新出的2080ti或者泰坦,看预算吧。价格方面这个是我之前在京东看的,淘宝上的天猫旗舰店应该会便宜些,大家还是货比三家再下单。可以省不少钱。

    2.双显卡普通配置

    使用的i9带动双显卡,这里的显卡选用的微星,比较便宜,也可以换成华硕,技嘉等,现在新出了2080ti,这个价格可能已经不准了。两个泰坦的话应该问题也不大,电源能带起来。这里再补充一个服务器CPU的配置

    3.三个及以上显卡

    这种情况我还是推荐大家买品牌服务器,然后和他们沟通去定制。

    这是京东上的一个没有GPU的配置,价格肯定是要贵一些,但是没办法,因微原则上要用到两个CPU,这类主板市场不太好买,洋垃圾很多,所以最好还是找一些代理商直接定制。两个GPU之前大约算个,4.7k左右吧,如果是RTX2080ti就要贵一些,也得50k多,要加双电源。这里参考我之前说的大原则,合理定制配置,这里能省的恐怕就是内存和硬盘的大小,不会省太多钱。最最后,给各位穷鬼提供一个我认为的家用深度学习最低配。血泪省钱史啊。

    4.最低家用深度学习配置

    这里是我的以1050ti为核心的最低配置,最好最低配置一个1060 6g的,会好很多,电源还是能带起来的。内存也可以多插一个8g。要是想更多内存条只能换主板了。主板方面可以选用稍微贵一下的低端z370,可以超频。要换I7的话,还是用水冷稳点。

    最后一句话,有钱的话就随便买,舒心省心。有钱真的可以为所欲为

    2018.11.13补充 :目前看RTX2080ti 性能要好 但是价格也昂贵 ,性价比还是低 。有游戏玩家称他们的显卡有翻车的, 建议预算允许的话 ,观察一段时间再入手 。另外2080和1080ti的话,cuda核数目我没有对比,主要是显存上差距,同样的程序占用的显存在不同显卡上应该是一样的。这点涉及到一些cuda和nvidia的底层调用,我没有查过资料,想入手2080代替1080ti的查一下这部分的资料,否则加大batch size时会出现溢出的现象

    2018.12.18补充:GTX1080ti新的基本断货,二手的现在很便宜,但是质量不敢保证,有一批之前挖矿的在鱼目混珠。建议用RTX2080代替吧,没办法了,价格比较相近,能上2080ti就上吧。另外最近看了一篇文章,讲了GPU在x8和x16状态下性能影响不大,所以普通的主板其实装两个或以上的GPU也是完全可以的,并不一定要服务器主板。这里还要考虑电源问题。
    内存的大小,至少保持和显存大小一致,频率影响不大。
    ————————————————
    版权声明:本文为CSDN博主「Ring__Rain」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/qq_30263737/article/details/95447461

    展开全文
  • 《如何配置一台适用于深度学习的工作站?》知乎https://www.zhihu.com/question/33996159/answer/143971704 《码农的高薪之路,如何组装一台适合深度学习的工作站?》subtitle SherpaMan中国 05-19 18:40...

    如何DIY自己的深度学习工作站

    如何配置一台适用于深度学习的工作站?》知乎 https://www.zhihu.com/question/33996159/answer/143971704

    码农的高薪之路,如何组装一台适合深度学习的工作站?》subtitle SherpaMan中国 05-19 18:40 https://c.m.163.com/news/a/CKQP405405119VQF.html?spss=newsapp&spsw=1
    初学者深度学习工作站配置》 原创 2017年03月17日 12:01:24 CSDN http://blog.csdn.net/Thriller_wgc/article/details/62885400

     

    展开全文
  • 对于刚接触深度学习的学友而言,可能都会碰到电脑配置的问题,比如显卡型号、内存容量、处理器型号等。好的电脑配置,比如GPU加速的显卡,是能够有效缩短算法的训练时间的,这能让人尽快的看到算法的结果,也便于...
  • 2017年2018年大火的~深度学习,应用越来广泛、深入,例如, 安防: 人脸识别、指纹识别... 汽车驾驶:自动无人驾驶 ... 翻译 语音识别、机器翻译... 医学:医疗图像诊断... 金融:量化策略交易... 逻辑...
  • 前言 最近打算将实验室的电脑配置升级一下,但是自己对电脑组装了解不多,对硬件的选择也了解很少,因此这里我笔记一些关于深度学习GPU和CPU,内存,硬盘,cuda的相关知识。 ...
  • 引子市场上用于深度学习训练计算机大致情况如下:(1)服务器/工作站(支持2、4、8块GPU架构):普遍存在噪音大,无法放置于办公环境,必须放到专门的机房,维护成本高,另外数据存储带宽、延迟、容量也不尽如意。...
  • 电脑主机配置主要包括CPU、GPU、内存、硬盘、主板、机箱、电源、散热器八部分(显示器、键盘、鼠标默认不需要)。做深度学习主要看GPU和内存两块。 1、显卡(NVIDIA) 显卡目前geforce系列最好的三种是GTX Titan X...
  • IDE的下载、安装与环境配置 软件下载官网https://www.python.org/downloads/release/python-2715/ 注意型号是否与电脑操作系统相匹配 一直点击下一步,就可以了,安装部分结束 现在是环境变量配置 1、右击...
  • 目录: Tensorflow在Windows10的安装 Tensorflow,那么什么是Tensor? 为什么Tensorflow那么受欢迎? CNTK分析。 Reference Tensorflow在Windows10的安装 ...格式
  • Ubuntu16.04+GTX1070+Nvidia 375.66+CUDA8.0+CUDNN5.0+Tensorflow-gpu 目录 Ubuntu16.04+GTX1070+Nvidia 375.66+CUDA8.0+CUDNN5.0+Tensorflow-gpu 1.anaconda安装 2.NVIDIA驱动安装 ...配置cuDNN 5...
  • 学习了很长时间的理论,很想做一些真实的项目,个人笔记本配置太低,决定自己装配一天可以运行深度学习项目的高配置电脑。记录下过程。希望给第一次装机的同学一些指导,少走弯路,当然我也是第一次装机。所有零配件...
  • 学习编程,你真正需要的是什么样配置电脑? 先说说我自己学习编程那时候的事情,当时我看中了游戏开发这一块,但游戏开发需要C/C++编程技术,那时候我只有些C语言开发的基础知识,于是下定决心要先学习...
  • 标签(空格分隔): 深度学习 我当初进入深度学习领域知识学习的时候,并不知道一张好显卡对网络模型训练的重要性,直到我有幸参与学校实验室的项目,并意识到缺乏足够处理能力的显卡在大量训练数据下很有可能会让...
  • 个人深度学习主机配置如下: 设备名称 型号 京东自营价格 CPU i9-9900k (8核16线程) 3799元 显卡 技嘉RTX 2080Ti TURBO 11G显存 9999元 主板 ROG STRIX Z390-E GAMING 2199元 内存...
  • 作为一个深度学习的初学者,你可能会遇到这样的问题:“我该如何训练我自己或者别人的Model?”“我该如何配置一台合适的主机?”“目前有哪几种训练模型的方式?” 接下来,我将会对此进行详细的介绍,当然,这...
  • 环境搭建 | 深度学习爱好者如何配置带GPU电脑环境2017-06-14 11:30英特尔/PC/移动芯片作者 | 沈浩最近开始学习深度学习(Deep Learning)技术,特别是google的Tensorflow深度学习包开源后,深度学习已经成为大数据...
1 2 3 4 5 ... 20
收藏数 12,974
精华内容 5,189