2018-10-21 20:19:06 IAMoldpan 阅读数 1308
  • WebGL 可视化3D绘图框架:Three.js 零基础上手实战

    相对于Flash,Flex,Silverlight等富客户端技术,WebGL之ThreeJS:通过OpenGL ES 2.0,WebGL可以为HTML5 Canvas提供硬件3D加速渲染,这样Web开发人员就可以借助系统显卡来在浏览器里更流畅地展示3D场景和模型了,还能创建复杂的导航和数据视觉化。这是未来的网游趋势,如果你想做可视化动画三维企业应用,又不想用复杂的C++程序,那么 Three.js 将会是你最好的选择。  本课程主要的功效就是让你学习完本教程后,能够写出在浏览器上流畅运行的3D程序,包括但不限于:大数据可视化,360度全景展示,3D游戏,完成这些事情,会比c++用更少的代码。而且更容易,更酷。 在本课程中,我们将由浅入深的讲解这些效果的实现,这能让你迅速提高开发技能,在职场中处于不败之地。课程共十三章,大大小小贯穿了近10个案例,只要你具备基础的HTML和JavaScript基础即可学习。

    887 人正在学习 去看看 童金浩

欢迎访问Oldpan博客,分享人工智能有趣消息,持续酝酿深度学习质量文。

老婆,我想要煤气炉


《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

 

显卡的香气

新显卡出世了,就在前几天。

可以说是万众期待下,老黄发布了消费级(民用级)显卡RTX2070、RTX2080、RTX2080TI,作为“大多数人”,不得不说在发布会即将结束的那一刻,真的很想预订一块。真的很有诱惑力啊,毕竟价格摆在那里,RTX2080TI显卡相比1080TI可是贵了许多,Founder Edition 版 京东上预订9999差不多1w了。

好了,先不论价格,来简单看下其参数对比(from https://en.wikipedia.org/wiki/GeForce_20_series)。

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

重点关注红色剪头指向的指标:

从左到右:流处理器、Tensor Core数量、最低\最高频率、带宽、TFLOP。

详细衡量一下:

最顶级的当然是RTX 2080 Ti,4352个CUDA核心,核心基准频率1350MHz,加速频率公版1545MHz、FE公版超频1635MHz,搭配352-bit 11GB GDDR6显存,带宽616GB/s,整卡功耗260W,8+8针供电,光线追踪性能10 Giga Rays/s、78T RTX-OPS。

接下来是RTX 2080,2944个CUDA核心,核心基准频率1515MHz,加速频率公版1710MHz、FE公版超频1800MHz,搭配256-bit 8GB GDDR6显存,,带宽448GB/s,整卡功耗225W,8+6针供电,光线追踪性能8 Giga Rays/s、60T RTX-OPS。

最后是RTX 2070,2304个CUDA核心,核心基准频率1410MHz,加速频率公版1410MHz、FE公版超频1710MHz,搭配256-bit 8GB GDDR6显存,带宽448GB/s,整卡功耗175W,8针供电,光线追踪性能6 Giga Rays/s、45T RTX-OPS。

大概可以得出这样的结论:流处理器普遍相比上一代多了,显存大小与上一代一致,显存频率和带宽相比上一代涨了一

再看下之前1080TI与1080的报道:

1、二者同为16nm制程、Pascal架构,不同的是GTX 1080为GP104-400核心,GTX 1080 Ti为GP102-350核心。核心面积上GTX 1080 Ti比GTX 1080大了50%,CUDA核心数量也多了近67%,光栅、纹理单元也都有近40%的提升。
2、频率方面:GTX 1080 Ti就没有GTX 1080高了,基础频率1480MHz,Boost频率1584MHz,比GTX 1080低了9%左右。显存方面GTX 1080 Ti和GTX 1080同为GDDR5X,不过显存容量、频率、位宽都有大幅的增长,这也使得GTX 1080 Ti的显存带宽到达了惊人的484GB/s,比Titan X Pascal还高了4GB/s。
3、功耗方面:GTX 1080 Ti额定250W,比GTX 1080多了70W,因此需要8+6 Pin的外接辅助供电来额外提供除PCI-E插槽 75W以外的225W(150+75)。
4、价格方面:GTX 1080 Ti可谓诚意十足,规格上的大幅领先却只比GTX 1080贵了400元,再看和GTX 1080 Ti规格近似的Titan X Pascal就要贵出4000元。不过在GTX 1080 Ti上市后,NVIDIA选择让GTX 1080降价100美元,也算是与GTX 1080 Ti拉开差距。

说完配置,那我们到底需不需要升级2080TI,让我们来讨论下吧。

与深度学习相关

这里我们不讨论最新出的显卡对游戏的提升有多大…blablabla,只知道上2080TI玩游戏玩的更爽就够了,前提是得适配并且用上最新的光线追踪技术(效果见下图)。


《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

 光线追踪惊人的“效果”

废话不多少,进入正题,提到显卡,与深度学习相关的也就是并行计算架构Tensor RT技术以及最近新出的TensorCore了,而流处理的数量以及频率以及带宽则是常规参数,当然是越大越多越硬越好,这里也就不再赘述了。

提提架构

我们平时利用显卡来跑深度学习程序的时候,对显卡架构来说并不用很关心,大部分关于显卡架构的工作,我们的CUDA库和所使用的深度学习库都帮我们处理了,我们平时用的GTX 1080ti、GTX 1080以及所有10系列的显卡,使用的是 Pascal 架构,而最新出来的RTX 2080、RTX 2080ti则使用的是Turning(图灵架构),而之前的服务器级别显卡P100则使用的是Volta架构

架构不同,计算能力也就不同,计算能力不同显卡支持的运算操作也就不同,我们从NVIDIA的CUDA-document中摘出这么一张图:

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

其中10系的计算能力是6.1、专业的计算卡P100是6.0、而V100是7.0,最新出来的图灵架构的显卡官网还有没有更新,应该跟CUDA-ToolKit10.0一块出来吧。

很显然上图可以看出,专业的计算卡,在单精度(32-bit)和半精度(16-bit)浮点型计算上都很出众,而我们平时的消费级显卡,例如1080TI(6.1),虽然说支持半精度浮点型计算,但是这数值..相比左右两边的就很寒蝉了。

再看下图,显然,1080TI的F16那一项直接就是N/A,而且,也没有TensorCore。

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

总结下,虽然说1080TI对16-bit精度的计算支持度并不是很强,但是我们平时训练大部分使用的还是32-bit的精度,只有在inference的时候才会使用16-bit或者8-bit浮点精度,对于我们研究来说,预测的速度区别影响并不是很大。

目前暂时还不知道RTX2080TI的具体参数,如果RTX2080TI对半精度的支持比较强的话,那么都可以和专业的计算卡媲美了。

Tensor Core

之前已经提到了Tensor Core,这个是什么东西,说白了就是比流处理器更强大的专门针对矩阵操作有特别优化的一个运算核。

每个 Tensor Core 包含一个 4x4x4 的矩阵处理阵列来完成 D=A x B + C 的运算,其中 A、B、C、D 是 4×4 的矩阵,如下图。矩阵相乘的输入 A 和 B 是 FP16 矩阵,相加矩阵 C 和 D 可能是 FP16 矩阵或 FP32 矩阵。

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

每个 Tensor Core 每个时钟可执行 64 次浮点 FMA 混合精度运算(FP16 乘法与 FP32 累加),一个 SM 单元中的 8 个 Tensor Core 每个时钟可执行共计 1024 次浮点运算。相比于使用标准 FP32 计算的 Pascal GP100 而言,单个 SM 下的每个深度学习应用的吞吐量提升了 8 倍,所以这最终使得 Volta V100 GPU 相比于 Pascal P100 GPU 的吞吐量一共提升了 12 倍。Tensor Core 在与 FP32 累加结合后的 FP16 输入数据之上操作。FP16 的乘法得到了一个全精度结果,该结果在 FP32 和其他给定的 4x4x4 矩阵乘法点积的乘积运算之中进行累加。

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

新的Volta GPU架构的显著特征是它的Tensor Core,而最新的Turning架构也拥有Tensor Core,这也大概是为什么这一代RTX比较贵的原因了吧(1080TI没有哦)。

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

有多快呢?官方宣称有Tensor Core的显卡架构比普通的没有Tensor Core的显卡训练(train)速度最多提升12倍,预测(inference)速度提升6倍。平均差不多3倍的提速,而且这个提速是对32-bit和64-bit精度操作的。

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

可以说是很强了,速度进一步提升,理论上Tensor Core可以提升计算速度,但是目前的TensorFlow-1.10.0以及Pytorch-0.4.1对Tensor Core的支持有限,还不能完全发挥作用,期待之后的更新吧。

想知道深度学习框架是否支持Tensor Core可以到官方的GITHUB上的release界面查看更新信息。

TensorRT

如果说Tensor Core是一个硬件核,那么TensorRT就相当于一个软件库了,通常作为一个高性能的深度学习推断(inference)的优化器和运行的引擎,是NVIDIA自家开发的。

TensorRT主要的目的是加快推断(inference)的速度,我们在训练模型的时候可以在大型的设备上进行训练,但是如果投入生产实际,我们更多关注的是推断的速度而不是精度,在牺牲一点精度的同时如果可以增加几倍的速度那么就是成功的。

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

我们把设计好的神经网络利用TensorRT去重新优化设计,变成统一高效的推断网络,对部署阶段有着很好的优化。

当然,作为一个软件核,大部分的显卡都是支持的,但是官方还是建议使用最新的原生支持FP16和INT8型运算的显卡,TensorRT 3版本也开始支持Tensor Core,两者叠加起来,加速能力简直不要不要的。

《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

想具体了解的,可以看看 https://yq.aliyun.com/articles/580307 这篇文件,介绍的还是比较详细的。

 


《新显卡出世,我们来谈谈与深度学习有关的显卡架构和相关技术》

 

32-bit和16-bit精度训练推断速度比较

总结

总的来说,如果想要用到最新的Tensor Core技术,那么只有购买服务器级别显卡或者最新出的RTX系列。但是是不是刚需呢? 其实不然,新技术固然可以增加我们训练或推断神经网络的速度,但是提升的这些速度对于我们学生党来说影响并不是很大(当然有钱的除外),更何况兼容性和优化还没有落实到位,我们可以再等一等。

GTX 1080TI和RTX2080TI都是拥有11G显存,RTX 2080TI出世后,如果1080TI适当降价的话,性价比还是非常高的,组个双卡1080TI或许是不错的选择。

参考文章:
http://timdettmers.com/2018/08/21/which-gpu-for-deep-learning/
https://github.com/u39kun/deep-learning-benchmark
https://developer.nvidia.com/tensorrt
https://www.nvidia.com/en-us/data-center/tensorcore/

  欢迎关注Oldpan博客微信公众号,同步更新博客深度学习文章。

2019-04-23 19:54:16 u013166171 阅读数 10910
  • WebGL 可视化3D绘图框架:Three.js 零基础上手实战

    相对于Flash,Flex,Silverlight等富客户端技术,WebGL之ThreeJS:通过OpenGL ES 2.0,WebGL可以为HTML5 Canvas提供硬件3D加速渲染,这样Web开发人员就可以借助系统显卡来在浏览器里更流畅地展示3D场景和模型了,还能创建复杂的导航和数据视觉化。这是未来的网游趋势,如果你想做可视化动画三维企业应用,又不想用复杂的C++程序,那么 Three.js 将会是你最好的选择。  本课程主要的功效就是让你学习完本教程后,能够写出在浏览器上流畅运行的3D程序,包括但不限于:大数据可视化,360度全景展示,3D游戏,完成这些事情,会比c++用更少的代码。而且更容易,更酷。 在本课程中,我们将由浅入深的讲解这些效果的实现,这能让你迅速提高开发技能,在职场中处于不败之地。课程共十三章,大大小小贯穿了近10个案例,只要你具备基础的HTML和JavaScript基础即可学习。

    887 人正在学习 去看看 童金浩

如果是单玩游戏,那么2080ti最好,光线追踪,而且双卡复用需要游戏支持,所以一般只能发挥单卡性能,那自然2080ti。

如果是深度学习的话,那就有的谈了,

结论:纯综合算力而言1080ti,单卡算力2080ti,性价比1080ti.

float16算力而言:两个1080ti不如2080ti(以两个1080ti并行算力达1.8算)

float32算力而言:能并行任务两个1080ti(以两个1080ti并行算力达1.8倍算)胜。

复杂度而言:2080ti安装维护更简单

任务形式而言:多个学生同时跑不同实验就1080ti,只主要跑一个实验推荐2080ti

但双卡需要耗费更多槽位,功耗提升,散热问题,cpu内存主板也需要同时考虑,而且1080ti二手矿卡多,可能也会造成成本接近类似的情况(2080ti花屏问题不知道解决没有)。

 

4月20号目前市价假设:

1080ti 6500

2080ti 11000

根据几大网站对于经典网络(VGG,resnet)的统计如下:

https://www.quora.com/Which-GPU-is-better-for-deep-learning-GTX-2080-Ti-or-Titan-V

及另外一个网站统计:

https://bizon-tech.com/us/blog/gtx1080ti-titan-rtx-2080-ti-deep-learning-benchmarks

按照上面统计,从单张1080ti 6500元 去按照算力实际提升算单张2080ti的价格

bizon 16fp 8695元 32fp 8400元

lamdba 16fp 11206元 32fp 8783元

而实际目前观察到的市价是11000,

可以看到除了fp16有足值提升外,32fp是有性价比不足的问题的。

将2080ti相对1080ti的算能提升比在单次评估和多次训练及vgg resnet网络统计对比如下:

长时间 单次评估

‘vgg 0.77 0.74

resnet 0..69 0.72

这意味着,对于网络结构而言,越深越复杂网络训练评估中2080ti相对耗时减少效应越明显。

而同一网络是否会因为训练时间延长而使得2080ti耗时减少越明显尚不得而知。

而如果是fp64的话,那还是titan v吧,理由如下:深度学习 显卡 硬件

https://www.quora.com/Which-GPU-is-better-for-deep-learning-GTX-2080-Ti-or-Titan-V

2019-11-11 15:55:39 qq_22945165 阅读数 45
  • WebGL 可视化3D绘图框架:Three.js 零基础上手实战

    相对于Flash,Flex,Silverlight等富客户端技术,WebGL之ThreeJS:通过OpenGL ES 2.0,WebGL可以为HTML5 Canvas提供硬件3D加速渲染,这样Web开发人员就可以借助系统显卡来在浏览器里更流畅地展示3D场景和模型了,还能创建复杂的导航和数据视觉化。这是未来的网游趋势,如果你想做可视化动画三维企业应用,又不想用复杂的C++程序,那么 Three.js 将会是你最好的选择。  本课程主要的功效就是让你学习完本教程后,能够写出在浏览器上流畅运行的3D程序,包括但不限于:大数据可视化,360度全景展示,3D游戏,完成这些事情,会比c++用更少的代码。而且更容易,更酷。 在本课程中,我们将由浅入深的讲解这些效果的实现,这能让你迅速提高开发技能,在职场中处于不败之地。课程共十三章,大大小小贯穿了近10个案例,只要你具备基础的HTML和JavaScript基础即可学习。

    887 人正在学习 去看看 童金浩

caffe基本不更新了,而且caffe2也已经是pytorch的一部分了。如果想考古可以用用caffe,但是如果时间比较紧的话还是学学Pytorch吧,大势所趋
去年双十一前, 苦苦对比买了台组装机,最终因为贪图便宜300块钱选择了AMD的处理器和显卡。后来才发现CUDA是英伟达公司开发的,AMD显卡的架构不一样所以不能使用。而我心心念念的Caffe官网上只有关于CUDA的安装使用教程,但是好在AMD公司自己也开发了ROCm来和CUDA对标,虽然比CUDA小众很多但是好在买的显卡不至于只能用来打游戏。
之前有些买AMD显卡的选择安装各个神经网络的Opencl版本,但是毕竟没有专门用来深度学习工具的香。
如果还不了解OpenCL和CUDA是什么可以参考下面这个短文
CUDA和OpenCL的区别

本文主要参考ROCm官网,半搬运文章 https://rocm.github.io/

更新:官网上的引导教程有错误,我已经在GitHub上提交了,虽然GitHub上改了但是网站上估计还有一段时间。嘿嘿嘿 可以在direct contributors找到我

在这里插入图片描述

预备阶段

1.硬件检查

首先看看自己的显卡是否支持ROCm ,在这个网页里ROCm硬件支持列表
搜索自己显卡的型号,如果在可使用的列表内那可以继续看本文,如果在不支持的列表内,关闭本网页就好了。

2.软件准备

(1)首先将ROCm存储库地址添加到系统

wget -qO - http://repo.radeon.com/rocm/apt/debian/rocm.gpg.key | sudo apt-key add -
echo 'deb [arch=amd64] http://repo.radeon.com/rocm/apt/debian/ xenial main' | sudo tee /etc/apt/sources.list.d/rocm.list

然后更新一下库,并且安装ROCm的核心组建 romc-dkms (下载大小500m解压后大小在2G+)需要等一段时间

sudo apt update
sudo apt install rocm-dkms

(2)检查自己是否在用户组里,因为必须有权限才能调用硬件GPU(如果是自己的个人电脑只有一个账户那肯定在里面)

groups

添加用户代码(其中LOGNAME是你的用户名,自动补全应该能显示)

sudo usermod -a -G video $LOGNAME 

也可以把全部用户加入进来

//非必要命令行,注意条件
echo 'ADD_EXTRA_GROUPS=1' | sudo tee -a /etc/adduser.conf
echo 'EXTRA_GROUPS=video' | sudo tee -a /etc/adduser.conf

(3)检查是否安装成功(检查前最好重启电脑)

/opt/rocm/bin/rocminfo 
/opt/rocm/opencl/bin/x86_64/clinfo

分别运行这两行,看看有没有自己的显卡信息 而且没有红色的报错
然后把ROCm添加到系统环境里面

echo 'export PATH=$PATH:/opt/rocm/bin:/opt/rocm/profiler/bin:/opt/rocm/opencl/bin/x86_64' | sudo tee -a /etc/profile.d/rocm.sh

(4)选装
交叉编译
在不同的系统上进行开发和测试通常很有用。例如,某些开发或构建系统可能未安装AMD GPU。在这种情况下,您可能希望避免在开发系统中安装ROCK内核驱动程序。
在这种情况下,请安装软件包的开发子集:

sudo apt update
sudo apt install rocm-dev

(5)安装caffe部分

sudo apt-get install rocm-libs
sudo apt-get install miopen-hip miopengemm
sudo apt-get install -y \
     g++-multilib \
     libunwind-dev \
     git \
     cmake cmake-curses-gui \
     vim \
     emacs-nox \
     curl \
     wget \
     rpm \
     unzip \
     bc

(6)检查安装情况

cp -r /opt/rocm/hip/samples ~/hip-samples && cd ~/hip-samples/0_Intro/square/
make
./square.out

(第三行官网上写的生成文件名和实际文件名不一样,应该是更新后没有及时改,可以按照我的,最重要的还是依照你make后显示生成的文件名来)运行后应该有显示显卡信息之类

(7)编译程序

cd ~
git clone https://github.com/ROCmSoftwarePlatform/hipCaffe.git
cd hipCaffe
cp ./Makefile.config.example ./Makefile.config
make -j$(nproc)

(make出现warning是没什么问题的)
注意!这里make可能会报错:关于recipe for target ‘.build_release/tools/caffe.bin’ failed
我的原因是使用的是opencv3,解决方法是:把Makefile.config文件里,关于OpenCV的
OPENCV_VERSION := 3
前的#号注释删除掉就好了。
还有一点就是如果一次失败以后,修改过config文件后要执行 make clean 再重新make -j$(nproc) 要不然会有上次错误的信息留下了。

如果执行以后没有报错正常结束,则说明我们的安装成功了。

3.mnist例子测试

在hipCaffe目录下:

./data/mnist/get_mnist.sh
./examples/mnist/create_mnist.sh
./examples/mnist/train_lenet.sh

第一行是下载mnist数据集的脚本,终端下载有点慢,也可以自己到官网上下载,放到./data/mnist/文件夹下解压。
第二行是把数据集转化成带标签的训练文件。
第三行是训练。

训练成功会一直输出accrency和loss
例如这样
… …
I1111 22:04:58.524817 15519 solver.cpp:404] Test net output #0: accuracy = 0.9907
I1111 22:04:58.524850 15519 solver.cpp:404] Test net output #1: loss = 0.0291341 (* 1 = 0.0291341 loss)
I1111 22:04:58.524858 15519 solver.cpp:322] Optimization Done.
I1111 22:04:58.524863 15519 caffe.cpp:254] Optimization Done.

2018-11-18 21:25:45 weixin_43599336 阅读数 9321
  • WebGL 可视化3D绘图框架:Three.js 零基础上手实战

    相对于Flash,Flex,Silverlight等富客户端技术,WebGL之ThreeJS:通过OpenGL ES 2.0,WebGL可以为HTML5 Canvas提供硬件3D加速渲染,这样Web开发人员就可以借助系统显卡来在浏览器里更流畅地展示3D场景和模型了,还能创建复杂的导航和数据视觉化。这是未来的网游趋势,如果你想做可视化动画三维企业应用,又不想用复杂的C++程序,那么 Three.js 将会是你最好的选择。  本课程主要的功效就是让你学习完本教程后,能够写出在浏览器上流畅运行的3D程序,包括但不限于:大数据可视化,360度全景展示,3D游戏,完成这些事情,会比c++用更少的代码。而且更容易,更酷。 在本课程中,我们将由浅入深的讲解这些效果的实现,这能让你迅速提高开发技能,在职场中处于不败之地。课程共十三章,大大小小贯穿了近10个案例,只要你具备基础的HTML和JavaScript基础即可学习。

    887 人正在学习 去看看 童金浩

此方案适用于个人或小型企业,此方案有不稳定性,如果预算充足请购买Tesla 显卡

转载请注明出处

视频:https://www.bilibili.com/video/av35317062
渲染,深度学习测试视频:https://www.bilibili.com/video/av37273009

P106-100 拥有1060 6g显卡的全部cuda单元与显存。只不过他原本只为挖矿而生,所以没有显示输出接口,但是,他保留了CUDA的计算能力,所以可以用在除游戏以外的大部分应用场景
包括但不限于 深度学习、图片渲染、影片剪辑等需要GPU辅助处理的领域
在这里插入图片描述
P106显卡,没有显示输出

关于价格

虽然这张p106是二手货,但现在1060 6g二手多为1200元左右,而我入手的P106只要470(现在只要360左右了[2018.12]) ,所以P106不失为一种性价比超越一切的深度学习显卡。

如何输出显示画面

使用集成显卡或者另外购置一张亮机卡用来显示输出
(我使用的是服务器CPU,所以我用了一张GTX750作为显示输出显卡)

计算性能:

我把P106插在了PCI-E1X插槽上,所以内存读写十分慢
我把P106插在了PCI-E1X插槽上,所以内存读写十分慢。其他指标与正常1060 6G相当

TensorFlow测试

在这里插入图片描述
在tf输出的信息当中可以明确的看出使用了P106矿卡

写在最后

在去年的挖矿热潮当中,NV还推出了使用1070核心的P104矿卡,不过他的显存被削到了4g 虽然是ddr5x,但显存溢出很可能会成为家常便饭而且现在售价高达1000,所以并不推荐。

此外,还有更加极端的使用1080Ti核心的P102矿卡,只有5g显存,pci-e通道被削到了X4,而且售价高达4000,强烈不推荐购买
多卡渲染:https://zhuanlan.zhihu.com/p/29974719

2019-02-26 12:29:44 wdf8088 阅读数 1553
  • WebGL 可视化3D绘图框架:Three.js 零基础上手实战

    相对于Flash,Flex,Silverlight等富客户端技术,WebGL之ThreeJS:通过OpenGL ES 2.0,WebGL可以为HTML5 Canvas提供硬件3D加速渲染,这样Web开发人员就可以借助系统显卡来在浏览器里更流畅地展示3D场景和模型了,还能创建复杂的导航和数据视觉化。这是未来的网游趋势,如果你想做可视化动画三维企业应用,又不想用复杂的C++程序,那么 Three.js 将会是你最好的选择。  本课程主要的功效就是让你学习完本教程后,能够写出在浏览器上流畅运行的3D程序,包括但不限于:大数据可视化,360度全景展示,3D游戏,完成这些事情,会比c++用更少的代码。而且更容易,更酷。 在本课程中,我们将由浅入深的讲解这些效果的实现,这能让你迅速提高开发技能,在职场中处于不败之地。课程共十三章,大大小小贯穿了近10个案例,只要你具备基础的HTML和JavaScript基础即可学习。

    887 人正在学习 去看看 童金浩

2017年2018年大火的~深度学习,应用越来广泛、深入,例如,

安防: 人脸识别、指纹识别...

汽车驾驶:自动无人驾驶 ...

翻译  语音识别、机器翻译...

医学:医疗图像诊断... 

金融:量化策略交易...

逻辑分析:围棋AI、游戏AI... 

 

随着计算规模巨大,一个合理、高效率、高性能GPU硬件配置架构服务器,变得至关重要。

目前主流硬件配置 intel处理器+ nvidia GPU计算卡,但进入2019年,CPU和GPU计算卡更新换代,本文提供了最新的配置方案,升级显著特点:

GPU:采用最新Turing图灵架构+配备张量处理器,整体性能大幅提升。

CPU:采用intel最新处理器技术,同事频率在再度提升。

(一)图灵计算工作站(GX380i/GX490i)---入门级,微塔式。

配置特点:CPU最大8(GX380i)/18核(GX490i)+超高频,内存最大64/256GB,GPU支持最大4块。

(二)图灵计算工作站(GX400M)---科研型。

配置特点:CPU最大18核+超高频,内存最大512GB,GPU支持7块,硬盘位选项最大20个3.5寸。

(三)图灵超算工作站(GX620M)---超级计算型、静音级。

配置特点:单机极致配置,CPU:支持2颗Xeon 白金/金/银系列,最大56核,内存最大1TB,显卡最大到9块GPU,硬盘位20个3.5寸(最大240TB)。

(四)图灵计算工作站(GX)-专业机房型、大型数据中心。

 

没有更多推荐了,返回首页