精华内容
下载资源
问答
  • 显卡推荐 机器学习
    千次阅读
    2022-01-05 13:57:34


    一、显卡和GPU

    1. 显卡是什么?

    显卡是显示卡的简称,显卡是由GPU、显存等等组成的。

    显卡(Video card,Graphics card)全称显示接口卡,又称显示适配器,是计算机最基本配置、最重要的配件之一。

    就像电脑联网需要网卡,主机里的数据要显示在屏幕上就需要显卡。因此,显卡是电脑进行数模信号转换的设备,承担输出显示图形的任务。具体来说, 显卡接在电脑主板上,它将电脑的数字信号转换成模拟信号让显示器显示出来。

    原始的显卡一般都是集成在主板上,只完成最基本的信号输出工作,并不用来处理数据。随着显卡的迅速发展,就出现了GPU的概念。

    显卡分为独立显卡和集成显卡。

    所谓集成,是指显卡集成在主板上,不能随意更换。而独立显卡是作为一个独立的器件插在主板的AGP接口上的,可以随时更换升级。另外,集成显卡使用物理内存,而独立显卡有自己的显存。
    一般而言,同期推出的独立显卡的性能和速度要比集成显卡好、快。
    值得一提的是,集成显卡和独立显卡都是有GPU的。

    2. GPU是什么?

    (1)GPU和显卡的关系

    GPU(Graphic Processing Unit,图形处理单元)是图形处理器,一般GPU就是焊接在显卡上的。GPU是显卡上的一块芯片,就像CPU是主板上的一块芯片。

    实际上,大部分情况下,我们所说GPU就等同于指显卡,但是实际情况是GPU是显示卡的“心脏”,是显卡的一个核心零部件,核心组成部分。
    GPU本身并不能单独工作,只有配合上附属电路和接口,才能工作。这时候,它就变成了显卡。

    (2)GPU的由来与发展

    GPU这个概念是由 NVIDIA 公司于1999年提出的。那么1999年之前显卡上就没有GPU吗?当然有,只不过那时候没有人给它命名,也没有引起人们足够的重视,发展比较慢。

    自Nvidia提出GPU这个概念后,GPU就进入了快速发展时期。简单来说,其经过了以下几个阶段的发展:

    1. 仅用于图形渲染,此功能是GPU的初衷,这一点从它的名字就可以看出:Graphic Processing Unit,图形处理单元。
    2. 后来人们发现,GPU这么一个强大的器件只用于图形处理太浪费了,它应该用来做更多的工作,例如浮点运算。怎么做呢?直接把浮点运算交给GPU是做不到的,因为它只能用于图形处理(那个时候)。最容易想到的,是把浮点运算做一些处理,包装成图形渲染任务,然后交给GPU来做。这就是 GPGPU(General Purpose GPU)的概念。不过这样做有一个缺点,就是你必须有一定的图形学知识,否则你不知道如何包装。
    3. 于是,为了让不懂图形学知识的人也能体验到GPU运算的强大,NVIDIA公司又提出了CUDA的概念。

    CUDA(Compute Unified Device Architecture),通用并行计算架构,是一种运算平台。它包含 CUDA 指令集架构以及 GPU 内部的并行计算引擎。你只要使用一种类似于C语言的 CUDA C 语言,就可以开发CUDA程序,从而可以更加方便的利用GPU强大的计算能力,而不是像以前那样先将计算任务包装成图形渲染任务,再交由GPU处理。
    注意,并不是所有GPU都支持CUDA。(接下来详细介绍CUDA)


    二、CUDA

    1. CUDA是什么?

    CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。
    CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。

    2. 为什么推出CUDA?

    随着显卡的发展,GPU越来越强大,而且GPU为显示图像做了优化。在计算上已经超越了通用的CPU。如此强大的芯片如果只是作为显卡就太浪费了,因此NVIDIA推出CUDA,让显卡可以用于图像计算以外的目的。

    CUDA的优势?简单来讲,比如通过CUDA架构,视频播放软件可以充分挖掘NVIDIA系列显卡的GPU并行计算能力,轻松进行高清影片的播放,与软件高清解码相比,CPU占用可以下降一半以上。当然,CUDA的应用领域绝不仅仅是视频、图形、游戏,包括各种3D和建模,医疗、能源、科学研究等,到处都可见到这种技术架构的应用。

    支持CUDA的硬件环境需要有NVidia GF8系列及以上型号的显卡,并且安装185版本以上的显卡驱动程序。

    以QQ影音播放器来讲,要想开启CUDA硬件解码加速,可以打开QQ影音的“播放器设置”,进入“高清加速”面板,在“硬件优化”中选择“自定义优化模式”,然后在“滤镜配置”中的“视频解码器”中自定义选择相应的“QQ CUDA Video Decoder(CUDADecFilter.ax)”即可。而关闭CUDA加速,只需取消选择“QQ CUDA Video Decoder(CUDADecFilter.ax)”,或者切换到“智能高清模式”或“稳定兼容模式”通过这种高清解码定义的开启,并不是说你的画质能够提升多少,而是提升高清视频播放时的流畅以及降低CPU的占用。这个时候,节约下来的CPU空间,可以允许你再去做别的工作,这样就会大大提升你的工作效率,而不至于除了看视频,其他的什么都不能做了。


    三、cuDNN

    1. 什么是cuDNN

    cuDNN是CUDA在深度学习方面的应用。使得CUDA能够应用于加速深度神经网络。

    NVIDIA cuDNN是用于深度神经网络的GPU加速库。它强调性能、易用性和低内存开销。

    NVIDIA cuDNN可以集成到更高级别的机器学习框架中,如谷歌的Tensorflow、加州大学伯克利分校的流行caffe软件。简单的插入式设计可以让开发人员专注于设计和实现神经网络模型,而不是简单调整性能,同时还可以在GPU上实现高性能现代并行计算。

    2. CUDA与cuDNN的关系

    CUDA可以看作是一个工作台,上面配有很多工具,如锤子、螺丝刀等。cuDNN就相当于是位于该工作台上的一把扳手。

    cuDNN是基于CUDA的深度学习GPU加速库,有了它才能在GPU上完成深度学习的计算。它就相当于工作的工具,比如它就是个扳手。但是CUDA这个工作台买来的时候,并没有送扳手。想要在CUDA上运行深度神经网络,就要安装cuDNN,就像你想要拧个螺帽就要把扳手买回来。这样才能使GPU进行深度神经网络的工作,工作速度相较CPU快很多。

    cuDNN是CUDA的扩展计算库。
    只要把cuDNN文件复制到CUDA的对应文件夹里就可以,即是所谓插入式设计。把cuDNN数据库添加CUDA里,cuDNN是CUDA的扩展计算库,不会对CUDA造成其他影响。
    CUDA已有的文件与cuDNN没有相同的文件,复制cuDNN的文件后,CUDA里的文件并不会被覆盖,所以CUDA中的其他文件并不会受影响。


    四、NVIDIA

    NVIDIA(英伟达)是一家人工智能计算公司。

    公司创立于1993年,总部位于美国加利福尼亚州圣克拉拉市。美籍华人Jensen Huang(黄仁勋)是创始人兼CEO。

    1999年,NVIDIA定义了GPU,这极大地推动了PC游戏市场的发展,重新定义了现代计算机图形技术,并彻底改变了并行计算。

    计算行业正在从只使用CPU的“中央处理”向CPU与GPU并用的“协同处理”发展。为打造这一全新的计算典范,NVIDIA™(英伟达™)发明了CUDA(Compute Unified Device Architecture,统一计算设备架构)这一编程模型,是想在应用程序中充分利用CPU和GPU各自的优点。

    2020年7月8日美股收盘后,英伟达首次在市值上实现对英特尔的超越,成为美国市值最高的芯片厂商,这也是2014年后再次有新面孔站上美国芯片企业市值第一的位置。


    参考链接

    1. gpu是显卡吗_gpu,cpu与显卡的关系_有什么区别?
    2. 显卡、GPU和CUDA简介
    3. CUDA与cuDNN
    更多相关内容
  • 一文带你看懂显卡显卡驱动,CUDA,CUDNN(内含举例)显卡显卡驱动CUDACUDNN举一个生动形象的例子 显卡 显卡是硬件设备。(花钱购买的) (注:显卡不是GPU,显卡的核心组件包含显卡内存(简称显存)和GPU(Graphics ...

    一文带你看懂显卡,显卡驱动,CUDA,CUDNN(内含举例)

    显卡

    显卡是硬件设备。(花钱购买的)
    (注:显卡不是GPU,显卡的核心组件包含显卡内存(简称显存)和GPU(Graphics Processing Unit,图像处理器),GPU含有DRAM,Control,Cache,ALU)
    (注:显存和DRAM不是一个东西,显存存储GPU将要处理的信息,DRAM存放GPU要执行的指令集,和GPU直接进行数据的交换。)

    显卡驱动

    显卡驱动是一个软件应用,是使得操作系统可以识别你的显卡的一个软件,将用户的一些“人话”转化为GPU可以识别的“指令”,驱动程序向下直接和显卡接触。
    我们想要操作显卡,就必须安装对应的显卡驱动。

    CUDA

    • 一个显卡可以用来玩游戏,可以用来跑机器学习。
    • 要玩游戏,要在显卡驱动上修改一些配置。
    • 如果要跑深度学习,就需要安装CUDA,(相当于添加库的功能,我们通过CUDA)
      CUDA是一个Nvidia显卡的一个并行计算框架,显卡想要并行计算,必须有一个并行计算框架(要被该显卡的的显卡驱动所支持),
      而且必须当而且只有当要解决的计算问题是可以大量并行计算的时候才能发挥CUDA的作用。
      (注:CUDA和显卡的驱动有一定对应的关系。需要安装版本相匹配的CUDA)

    在这里插入图片描述
    我们可以看到写着支持CUDA。

    CUDNN

    CUDNN(CUDA Deep Neural Network library)
    CUDNN是CUDA的一个包。是专门用来处理深层神经网络的一个GPU加速库。(卷积操作需要用到),CUDNN是不需要安装的,只需要下载后将其放入CUDA的指定路径就可以调用了。

    举一个生动形象的例子

    就拿我们运行一台机器来说。我们人是操作工,对机器,我们有2个操作。

    我们将显卡比喻成螺丝,我们手拧螺丝没有办法拧螺丝,所以我们需要螺丝刀,显卡驱动就是这里的螺丝刀,
    有了螺丝刀和螺丝,作为操作员,我们需要有一个工作室来进行操作,这个工作室就是CUDA(框架),工作室里面有很多的隔间(调用的库)
    我们现在就可以完成拧螺丝的操作了,但是如果我们需要一些特殊的操作(卷积操作),那么我们就需要进入到工作室里面的特定的隔间(CUDNN)来进行操作。

    将例子理解透彻之后,相信你就可以理解显卡,显卡驱动,CUDA,CUDNN的对应关系啦!接下来就开始投入机器学习的怀抱吧~

    展开全文
  • 有很多朋友表示自己很想做机器学习、跑数据集,但是显卡跟不上,这里就要给大家介绍一个福利:就是谷歌的免费GPU,跟我操作吧~ 1、首先要有谷歌账号,注册登陆谷歌云盘,网址如下:https://drive.google.com/ 2、在...

    有很多朋友表示自己很想做机器学习、跑数据集,但是显卡跟不上,这里就要给大家介绍一个福利:就是谷歌的免费GPU,跟我操作吧~
    1、首先要有谷歌账号,注册登陆谷歌云盘,网址如下:
    https://drive.google.com/
    2、在我的云端硬盘里面创建文件夹,如图为我创建好的:

    3、进入文件夹,右键新建文件,找到关联更多应用,搜索Colaboratory,将其添加。

     

     

    4、创建完成后就可以生成一个jupyter记事本,点击“修改”中的“笔记本设置”,可以选择使用CPU、GPU、TPU

    5、我选择了GPU之后会连接到虚拟服务器,然后会有文件夹可以上传数据,数据一般在content文件夹中
    ,是不是美滋滋

     

     

    展开全文
  • 装3080TI显卡的linux系统显卡驱动安装+pyTorch机器学习环境安装 已经成功安装两次了,对大概的流程也有了一定的了解,主要参考以下两篇文章,在众多网文中是比较好的。 文章一:...

    装3080TI显卡的linux系统显卡驱动安装+pyTorch机器学习环境安装

    已经成功安装两次了,对大概的流程也有了一定的了解,主要参考以下两篇文章,在众多网文中是比较好的。

    文章一:https://blog.csdn.net/qq_39478403/article/details/109378705
    文章二:https://blog.csdn.net/weixin_46203866/article/details/119425999
    

    总结一下思路:

    • 显卡驱动安装流程:
      官网下载显卡驱动->屏蔽开源驱动 nouveau-> 关闭图形界面->黑窗tty模式下安装驱动安装包->nvidia-smi查看是否成功

    • pytorch机器学习环境安装:
      在这里插入图片描述
      详细代码参见以上两篇参考文章

    如果想在新建的虚拟环境下打开jupyter notebook使用,得安装在虚拟环境里安装jupyter,之后添加核

    展开全文
  • 机器学习模型训练之GPU使用

    千次阅读 2022-05-07 12:09:59
    免费GPU使用推荐
  • 首先准备一台带有GTX1050Ti显卡的真机,这个可以说是很low的了,才4G现存,主流机器学习生产环境都是特斯拉K40或者GTX2080Ti了,这个只是我用来搭建临时开发环境用的。其次需要一个启动U盘,用UltraISO制作一个...
  • 机器学习、深度学习的学习路线

    千次阅读 2022-04-05 00:07:18
    机器学习 深度学习 路线 指南 经验分享
  • 机器学习工作站Security of data is crucial for many applications and often you would need to run experiments locally at your company whenever you deal with sensitive data. That’s why a perfect ...
  • 用M1的MacBook Pro或Mac Pro可以跑机器学习训练任务了。 【来源参考】 Leveraging ML Compute for Accelerated Training on Mac https://machinelearning.apple.com/updates/ml-compute-training-on-mac
  • Arch-Data-Science:用于数据科学,机器学习,深度学习,NLP和计算机视觉的Archlinux PKGBUILD
  • 机器学习之Win10 64位下安装Cuda+Cudnn文中,我们已经简单的阐述了一下gpu在机器学习中性能好于cpu,但是到底有多大的差距呢?刚开始的同学没有一个直观的认识(主要是我自己也没有直观的认识),在此记录一下吧。...
  • Macbook pro外接显卡实现深度学习

    万次阅读 多人点赞 2019-01-16 23:39:16
    目前主要从事数据挖掘机器学习的工作,需要搞搞深度学习,于是上网查攻略,如何使用mac连接GPU进行深度学习,最后查到的方案是使用游戏盒子 AORUS GTX 1070 GAMING BOX 来连接。但是很多攻略使用的系统都是10.12的,...
  • 我进行机器学习训练模型的时候,原来频率为1350M,但是不知道怎么回事莫名其妙的变成了1001M,找了半天没有找到原因 后来通过观察GPU显存,发现GPU的显存超过了专用的GPU内存,于是我通过关闭了一个页面和一些无用...
  • Python机器学习环境搭建

    千次阅读 2021-02-10 07:17:43
    随着AI技术的发展和成熟,Python语言凭借其万能胶的能力成为了机器学习编程语言的首选。特别是随着Tensorflow等优秀库类的出现,大大降低了机器学习入门的门槛,本文旨在给各位码友提供一个迅速进入编写机器学习程序...
  • 但是在本文之前一定要说下的是:本文并不推荐现在就买显卡,除非必须,现在一定不要买显卡,谁买谁吃亏,目前的情况是,“等” 就对了 回到正题,在这篇文章中我整理了几个在 NVIDIA GeForce RTX 3090 GPU 进行的...
  • 机器学习工具箱 通过旧金山的一些社区聚会进行80个小时的机器学习课程 高级Spark和TensorFlow聚会 8月20日网络研讨会 工具 流水线AI 库伯流 TensorFlow Extended(TFX) 空气流动 显卡 热塑性聚氨酯 火花ML ...
  • 前言很多深度学习入门者或多或少对计算机的配置需求有一些疑惑。入门的硬性需求是什么,应该买什么样的电脑,什么样的显卡比较适合,自己的笔记本可以使用吗等等问题。这些问题之前我也有很多疑惑,现在总结了下,为...
  • 比赛阶段的话,建议看需求,数据量大,对运算速度有要求,精度有要求,还是建议租用服务器(如果自己没显卡,或者显卡太辣) 有一个在学习阶段和比赛阶段都可以用的服务器(文章末尾见) 如果不想看分析直接点链接:...
  • 相信和我一样,有很多刚入门学习ML、DL的亲们都会遇到一个问题,那就是没有足够的算力去跑自己的网络。而自己去买一块显卡可能又成本太高。在我研究了数天,尝试了各种云资源之后,现在终于总结出低成本高效的云服务...
  • NVIDIA DGX Station V100 32G*4 深度学习工作站 预算:¥450000 NVIDIA DGX-1 模块 (数量*)型号 GPU 8 块 Tesla V100 性能(混合精度) 1 petaFLOPS GPU 显存 256...
  • 机器学习和深度学习代码示例 Docker标签 状态 中央处理器 显卡 这个库使用具体的例子来学习[机器学习+深度学习] 使用适当的详细的注释来编写代码,另外,相关的书面说明以及个人见解与总结会发布在 用法 可以通过...
  • GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位...
  • 2022主流Nivida显卡深度学习/强化学习/AI算力汇总一览表 总结自国外多个网站
  • 1、安装Anaconda,构造虚拟环境 这里可以参考我的另一篇文章,里面很详细:机器学习基础环境部署 | 机器学习系列_阿良的博客-CSDN博客_机器学习 环境搭建 官方给的是python3.8的虚拟环境,我们也构造一个,打开...
  • Win10使用Linux子系统(WSL2)进行深度学习训练_Kmaeii的博客-CSDN博客_wsl2深度学习 这里要注意,一定要先安装win11,然后再安装显卡驱动...,最后再安装Ubuntu,nvidia-smi才管用呢 关于docker的安装:WSL 上...
  •  然后点击安装 Spyder,打开即可 安装PyTorch 登入PyTorch官网:PyTorch 首页位置下滑到下图位置 PyTorch构建 选第一个,选择操作系统 windows/mac/linux,选择编程语言推荐 python选择计算平台 cuda(显卡)模式...
  • 完整机器学习环境需要CUDA,cuDNN,Anaconda,python,tensorflow-gpu,keras, 这些都是需要版本匹配的, 一般来讲 其实有人说(有的博客)要按照自己的gpu安装CUDA,cuDNN 比如这篇博客 ...
  • 为什么需要显卡? 显然这是一个不言自明的问题,看看用CPU训练时长的绝望。DL是个烧钱的行当。 为什么是外置显卡? 可以这样: 也可以这样: 土豪可以出门左转了。 对于已有笔记本,不想再添置一个机箱的...
  • 安装cuda, 此处需要看cuda支持的列表,不同版本的cuda对于 显卡驱动的最低版本版本,我安装的是cuda9.0 刚好是支持390.67的。安装cuda的时候需要注意 sudo su 进入管理员模式,用来执行 *.run cuda驱动文件. ...
  • 具体可以参考我的另一篇文章,里面有介绍:Pycharm代码docker容器运行调试 | 机器学习系列_阿良的博客-CSDN博客介绍常规的本地化运行机器学习代码,安装Anaconda+cuda显卡驱动支持,许多文章都有介绍,不在此多做...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 16,513
精华内容 6,605
关键字:

显卡推荐 机器学习