cuda 订阅
CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。 开发人员可以使用C语言来为CUDA™架构编写程序,C语言是应用最广泛的一种高级编程语言。所编写出的程序可以在支持CUDA™的处理器上以超高性能运行。CUDA3.0已经开始支持C++和FORTRAN。 展开全文
CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。 它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。 开发人员可以使用C语言来为CUDA™架构编写程序,C语言是应用最广泛的一种高级编程语言。所编写出的程序可以在支持CUDA™的处理器上以超高性能运行。CUDA3.0已经开始支持C++和FORTRAN。
信息
外文名
CUDA
类    别
运算平台
适用领域
计算机
中文名
统一计算设备架构
组    成
ISA、GPU
推出者
NVIDIA
CUDA应用范围
计算行业正在从只使用CPU的“中央处理”向CPU与GPU并用的“协同处理”发展。为打造这一全新的计算典范,NVIDIA™(英伟达™)发明了CUDA(Compute Unified Device Architecture,统一计算设备架构)这一编程模型,是想在应用程序中充分利用CPU和GPU各自的优点。该架构已应用于GeForce™(精视™)、ION™(翼扬™)、Quadro以及Tesla GPU(图形处理器)上,对应用程序开发人员来说,这是一个巨大的市场。在消费级市场上,几乎每一款重要的消费级视频应用程序都已经使用CUDA加速或很快将会利用CUDA来加速,其中不乏Elemental Technologies公司、MotionDSP公司以及LoiLo公司的产品。 在科研界,CUDA一直受到热捧。例如,CUDA现已能够对AMBER进行加速。AMBER是一款分子动力学模拟程序,全世界在学术界与制药企业中有超过60,000名研究人员使用该程序来加速新药的探索工作。在金融市场,Numerix以及CompatibL针对一款全新的对手风险应用程序发布了CUDA支持并取得了18倍速度提升。Numerix为近400家金融机构所广泛使用。CUDA的广泛应用造就了GPU计算专用Tesla GPU的崛起。全球财富五百强企业已经安装了700多个GPU集群,这些企业涉及各个领域,例如能源领域的斯伦贝谢与雪佛龙以及银行业的法国巴黎银行。随着微软Windows 7与苹果Snow Leopard操作系统的问世,GPU计算必将成为主流。在这些全新的操作系统中,GPU将不仅仅是图形处理器,它还将成为所有应用程序均可使用的通用并行处理器。
收起全文
精华内容
下载资源
问答
  • cuda
    万次阅读 多人点赞
    2020-03-10 11:15:18

    在大家开始深度学习时,几乎所有的入门教程都会提到CUDA这个词。那么什么是CUDA?她和我们进行深度学习的环境部署等有什么关系?通过查阅资料,我整理了这份简洁版CUDA入门文档,希望能帮助大家用最快的时间尽可能清晰的了解这个深度学习赖以实现的基础概念。

    本文在以下资料的基础上整理完成,感谢以下前辈提供的资料:
    CUDA——“从入门到放弃”
    我的CUDA学习之旅——启程
    介绍一篇不错的CUDA入门博客 (该文引用的原链接失效,因此直接引用了此地址)
    CUDA编程入门极简教程
    显卡、GPU和CUDA简介

    CPU、GPU

    CPU

    CPU(Central Processing Unit)是一块超大规模的集成电路,是一台计算机的运算核心(Core)和控制核心( Control Unit)。它的功能主要是解释计算机指令以及处理计算机软件中的数据。

    CPU与内部存储器(Memory)和输入/输出(I/O)设备合称为电子计算机三大核心部件。CPU主要包括运算器(算术逻辑运算单元,ALU,Arithmetic Logic Unit)、控制单元(CU, Control Unit)、寄存器(Register)、和高速缓冲存储器(Cache)及实现它们之间联系的数据(Data)、控制及状态的总线(Bus)。简单来说就是:计算单元、控制单元和存储单元。CPU遵循的是冯诺依曼架构,其核心就是:存储程序,顺序执行。

    因为CPU的架构中需要大量的空间去放置存储单元和控制单元,相比之下计算单元只占据了很小的一部分,所以它在大规模并行计算能力上极受限制,而更擅长于逻辑控制。

    GPU

    显卡(Video card,Graphics card)全称显示接口卡,又称显示适配器,是计算机最基本配置、最重要的配件之一。显卡是电脑进行数模信号转换的设备,承担输出显示图形的任务。具体来说,显卡接在电脑主板上,它将电脑的数字信号转换成模拟信号让显示器显示出来,同时显卡还是有图像处理能力,可协助CPU工作,提高整体的运行速度。在科学计算中,显卡被称为显示加速卡。

    原始的显卡一般都是集成在主板上,只完成最基本的信号输出工作,并不用来处理数据。显卡也分为独立显卡和集成显卡。一般而言,同期推出的独立显卡的性能和速度要比集成显卡好、快。

    类型位置内存
    集成显卡集成在主板上,不能随意更换使用物理内存
    独立显卡作为一个独立的器件插在主板的AGP接口上的,可以随时更换升级有自己的显存

    随着显卡的迅速发展,GPU这个概念由NVIDIA公司于1999年提出。GPU是显卡上的一块芯片,就像CPU是主板上的一块芯片。集成显卡和独立显卡都是有GPU的。
    显卡与GPU (图源见水印)

    CPU与GPU

    在没有GPU之前,基本上所有的任务都是交给CPU来做的。有GPU之后,二者就进行了分工,CPU负责逻辑性强的事物处理和串行计算,GPU则专注于执行高度线程化的并行处理任务(大规模计算任务)。GPU并不是一个独立运行的计算平台,而需要与CPU协同工作,可以看成是CPU的协处理器,因此当我们在说GPU并行计算时,其实是指的基于CPU+GPU的异构计算架构。在异构计算架构中,GPU与CPU通过PCIe总线连接在一起来协同工作,CPU所在位置称为为主机端(host),而GPU所在位置称为设备端(device)。
    基于CPU+GPU的异构计算. 来源:Professional CUDA® C Programming
    GPU包括更多的运算核心,其特别适合数据并行的计算密集型任务,如大型矩阵运算,而CPU的运算核心较少,但是其可以实现复杂的逻辑运算,因此其适合控制密集型任务。另外,CPU上的线程是重量级的,上下文切换开销大,但是GPU由于存在很多核心,其线程是轻量级的。因此,基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理逻辑复杂的串行程序,而GPU重点处理数据密集型的并行计算程序,从而发挥最大功效。GPU无论发展得多快,都只能是替CPU分担工作,而不是取代CPU。

    GPU中有很多的运算器ALU和很少的缓存cache,缓存的目的不是保存后面需要访问的数据的,这点和CPU不同,而是为线程thread提高服务的。如果有很多线程需要访问同一个相同的数据,缓存会合并这些访问,然后再去访问DRAM。

    CUDA编程模型基础

    CUDA

    2006年,NVIDIA公司发布了CUDA(Compute Unified Device Architecture),是一种新的操作GPU计算的硬件和软件架构,是建立在NVIDIA的GPUs上的一个通用并行计算平台和编程模型,它提供了GPU编程的简易接口,基于CUDA编程可以构建基于GPU计算的应用程序,利用GPUs的并行计算引擎来更加高效地解决比较复杂的计算难题。它将GPU视作一个数据并行计算设备,而且无需把这些计算映射到图形API。操作系统的多任务机制可以同时管理CUDA访问GPU和图形程序的运行库,其计算特性支持利用CUDA直观地编写GPU核心程序。

    CUDA提供了对其它编程语言的支持,如C/C++,Python,Fortran等语言。只有安装CUDA才能够进行复杂的并行计算。主流的深度学习框架也都是基于CUDA进行GPU并行加速的,几乎无一例外。还有一个叫做cudnn,是针对深度卷积神经网络的加速库。

    CUDA在软件方面组成有:一个CUDA库、一个应用程序编程接口(API)及其运行库(Runtime)、两个较高级别的通用数学库,即CUFFT和CUBLAS。CUDA改进了DRAM的读写灵活性,使得GPU与CPU的机制相吻合。另一方面,CUDA提供了片上(on-chip)共享内存,使得线程之间可以共享数据。应用程序可以利用共享内存来减少DRAM的数据传送,更少的依赖DRAM的内存带宽。

    编程模型

    CUDA的架构中引入了主机端(host)和设备(device)的概念。CUDA程序中既包含host程序,又包含device程序。同时,host与device之间可以进行通信,这样它们之间可以进行数据拷贝。

    主机(Host):将CPU及系统的内存(内存条)称为主机。

    设备(Device):将GPU及GPU本身的显示内存称为设备。

    动态随机存取存储器(DRAM):Dynamic Random Access Memory,最为常见的系统内存。DRAM只能将数据保持很短的时间。为了保持数据,DRAM使用电容存储,所以必须隔一段时间刷新(refresh)一次,如果存储单元没有被刷新,存储的信息就会丢失。(关机就会丢失数据)

    典型的CUDA程序的执行流程如下:

    1. 分配host内存,并进行数据初始化;
    2. 分配device内存,并从host将数据拷贝到device上;
    3. 调用CUDA的核函数在device上完成指定的运算;
    4. 将device上的运算结果拷贝到host上;
    5. 释放device和host上分配的内存。
      基于CPU+GPU的异构计算应用执行逻辑. 来源:Preofessional CUDA® C Programming

    线程层次结构

    核 kernel
    CUDA执行流程中最重要的一个过程是调用CUDA的核函数来执行并行计算,kernel是CUDA中一个重要的概念。在CUDA程序构架中,主机端代码部分在CPU上执行,是普通的C代码;当遇到数据并行处理的部分,CUDA 就会将程序编译成GPU能执行的程序,并传送到GPU,这个程序在CUDA里称做核(kernel)。设备端代码部分在GPU上执行,此代码部分在kernel上编写(.cu文件)。kernel用__global__符号声明,在调用时需要用<<<grid, block>>>来指定kernel要执行及结构。

    CUDA是通过函数类型限定词区别在host和device上的函数,主要的三个函数类型限定词如下:

    • global:在device上执行,从host中调用(一些特定的GPU也可以从device上调用),返回类型必须是void,不支持可变参数参数,不能成为类成员函数。注意用__global__定义的kernel是异步的,这意味着host不会等待kernel执行完就执行下一步。
    • device:在device上执行,单仅可以从device中调用,不可以和__global__同时用。
    • host:在host上执行,仅可以从host上调用,一般省略不写,不可以和__global__同时用,但可和__device__同时使用,此时函数会在device和host都编译。

    网格 grid
    kernel在device上执行时,实际上是启动很多线程,一个kernel所启动的所有线程称为一个网格(grid),同一个网格上的线程共享相同的全局内存空间。grid是线程结构的第一层次。

    线程块 block
    网格又可以分为很多线程块(block),一个block里面包含很多线程。各block是并行执行的,block间无法通信,也没有执行顺序。block的数量限制为不超过65535(硬件限制)。第二层次。

    grid和block都是定义为dim3类型的变量,dim3可以看成是包含三个无符号整数(x,y,z)成员的结构体变量,在定义时,缺省值初始化为1。grid和block可以灵活地定义为1-dim,2-dim以及3-dim结构。

    CUDA中,每一个线程都要执行核函数,每一个线程需要kernel的两个内置坐标变量(blockIdx,threadIdx)来唯一标识,其中blockIdx指明线程所在grid中的位置,threaIdx指明线程所在block中的位置。它们都是dim3类型变量。

    一个线程在block中的全局ID,必须还要知道block的组织结构,这是通过线程的内置变量blockDim来获得。它获取block各个维度的大小。对于一个2-dim的block(D_x,D_y),线程 (x,y) 的ID值为(x+y∗D_x),如果是3-dim的block (D_x,D_y,D_z),线程(x,y,z)的ID值为(x+y∗D_x+z∗D_x∗D_y) 。另外线程还有内置变量gridDim,用于获得grid各个维度的大小。

    每个block有包含共享内存(Shared Memory),可以被线程块中所有线程共享,其生命周期与线程块一致。
    每个thread有自己的私有本地内存(Local Memory)。此外,所有的线程都可以访问全局内存(Global Memory),还可以访问一些只读内存块:常量内存(Constant Memory)和纹理内存(Texture Memory)。

    线程 thread
    一个CUDA的并行程序会被以许多个threads来执行。数个threads会被群组成一个block,同一个block中的threads可以同步,也可以通过shared memory通信。

    线程束 warp
    GPU执行程序时的调度单位,SM的基本执行单元。目前在CUDA架构中,warp是一个包含32个线程的集合,这个线程集合被“编织在一起”并且“步调一致”的形式执行。同一个warp中的每个线程都将以不同数据资源执行相同的指令,这就是所谓 SIMT架构(Single-Instruction, Multiple-Thread,单指令多线程)。
    核上的两层线程组织结构(2-dim)
    两层线程组织结构中的线程束(2-dim)

    CUDA的内存模型

    SP:最基本的处理单元,streaming processor,也称为CUDA core。最后具体的指令和任务都是在SP上处理的。GPU进行并行计算,也就是很多个SP同时做处理。

    SM:GPU硬件的一个核心组件是流式多处理器(Streaming Multiprocessor)。SM的核心组件包括CUDA核心、共享内存、寄存器等。SM可以并发地执行数百个线程。一个block上的线程是放在同一个流式多处理器(SM)上的,因而,一个SM的有限存储器资源制约了每个block的线程数量。在早期的NVIDIA 架构中,一个block最多可以包含 512个线程,而在后期出现的一些设备中则最多可支持1024个线程。一个kernel可由多个大小相同的block同时执行,因而线程总数应等于每个块的线程数乘以块的数量。
    CUDA编程的逻辑层和物理层
    CUDA内存模型
    一个kernel实际会启动很多线程,这些线程是逻辑上并行的,但是网格和线程块只是逻辑划分,SM才是执行的物理层,在物理层并不一定同时并发。原因如下:

    1. 当一个kernel被执行时,它的gird中的block被分配到SM上,一个block只能在一个SM上被调度。SM一般可以调度多个block,这要看SM本身的能力。有可能一个kernel的各个block被分配至多个SM上,所以grid只是逻辑层,SM才是执行的物理层。
    2. 当block被划分到某个SM上时,它将进一步划分为多个wraps。SM采用的是SIMT,基本的执行单元是wraps,一个wrap包含32个线程,这些线程同时执行相同的指令,但是每个线程都包含自己的指令地址计数器和寄存器状态,也有自己独立的执行路径。所以尽管wraps中的线程同时从同一程序地址执行,但是可能具有不同的行为,比如遇到了分支结构,一些线程可能进入这个分支,但是另外一些有可能不执行,它们只能死等,因为GPU规定warp中所有线程在同一周期执行相同的指令,线程束分化会导致性能下降。

    综上,SM要为每个block分配shared memory,而也要为每个warp中的线程分配独立的寄存器。所以SM的配置会影响其所支持的线程块和线程束并发数量。所以kernel的grid和block的配置不同,性能会出现差异。还有,由于SM的基本执行单元是包含32个线程的warp,所以block大小一般要设置为32的倍数。

    更多相关内容
  • 百度网盘提供,包含以下三种版本的cuda toolkit和对应的cudnn版本,适合windows10系统。 cudnn-10.1-windows10-x64-v7.6.4.38.zip cuda_10.1.243_426.00_win10.exe cudnn-11.0-windows-x64-v8.0.4.30.zip cuda_...
  • Win10安装CUDA

    千次阅读 2022-04-19 20:07:52
    CUDA 安装与配置过程 cuDNN配置 安装PyTorch 卸载CUDA 1.前言 2.卸载开始 参考 安装Nvidia显卡驱动 安装Nvidia显卡驱动前可以先检查Nvidia显卡驱动是否已安装。搜索 Nvidia控制面板 或 Nvidia Control ...

    目录

    安装Nvidia显卡驱动

    安装Tookit和CuDNN

    前言

    安装工具的准备

    CUDA 安装与配置过程

    cuDNN配置

    安装PyTorch

    卸载CUDA

    1.前言

    2.卸载开始

    参考


    B站视频教程参考: https://www.bilibili.com/video/BV1ng411M7qV

    安装Nvidia显卡驱动

    安装Nvidia显卡驱动前可以先检查Nvidia显卡驱动是否已安装。搜索 Nvidia控制面板 或 Nvidia Control Panel可以看到当前已经安装的显卡驱动及版本

    如需安装显卡驱动,在官方驱动下载网站找到自己的显卡型号对应的驱动下载并安装: 官方驱动 | NVIDIA

    安装Tookit和CuDNN

    前言

    windows10 版本安装 CUDA ,首先需要下载两个安装包

    • CUDA toolkit(toolkit就是指工具包)
    • cuDNN(cuDNN 是用于配置深度学习使用)

    官方教程 CUDA:Installation Guide Windows :: CUDA Toolkit Documentation

    cuDNN:Installation Guide :: NVIDIA Deep Learning cuDNN Documentation

    安装工具的准备

    CUDA toolkit下载

    CUDA toolkit下载地址: CUDA Toolkit Archive | NVIDIA Developer

    GA = General Availability,通用版本,指软件的通用版本。 RC=Release Candidate,含义 是"发布候选版",它不是最终的版本,而是最终版(RTM=Release To Manufacture)之前的最后一个版本

    CUDA的版本是跟显卡型号有关还是驱动有关?

    一般是驱动版本决定了能用的CUDA版本的上限,比如新版的显卡驱动可以支持老的CUDA runtime。但是老的显卡可能无法更新到最新的显卡驱动,比如Fermi显卡只能装到391驱动,因此只能用到CUDA9.1。除此之外,显卡硬件与CUDA compute capability相关,当然编译时也可以指定streaming multiprocessor。新的架构支持更多特性就是了。

    CUDA ToolkitLinux x86_64 Driver VersionWindows x86_64 Driver Version
    CUDA 11.6 Update 2>=510.47.03>=511.65
    CUDA 11.6 Update 1>=510.47.03>=511.65
    CUDA 11.6 GA>=510.39.01>=511.23
    CUDA 11.5 Update 2>=495.29.05>=496.13
    CUDA 11.5 Update 1>=495.29.05>=496.13
    CUDA 11.5 GA>=495.29.05>=496.04
    CUDA 11.4 Update 4>=470.82.01>=472.50
    CUDA 11.4 Update 3>=470.82.01>=472.50
    CUDA 11.4 Update 2>=470.57.02>=471.41
    CUDA 11.4 Update 1>=470.57.02>=471.41
    CUDA 11.4.0 GA>=470.42.01>=471.11
    CUDA 11.3.1 Update 1>=465.19.01>=465.89
    CUDA 11.3.0 GA>=465.19.01>=465.89
    CUDA 11.2.2 Update 2>=460.32.03>=461.33
    CUDA 11.2.1 Update 1>=460.32.03>=461.09
    CUDA 11.2.0 GA>=460.27.03>=460.82
    CUDA 11.1.1 Update 1>=455.32>=456.81
    CUDA 11.1 GA>=455.23>=456.38
    CUDA 11.0.3 Update 1>= 450.51.06>= 451.82
    CUDA 11.0.2 GA>= 450.51.05>= 451.48
    CUDA 11.0.1 RC>= 450.36.06>= 451.22
    CUDA 10.2.89>= 440.33>= 441.22
    CUDA 10.1 (10.1.105 general release, and updates)>= 418.39>= 418.96
    CUDA 10.0.130>= 410.48>= 411.31
    CUDA 9.2 (9.2.148 Update 1)>= 396.37>= 398.26
    CUDA 9.2 (9.2.88)>= 396.26>= 397.44
    CUDA 9.1 (9.1.85)>= 390.46>= 391.29
    CUDA 9.0 (9.0.76)>= 384.81>= 385.54
    CUDA 8.0 (8.0.61 GA2)>= 375.26>= 376.51
    CUDA 8.0 (8.0.44)>= 367.48>= 369.30
    CUDA 7.5 (7.5.16)>= 352.31>= 353.66
    CUDA 7.0 (7.0.28)>= 346.46>= 347.62

    由于PyTorch最大只支持CUDA11.3,因此使用 CUDA 11.3.1 Update 1 版本

    cuDNN下载

    cuDNN地址如下,不过要注意的是,我们需要注册一个账号,才可以进入到下载界面。下载地址: https://developer.nvidia.com/rdp/cudnn-download

    可以使用下面网址,查看适配的 cuDNN: cuDNN Archive | NVIDIA Developer

    由于在win10上使用CUDA 11.3,因此使用如下版本:

    CUDA 安装与配置过程

    双击“exe文件”,选择下载路径,推荐默认路径,安装后该目录会自动被清理。

    安装选项

    • 如果你是第一次安装,尽量全选
    • 如果你是第n次安装,尽量只选择第一个,不然会出现错误

    不要选Visual Studio Integration,即使选了也不能成功安装。

    记住安装位置,tensorflow要求配置环境

    重点提醒:一定要记住这个路径,把这个路径保留下来,后面我们还会用到!!!

    安装完成后,查看系统变量中是否添加了路径,如果没有需要自己添加。

    测试环境是否安装成功。运行cmd,输入nvcc --version即可查看版本号; set cuda,可以查看 CUDA 设置的环境变量。

    C:\Users\as>nvcc --version
    nvcc: NVIDIA (R) Cuda compiler driver
    Copyright (c) 2005-2021 NVIDIA Corporation
    Built on Mon_May__3_19:41:42_Pacific_Daylight_Time_2021
    Cuda compilation tools, release 11.3, V11.3.109
    Build cuda_11.3.r11.3/compiler.29920130_0
    
    C:\Users\as>set cuda
    CUDA_PATH=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3
    CUDA_PATH_V11_3=C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3
    Copy

    cuDNN配置

    1.解压 cuDNN叫配置更为准确,我们先把下载的 cuDNN 解压缩,会得到下面的文件:

    下载后发现其实cudnn不是一个exe文件,而是一个压缩包,解压后,有三个文件夹,把三个文件夹拷贝到cuda的安装目录下。

    CUDA 的安装路径在前面截图中有,或者打开电脑的环境变量查看,默认的安装路径如下:

    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3

    后面那个v11.3是自己的版本号

    CUDA 安装目录文件:

    拷贝时看到,CUDA 的安装目录中,有和 cuDNN 解压缩后的同名文件夹,这里注意,不需要担心,直接复制即可。cuDNN 解压缩后的同名文件夹中的配置文件会添加到 CUDA安装目录中的同名文件夹中。

    现在大家应该可以理解,cuDNN 其实就是 CUDA 的一个补丁而已,专为深度学习运算进行优化的。然后再参加环境变量

    2.添加至系统变量 往系统环境变量中的 path 添加如下路径(根据自己的路径进行修改)

    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3\bin
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3\include
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3\lib
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.3\libnvvp

    验证安装是否成功 配置完成后,我们可以验证是否配置成功,主要使用CUDA内置的deviceQuery.exe 和 bandwithTest.exe: 首先win+R启动cmd,cd到安装目录下的 extras\demo_suite,然后分别执行bandwidthTest.exe和deviceQuery.exe,应该得到下图:

    安装PyTorch

    PyTorch官网安装: Start Locally | PyTorch

    这里在win10上使用最新的PyTorch

    安装成功后使用 PyTorch 程序检查

    import torch
    print(torch.__version__)
    print(torch.cuda.is_available())

    如果输出的结果是False,那么说明当前的Pytorch版本无法使用显卡。 使用就会遇到错误

    AssertionError: Torch not compiled with CUDA enabled

    检查一下当前的CUDA版本,可以在CUDA目录下查看 version.json 。

    卸载CUDA

    如果CUDA Tookit装错了,那就需要卸载旧的CUDA Tookit,安装新的CUDA Tookit。

    1.前言

    别用杀毒软件来卸载这个。打开电脑的控制面板,找到程序,卸载程序 点击当天安装的时间,会找到刚才装的cuda软件,也包括以前NVIDIA的驱动软件,因为被更新了,所以也显示在当天安装的软件中。

    2.卸载开始

    对于含cuda字眼的,和结尾版本号是11.3 的可以卸载。 如果不确定那个程序能不能删除,可以搜索试试看,程序什么用途的。NVIDIA的软件一个个都有其独立卸载程序,不用担心卸载顺序。 

    1.留下:NVIDIA的图形驱动程序、NVIDIA Physx系统软件,NVIDIA GeForce Experience,如果你有这3个软件,就别卸载。 

    2.卸载:

    1. 推荐排序。 点击顶部时间小三角排序,找到NVIDA从下往上卸载,跳过保留的NVIDIA图形驱动、NVIDIA Physx系统软件、NVIDIA GeForce Experience。软件名含cuda11.3的,sdk,NVIDIA Nsight等,这些都可以卸载掉。

    2. 卸载完后,你会发现电脑—开始—所有程序,里面那个关于NVIDIA的程序文件不见了。存在的话,也可以看看里面还剩下什么,可以搜索看看。当然,C盘里面C:\Program Files\NVIDIA GPU Computing Toolkit文件也可以删除了。

    3. 用杀毒软件垃圾扫描下,清理下电脑,主要是清理注册表

    4. 卸载结束

    参考

    1. win10如何查看NVIDIA驱动的版本
    2. 【CUDA】cuda安装 (windows10版)
    3. win10 卸载cuda
    展开全文
  • 理清GPU、CUDACUDA Toolkit、cuDNN关系以及下载安装

    万次阅读 多人点赞 2020-11-08 17:17:11
    CUDA Driver 这个是我们常说的显卡驱动,NVIDIA的显卡驱动程序。 CUDA 是显卡厂商NVIDIA推出的运算平台。CUDA™是一种由NVIDIA推出的通用并行计算架构,是一种并行计算平台和编程模型,该架构使GPU能够解决复杂的...

    介于在服务器上安装Nvidia、CUDA、cuDNN等等,对各自的概念以及它们之间存在的关系一直不够清晰,借此机会,整理相关内容于此,若有错误望指正,评论多交流

    GPU

    显卡是我们平时说的GPU,现在大多数的电脑使用NVIDIA公司生产的显卡;常见的型号有Tesla V100,GTX950M,GTX1050TI,GTX1080等。

    显卡驱动Driver

    特指NVIDIA的显卡驱动程序。

    CUDA

    CUDA是显卡厂商NVIDIA推出的运算平台。CUDA™是一种由NVIDIA推出的通用并行计算架构,是一种并行计算平台和编程模型,该架构使GPU能够解决复杂的计算问题。CUDA英文全称是Compute Unified Device Architecture。

    有人说:CUDA是一门编程语言,像C,C++,python 一样,也有人说CUDA是API。
    官方说:CUDA是一个并行计算平台和编程模型,能够使得使用GPU进行通用计算变得简单和优雅。
    运行CUDA应用程序要求系统至少具有一个具有CUDA功能的GPU和与CUDA Toolkit兼容的驱动程序。
    查看CUDA版本命令:nvcc -Vnvcc --versioncat /usr/local/cuda/version.txt

    需要知道:CUDA和CUDA Driver显卡驱动不是一一对应的,比如同一台电脑上可同时安装CUDA 9.0、CUDA 9.2、CUDA 10.0等版本。

    CUDA Toolkit

    CUDA工具包的主要包含了CUDA-C和CUDA-C++编译器、一些科学库和实用程序库、CUDA和library API的代码示例、和一些CUDA开发工具。(通常在安装CUDA Toolkit的时候会默认安装CUDA Driver;但是我们经常只安装CUDA Driver,没有安装CUDA Toolkit,因为有时不一定用到CUDA Toolkit;比如我们的笔记本电脑,安装个CUDA Driver就可正常看视频、办公和玩游戏了)
    详细内容见NVIDIA官方

    NVCC

    NVCC就是CUDA的编译器,可以从CUDA Toolkit的/bin目录中获取,类似于gcc就是c语言的编译器。由于程序是要经过编译器编程成可执行的二进制文件,而cuda程序有两种代码,一种是运行在cpu上的host代码,一种是运行在gpu上的device代码,所以nvcc编译器要保证两部分代码能够编译成二进制文件在不同的机器上执行。

    cuDNN

    cuDNN的全称为NVIDIA CUDA® Deep Neural Network library,是NVIDIA专门针对深度神经网络中的基础操作而设计基于GPU的加速库。cuDNN为深度神经网络中的标准流程提供了高度优化的实现方式,例如convolution、pooling、normalization以及activation layers的前向以及后向过程。
    CUDA这个平台一开始并没有安装cuDNN库,当开发者们需要用到深度学习GPU加速时才安装cuDNN库,工作速度相较CPU快很多。

    CUDNN是基于CUDA的深度学习GPU加速库,有了它才能在GPU上完成深度学习的计算;
    来自知乎的解释:CUDA看作是一个工作台,上面配有很多工具,如锤子、螺丝刀等。cuDNN是基于CUDA的深度学习GPU加速库,有了它才能在GPU上完成深度学习的计算。它就相当于工作的工具,比如它就是个扳手。但是CUDA这个工作台买来的时候,并没有送扳手。想要在CUDA上运行深度神经网络,就要安装cuDNN,就像你想要拧个螺帽就要把扳手买回来。这样才能使GPU进行深度神经网络的工作,工作速度相较CPU快很多。
    基本上所有的深度学习框架都支持cuDNN这一加速工具,例如:Caffe、Caffe2、TensorFlow、Torch、Pytorch、Theano等。
    Caffe可以通过修改Makefile.config中的相应选项来修改是否在编译Caffe的过程中编译cuDNN,如果没有编译cuDNN的话,执行一些基于Caffe这一深度学习框架的程序速度上要慢3-5倍(Caffe官网上说不差多少,明明差很多嘛)。Caffe对cuDNN的版本不是很严格,只要大于cuDNN 4就可以。
    查看cuDNN版本:cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2


    CUDA Toolkit和 显卡驱动 的版本对应

    每个版本的CUDA Toolkit 都对应一个最低版本的显卡驱动版本(CUDA Driver),详情见下表。显卡驱动下载CUDA Toolkit下载显卡驱动安装教程CUDA Toolkit安装教程1CUDA Toolkit安装教程2

    安装CUDA Driver核心命令:sudo sh ./NVIDIA-Linux-x86_64-???.??.run
    详细教程参考其他博客

    需要知道:CUDA Toolkit和显卡驱动有版本的对应关系。
    但同时:在同一台机器上(即同一个CUDA Driver版本)可以安装多个版本的CUDA(如CUDA 9.0、CUDA 10.1……只需要满足当前CUDA Driver版本支持安装的CUDA版本即可,满足关系见下图。

    我的理解:安装CUDA就是安装CUDA Toolkit(CUDA是运算平台名称、CUDA Toolkit是工具包),就是从官网下载CUDA Toolkit安装.run文件(如cuda_9.0.176_384.81_linux.run)进行安装。
    安装成功后,在/usr/local路径下才会有cuda-9.0文件夹,且同时才可以使用nvcc -V可以查询到CUDA版本
    在这里插入图片描述

    上图的官方文档

    • Anaconda在安装Pytorch时,会同时用户安装cudatoolkit,如命令conda install pytorch torchvision torchaudio cudatoolkit=10.1 -c pytorch,其主要包含应用程序在使用CUDA相关的功能时所依赖的动态链接库。conda安装只会安装一些计算库,不会安装编译工具。而官方的cuda包包含的东西会完整一些。
    • 使用 Anaconda 安装的 CUDA Toolkit 不位于 lib64 路径中,也不会产生冲突
    • 在考虑pip install tensorflow-gpu安装tensorflow时,如安装TensorFlow2.1,需要安装CUDA Toolkit版本为10.1,而安装Tensorflow1.14.0,则要求cuda==10.0(tensorflow与cuda也有版本兼容问题,官方文档
      查询上图,我们发现需要显卡驱动版本应该大于等于418.96,故系统中的显卡驱动版本应该至少为418.39。
    • CUDA Toolkit本地安装包(local)内含特定版本Nvidia显卡驱动的,当在CUDA官网下载CUDA Toolkit后进行安装时会让用户选择安装项。
    • 如果想安装其他版本的显卡驱动,则就需要在Nvidia官网自己下载并先安装好(或本机已经安装了合适版本的显卡驱动时),最后在安装CUDA Toolkit时取消安装内置版本的Nvidia显卡驱动。

    CUDA / CUDA Toolkit和cuDNN的版本对应

    CUDA / CUDA Toolkit和cuDNN之间有版本对应关系。
    但同时:同一个CUDA 版本支持安装多个版本的cuDNN(如cuDNN v7.6.4、cuDNN v7.6.3……选择其一安装即可。
    cuDNN下载cuDNN下载安装教程

    • 查阅cuDNN下载网站,可以知道,如果目前电脑中安装了CUDA Toolkit=10.1(也就是CUDA10.1),那么cuDNN的可选版本有7.6.4、7.6.3、7.6.2
      同上,如需要安装TensorFlow2.1,故我们需要安装CUDA Toolkit=10.1,同时cuDNN就需要从7.6.4、7.6.3、7.6.2这三个版本中选择。

    显卡驱动程序的选择

    在这里插入图片描述
    在这里插入图片描述
    可以查看所下载的驱动版本支持的GPU版本:
    在这里插入图片描述


    nvidia-smi 和 nvcc 结果的版本为何不一致

    首先需要知道,两者不是必须一致
    在这里插入图片描述
    CUDA 有两种API,分别是运行时API和驱动API,即所谓的 Runtime API 与 Driver API。
    nvidia-smi是 CUDA Driver API(驱动API)的版本,如在这里是10.0。
    nvcc的结果是对应 CUDA Runtime API(运行API)的版本
    在这里插入图片描述

    https://blog.csdn.net/ljp1919/article/details/102640512
    https://blog.csdn.net/qxqxqzzz/article/details/103453413
    https://forums.developer.nvidia.com/t/cuda-driver-version-9-0-cuda-runtime-version-8-0/60139
    https://stackoverflow.com/questions/53422407/different-cuda-versions-shown-by-nvcc-and-nvidia-smi
    https://www.cnblogs.com/yhjoker/p/10972795.html


    使用conda命令安装pytorch时候cudatoolkit的版本是哪个?

    答: 我们只需要根据项目代码要求来确定cudaoolkit包的版本,安装相应的pytorch即可,如算法需要cuda10.2,那么就可以conda install pytorch torchvision cudatoolkit=10.2 -c pytorch
    上述命令在使conda安装torch时候,会提供一个cudatoolkit工具包,其中包含了CUDA的运行API(主要是一些动态链接库文件libXXXX.so.xxx等),在运行基于pytorch的代码时会使用conda提供的cudatoolkit包,而忽视Nvidia官方的CUDA Toolkit。这也就是为什么有时候我们通过nvcc -V查看的CUDA运行API版本很低(比如7.5),但是能成功运行cuda9.0的pytorch的原因。
    但是需要注意: 如果项目代码需要使用python setup.py develop./make.sh来编译依赖cuda的torch模块(如C语言脚本)时候,这个时候可能会导致错误,错误原因是编译过程使用的是系统自带的CUDA而不是conda安装的CUDA包,当系统自带CUDA版本不支持项目代码时,会引发一些奇怪的问题,所以最好的办法是保持conda安装的cudatoolkit版本与系统自带版本(nvcc -V查看)一致。
    那么可能就有人要问了,“不能编译的时候调用conda安装pytorch时附带安装的cudatoolkit吗?”答案是往往不行,因为conda只安装上了部分动态链接文件,只占Nvidia官方CUDA的一小部分,且没有安装开发工具包和驱动程序,而往往编译过程需要依赖其他头文件等,conda安装的cudatoolkit不具备这些头文件等,故不行。
    办法也只能是自行安装一个新版本CUDA,具体过程见上文,多版本CUDA管理见下文。


    CUDA多版本切换/管理方式

    当本机上安装有多个版本cuda时可以通过一下步骤进行管理/版本切换,比如我们要切换使用cuda9.1:
    sudo vim ~/.bashrc加入以下的内容:

    export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64
    export PATH=$PATH:/usr/local/cuda/bin
    export CUDA_HOME=$CUDA_HOME:/usr/local/cuda
    

    修改完毕保存,source ~/.bashrc

    sudo rm -rf /usr/local/cuda # 删除旧版本的软连接
    sudo ln -s /usr/local/cuda-9.1 /usr/local/cuda # 建立新版本的软连接
                                                  # 前面的路径是需要的版本的cuda的安装路径。
    

    之后再使用nvcc -V查看cuda版本,如


    写在最后

    • 在安装Nvidia驱动时,可能会遇到gcc版本过高或较低的问题,可以参考其他文章安装合适版本的gcc,gcc镜像下载gcc5.4安装教程
    • cuda/cuDNN也可以使用conda安装,即直接使用conda install cuda 和 cudnn,只要注意版本关系即可,详情见
    • 以深度学习为例,当网络模型依赖CUDA时,可以直接用conda安装CUDA(这里安装的只是CUDA的部分,只有部分动态链接库),如conda install cudatoolkit==XXX,无需安装从 nvidia 官网下载cuda 安装包,但这样做需要确保GPU显卡驱动是已经安装好的。
    • 关于安装pytorch和torchvision,安装指定版本的pytorch可以使用conda install pytorch==XXXX,同样往往需要用到的torchvision也可以用conda安装,需要注意torch、torchvision和python三者间有个版本对应关系,见下表或pytorch官网
    pytorchtorchvisionpythoncuda
    1.8.00.9.0>=3.610.2,11.1
    1.7.10.8.2>=3.69.2, 10.1,10.2,11.0
    1.7.00.8.0>=3.69.2, 10.1,10.2,11.0
    1.6.00.7.0>=3.69.2, 10.1,10.2
    1.5.10.6.1>=3.59.2, 10.1,10.2
    1.5.00.6.0>=3.59.2, 10.1,10.2
    1.4.00.5.0==2.7, >=3.5, <=3.89.2, 10.0
    1.3.10.4.2==2.7, >=3.5, <=3.79.2, 10.0
    1.3.00.4.1==2.7, >=3.5, <=3.79.2, 10.0
    1.2.00.4.0==2.7, >=3.5, <=3.79.2, 10.0
    1.1.00.3.0==2.7, >=3.5, <=3.79.0, 10.0
    <=1.0.10.2.2==2.7, >=3.5, <=3.79.0, 10.0

    代求证:
    conda install pytorch安装的是torch CPU版本,conda install pytorch torchvision -c pytorch安装的是GPU版本

    更多详情见:知乎专栏

    对网络上一些言语若有疑问,欢迎在评论区交流 [抱拳][抱拳][抱拳]

    展开全文
  • CUDAcuda安装 (windows版)

    万次阅读 多人点赞 2021-05-24 12:38:17
    CUDAcuda安装 (windows版)前言官方教程安装工具的准备CUDA toolkit DownloadcuDNN Download2. CUDA 安装与配置过程测试环境是否安装成功2、cuDNN配置运行官方自带的demo 前言 windows10 版本安装 CUDA ,首先...

    本次安装参考了网上许多教程,结合自己的需求与理解,写下此篇博客,仅做本人总结使用。。

    一、前言

    windows10 版本安装 CUDA ,首先需要下载两个安装包

    • CUDA toolkit(toolkit就是指工具包)
    • cuDNN

    注:cuDNN 是用于配置深度学习使用

    官方教程

    CUDA:https://docs.nvidia.com/cuda/cuda-installation-guide-microsoft-windows/index.html

    cuDNN:https://docs.nvidia.com/deeplearning/sdk/cudnn-install/index.html#installwindows

    二、安装工具的准备

    1. CUDA toolkit Download

    https://developer.nvidia.com/cuda-toolkit-archive

    官网安装:

    https://developer.nvidia.com/cuda-downloads?target_os=Windows&target_arch=x86_64

    在这里插入图片描述

    在这里插入图片描述

    GA = General Availability,通用版本,指软件的通用版本。
    RC=Release Candidate,含义 是"发布候选版",它不是最终的版本,而是最终版(RTM=Release To Manufacture)之前的最后一个版本
    在这里插入图片描述
    官网说明文档,
    https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html

    在这里插入图片描述

    CUDA的版本是跟显卡型号有关还是驱动有关?

    一般是驱动版本决定了能用的CUDA版本的上限,比如新版的显卡驱动可以支持老的CUDA runtime。但是老的显卡可能无法更新到最新的显卡驱动,比如Fermi显卡只能装到391驱动,因此只能用到CUDA9.1。除此之外,显卡硬件与CUDA compute capability相关,当然编译时也可以指定streaming multiprocessor。新的架构支持更多特性就是了。

    最终本人下载的

    在这里插入图片描述

    2. cuDNN Download

    cuDNN地址如下,不过要注意的是,我们需要注册一个账号,才可以进入到下载界面。大家可以放心注册的。

    https://developer.nvidia.com/rdp/cudnn-download

    在这里插入图片描述

    注册成功后的下载界面

    在这里插入图片描述

    可以使用下面网址,查看适配的 cuDNN

    https://developer.nvidia.com/rdp/cudnn-archive

    在这里插入图片描述

    在这里插入图片描述

    本人下载的版本如下:

    在这里插入图片描述

    三、 CUDA 安装与配置过程

    1. 双击“exe文件”,选择下载路径(推荐默认路径)

    在这里插入图片描述

    1. 安装选项

    如果你是第一次安装,尽量全选
    如果你是第n次安装,尽量只选择第一个,不然会出现错误

    在这里插入图片描述

    不要选Visual Studio Integration,即使选了也不能成功安装

    在这里插入图片描述
    如果本机的驱动版本(当前版本)小于cuda对应的版本(新版本),则选择,否则不选。如果当前版本小于新版本,并且不覆盖安装,之后电脑会频繁蓝屏或死机

    1. 记住安装位置,tensorflow要求配置环境

    在这里插入图片描述

    重点提醒:一定要记住这个路径,把这个路径保留下来,后面我们还会用到!!!

    1. 安装进行
      在这里插入图片描述
      在这里插入图片描述

    在这里插入图片描述

    1. 安装完成

    在这里插入图片描述

    查看系统变量中是否添加了路径,如果没有需要自己添加

    在这里插入图片描述

    测试环境是否安装成功

    运行cmd,输入nvcc --version 即可查看版本号;
    set cuda,可以查看 CUDA 设置的环境变量。

    nvcc --version
    
    set cuda
    

    在这里插入图片描述

    在这里插入图片描述

    四、cuDNN配置

    1.解压

    cuDNN叫配置更为准确,我们先把下载的 cuDNN 解压缩,会得到下面的文件:

    1. cuDNN 解压缩后的文件
      在这里插入图片描述

    下载后发现其实cudnn不是一个exe文件,而是一个压缩包,解压后,有三个文件夹,把三个文件夹拷贝到cuda的安装目录下

    CUDA 的安装路径在前面截图中有,或者打开电脑的环境变量查看,默认的安装路径如下:

    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1
    

    后面那个v11.1是你自己的版本号

    1. CUDA 安装目录文件:
      在这里插入图片描述
      拷贝时看到,CUDA 的安装目录中,有和 cuDNN 解压缩后的同名文件夹,这里注意,不需要担心,直接复制即可。cuDNN 解压缩后的同名文件夹中的配置文件会添加到 CUDA安装目录中的同名文件夹中。

    2. 拷贝成功后的文件
      在这里插入图片描述

    现在大家应该可以理解,cuDNN 其实就是 CUDA 的一个补丁而已,专为深度学习运算进行优化的。然后再参加环境变量

    2.添加至系统变量

    1. 往系统环境变量中的 path 添加如下路径(根据自己的路径进行修改)
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\bin
    
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\include
    
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\lib
    
    C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1\libnvvp
    
    1. 验证安装是否成功

    配置完成后,我们可以验证是否配置成功,主要使用CUDA内置的deviceQuery.exe 和 bandwithTest.exe:
    首先win+R启动cmd,cd到安装目录下的 …\extras\demo_suite,然后分别执行bandwidthTest.exe和deviceQuery.exe,应该得到下图:

    在这里插入图片描述

    在这里插入图片描述

    参考博客:

    https://blog.csdn.net/mao_hui_fei/article/details/104246466

    https://www.pianshen.com/article/8647746165/

    https://blog.csdn.net/weixin_45494025/article/details/100746025

    https://blog.csdn.net/u011473714/article/details/95042856

    展开全文
  • CUDA环境详解

    千次阅读 2022-03-27 16:30:09
    CUDA环境详解 本文主要介绍 CUDA 环境,这一堆东西网上有很多博客介绍过了,我再来一篇:),参考前辈们的文章,看能不能写的更清楚一点。读后仍有问题,欢迎留言交流。 CUDA APIs CUDA是由NVIDIA推出的通用并行计算...
  • CUDA】常见错误类型cudaError_t

    万次阅读 2021-01-26 15:32:57
    整理下NVIDIA官方文档中列的CUDA常见错误类型。 错误类型说明 cudaSuccess = 0 API调用返回没有错误。对于查询调用,这还意味着要查询的操作已完成(请参阅cudaEventQuery()和cudaStreamQuery())。 ...
  • VS2017 CUDA编程学习12:CUDA

    千次阅读 2021-11-12 21:24:50
    CUDA流的理解2. C++ 实现CUDA流3. 执行结果总结学习资料 VS2017 CUDA编程学习1:CUDA编程两变量加法运算 VS2017 CUDA编程学习2:在GPU上执行线程 VS2017 CUDA编程学习3:CUDA获取设备上属性信息 VS2017 CUDA编程...
  • cuda版本切换:如cuda11.1切换到cuda10.2

    千次阅读 2022-01-12 20:22:17
    cuda版本切换:如cuda11.1切换到cuda10.2 当前已安装cuda11.1版本,显卡驱动版本:460.91.03, cuDNN版本:8.2.1 for 11.1 欲切换cuda10.2版本使用一下
  • Win10安装CUDA11.4和Torch1.9.0

    万次阅读 多人点赞 2021-07-06 09:19:26
    Win10安装CUDA11.4和Torch1.9.0CUDA介绍及安装说明CUDA介绍CUDA安装说明显卡驱动查看及CUDA安装版本号选择查看本机显卡驱动查询CUDA支持的显卡驱动版本CUDA及cuDNN安装官网下载CUDA11.4并安装cuDNN下载及安装安装...
  • 最新CUDA环境配置(Win10 + CUDA 11.6 + VS2019)

    千次阅读 多人点赞 2022-04-21 20:42:57
    本文介绍如何在win10系统中搭建CUDA + VS2019的开发环境 CUDA是目前做人工智能, 深度学习等方向的必备工具库. 由CUDA衍生出的加速工具很多, 如: cuDNN, TensorRT, cuBLAS等HPC加速库, 或者涉及最新的元宇宙概念中的...
  • windows10下visual studio 2019安装以及cuda11配置
  • 下载CUDA下载地址下载CUDNN下载地址安装CUDA和cuDNN安装CUDA配置环境变量配置SDK验证deviceQuery和bandwidthTest测试一下输入set cuda可以查看CUDA安装路径安装cuDNN,cuDNN 其实就是 CUDA 的一个补丁而已卸载CUDA...
  • cudacudatoolkit

    千次阅读 2022-03-28 09:06:08
    cudatoolkit有两种: ①Nvidia 官方提供的 CUDA Toolkit (官方提供的CUDA Toolkit是一个完整的工具安装包)大 ②Anaconda安装Pytorch时,会自动安装cudatoolkit (conda安装的只包含动态链接库等pytorch框架需要...
  • 之前写过一篇《CUDA C Programming Guide》(《CUDA C 编程指南》)导读,整理了一下基础的知识,但没有真正实践过最近由于工作需要使用到CUDA,因此需要再看一些书和博文,补一些知识。现将这些知识陈列在这里。参考...
  • windows10下cuda9.2升级到cuda10.2

    万次阅读 2020-09-09 13:02:00
    一、文章主要内容 1、Windows10下从cuda9.2升级到cuda10.2 2、Windows10下cudnn安装 3、cuda9...
  • cuDNN v5.1 (Jan 20, 2017), for CUDA 8.0

    热门讨论 2017-03-14 18:04:11
    cuDNN v5.1 (Jan 20, 2017), for CUDA 8.0
  • 官网:pytorch 最新版:pytorch1.9 版本 >= 1.0.0 的命令 v1.8.0 Conda OSX conda install pytorch==1.8.0 torchvision...# CUDA 10.2 conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 cudatoolk
  • GPU — CUDA 编程模型

    千次阅读 2022-04-02 22:45:31
    文章目录目录CUDA 编程模型CUDA 的架构CUDA 的核心概念CUDA 的工作原理 CUDA 编程模型 CUDA(Compute Unified Device Architecture,统一计算架构)是由 NVIDIA 所推出的一种集成技术,是对于 GPGPU 的正式名称,...
  • Cuda安装详细步骤

    千次阅读 2021-05-13 04:51:51
    为了学习Caffe新买了笔记本,安装cuda时遇到了很多问题,不过好在都成功的解决了。网上有很多cuda的安装教程,每个人的电脑配置不同遇到的问题也不一样,现在就我自己的安装配置情况总结一下具体的安装步骤,因为有...
  • 一文讲清楚CUDACUDA toolkit、CUDNN、NVCC关系

    万次阅读 多人点赞 2021-04-27 18:32:50
    目录主要参考一、CUDA/cudnn/CUDA Toolkit/NVCC区别简介二、CUDA Toolkit具体组成三、NVCC简介四、版本管理1、pytorch运行时的CUDA版本(1)查看cuda 运行版本 和 编译时的版本(2)pytorch寻找可用CUDA的过程:2、...
  • 本来是通过 conda create -n pytorch pip python=3 创建了 pytorch 的虚拟环境, 并参照 ubuntu安装cuda,cudnn,pytorch 安装了 cuda 和 Pytorch, 但是在用时, Pytorch 不能调用 cuda, 所以干脆直接让 pytorch 的虚拟...
  • Ubuntu下CUDA和cudnn的安装

    千次阅读 2021-12-09 17:02:35
    1、安装CUDA 1、下载 https://developer.nvidia.com/cuda-downloads (1)大概是下面这个样子,按照自己的平台来选,然后下载那个.run文件就行。 注意,这里有几个包,都下下来。准备工作已经做完,这时候,你...
  • 最新CUDA环境配置教程(ubuntu 20.04 + cuda 11.7 + cuDNN 8.4)

    千次阅读 多人点赞 2022-05-31 11:34:41
    ubuntu 20.04 CUDA 11.7 cuDNN 8.4 环境配置教程 ubuntu 20.04 CUDA 11.7 cuDNN 8.4 环境配置教程1.查看是否有合适的GPU2.查看系统版本,我用的是ubuntu 20.04:3.验证系统GCC版本:4.通过下面的地址下载安装包:这里...
  • CUDA安装

    千次阅读 2022-06-17 16:19:41
    CUDA和CUDNN安装
  • jetson tx2 安装cuda 10.2或者cuda 9全过程

    千次阅读 2021-09-28 13:55:43
    检查cuda2. 提前安装一些必要软件3. 安装jetson使用的cuda和cudnn 基础环境: jetpack 4.4,python3.6, ubuntu18.04 1. 检查cuda 首先检查你是否已经安装cuda。进入/usr/local中,如果发现cuda-x.x的文件夹,则说明...
  • CUDA 11.3安装

    万次阅读 2021-08-06 16:37:39
    1. 检查cuda对应driver版本: https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html#title-new-features 2. 安装显卡驱动 参考...
  • WSL安装CUDA并成功运行

    千次阅读 2022-04-05 17:41:16
    https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=Ubuntu&target_version=18.04&target_type=deb_local wget ...
  • Ubuntu之cuda11.4安装

    千次阅读 热门讨论 2021-09-03 11:32:45
    NVIDIA CUDA工具包提供了开发环境,可供创建经 GPU 加速的高性能应用。借助 CUDA 工具包,您可以在经 GPU 加速的嵌入式系统、台式工作站、企业数据中心、基于云的平台和 HPC 超级计算机中开发、优化和部署应用。此...
  • Ubuntu20.4安装CUDA9.0,多版本CUDA切换

    千次阅读 2021-09-14 11:05:21
    安装CUDA前需要安装适配的gcc编译器,本文主要安装CUDA9.0对应的gcc-5与g++-5 由于ubuntu20.4默认安装gcc7版本及以上,所以要先更换源链接 sudo vim /etc/apt/sources.list 在sources.list下添加ubuntu16.04的...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 224,546
精华内容 89,818
关键字:

cuda