pip install D:\python\Win10-CUDA11\py38\torch-1.8.1+cu111-cp38-cp38-win_amd64.whl
有的包安装是有先后顺序的,没按顺序会报错。比如要先装tensorflow再装keras
(1)测试
a.在终端输入nvcc -V
就可以看到cuda版本,输入nvidia-smi
可以看到显卡驱动版本、支持的最高cuda版本、显卡使用情况。
b.检查pytorch以及TensorFlow能否使用cuda和gpu可以用下面代码进行测试
import torch
import tensorflow as tf
print(torch.__version__)
print(torch.cuda.is_available())
print(torch.zeros(1).cuda())
print(tf.test.is_built_with_cuda())
print(tf.test.is_gpu_available())
(2)安装过程中遇到了这个问题,解决办法参考https://blog.csdn.net/weixin_43760844/article/details/115706289
(3)最终环境
系统:window 10
显卡:RTX3060
CUDA版本:11.1.1
cuDNN版本:8.1.1 (适用于CUDA11.0、11.1、11.2)
python版本:3.8
pytorch版本:1.8.1
TensorFlow版本:2.4.1
Keras版本:2.4.3
我的RTX3060显卡部署Pytorch深度学习环境步骤与心得,深度学习框架使用的是Pytorch,操作系统Windows 10。
大家知道深度学习环境的配置并不是一件简单的事,因为需要使用显卡的GPU进行运算。而30系显卡的配置又有些许的不同,其对应的各类环境、插件、库的版本有自己的要求。经过摸索,分享一下步骤和心得,跟着走小白也能一样无压力地配置环境。其他30系显卡也一样可以参考。由于大部分计算是在GPU端进行,深度学习对CPU要求没这么高,只要不是太离谱都能胜任。
显卡:RTX 3060,显存12G
目录Q:在PC上安装TwinCAT试用版?.......................................2Q:Twincat安装后切换本地到运行模式导致系统蓝屏?....................2Q:qq2013版会导致twincatRUN时蓝屏?..............................2Q:双核笔记本电脑实时性不准的解决办法................
工作中遇到,简单整理理解不足小伙伴帮忙指正对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的懦弱回归,是随波逐流,是对内心的恐惧 ——赫尔曼·黑塞《德米安》
RTX3060+Win10+cuda11.1+cuDNN8.0.4+Libtorch1.9.0+Opencv3.4.6+VS2019深度学习C++配置0前言1检查显卡2下载、安装cuda11.1.02.1下载cuda11.1.02.2安装cuda11.1.03下载、配置cuDNN8.0.43.1下载cuDNN8.0.43.2配置cuDNN8.0.44确认cuda是否安装成功5下载、安装Visual Studio20195.1下载VS20195.2安装VS20196下载Opencv3.4.67下载Libtor
一般不建议直接安装最高版本的CUDA,因为如果后续使用PyTorch或TensorFlow,95%的情况下是不兼容的(咱就是说稳定的总比最新的好)创建环境,环境名为mypytorch,可自己改想要的名称,也可以选择3.8版本的python。解压后,将cudnn目录下的文件对应放在cuda目录,即。安装cudatoolkit,目前最新的版本为11.3.1。如果你还有TensorFlow的安装需求的话,也可在。前提最好仔细看,看了不一定有用,但不看一定没用!(3)觉得不保险,还可以去看一下环境变量有没有。
#3060显卡下CUDA+CUDNN+Paddle安装的血泪史
新电脑下3060显卡安装GPU版本的paddle环境遇到的坑,一路下来,遇到的报错有:1.CUDA程序安装失败怎么办? 2. (CUDA capability sm_86 is not compatible)显卡算力不支持7.5怎么办? 3.输入nvcc-v报错怎么办?什么原因?
装这个CUDA,我真的是裂开,遇到各种各样的问题。
主要我归纳下:
1.3060的不支持cuda10系列了,因为cuda10的算力是7+,30系列需要的显卡算力是8
深度学习用什么显卡?3060显卡适合深度学习吗?都知道深度学习很吃显卡,显存越大,可以缓存的内容就越多。对于非常吃显存的图像类深度学习程序来说,显存太小的显卡批处理就不能调太大,否则会程序会报错。......