2017-05-19 11:29:57 fk1174 阅读数 4094
  • 微信公众平台深度开发v2.0第2季——获取微信服务器IP...

    “微信公众平台深度开发Java版 v2.0”系列课程共有6季,使用JAVA语言,系统讲解微信公众平台订阅号、服务号官方列出的全部功能接口,包括:自定义菜单、个性化菜单(按需定制菜单)、群发消息、客服消息(有限次消息推送)、模板消息接(无限次消息推送)、微信网页开发(微信WEB开发、微信游戏)、微信JSSDK开发、用户管理、获取用户基本信息、网页授权获取用户基本信息(通过WEB得到用户信息)、二维码(临时二维码、永久二维码)、事件推送、接收普通消息、被动回复用户消息,等知识点。 以及,针对微信公众号开发的服务端架构设计方案。课程以微信公众号开发视角,讲解JAVA开发微信公众号所需的框架、第三方工具。 购买套餐还赠送经典微信开发课程——[微信公众号_独立知识点]环境搭建。该课程针对各种复杂的网络环境,讲解如何构建开发环境,已解决“没有服务器”、“没有固定IP”等开发者遇到的窘境。 课程采用独立知识点讲解,一个知识点,一组课程,真正做到“简单、高效、”以短的时间、实现的学习。更多课程信息请访问CSDN。网址:http://edu.csdn.net/lecturer/631 “微信公众平台企业号开发Java版”陆续上线。 详情 qq2326321088

    27776 人正在学习 去看看 翟东平

1,AWS注册过程省略。
2,按照TensorFlow官网搭建virtualenv
不知为何找不到apt-get这里用yum

sudo yum install python-pip python-dev python-virtualenv
virtualenv --system-site-packages ~/tensorflow
source ~/tensorflow/bin/activate

然后

pip install --upgrade tensorflow

会报错: Could not find any downloads that satisfy the requirement tensorflow
No distributions at all found for tensorflow
原因是pip版本低,更新pip:

pip install --upgrade pip

运行会报错:ImportError: No module named sklearn.utils

sudo yum install build-essential python-dev python-setuptools python-numpy python-scipy libatlas-dev libatlas3gf-base

pip install --user --install-option="--prefix=" -U scikit-learn

报错:ImportError: No module named scipy

pip install --user numpy scipy matplotlib ipython jupyter pandas sympy nose

报错:unable to execute ‘gcc’: No such file or directory

yum groupinstall 'Development Tools'

再次运行程序报错:MemoryError

2019-04-28 20:52:55 qq_36665643 阅读数 923
  • 微信公众平台深度开发v2.0第2季——获取微信服务器IP...

    “微信公众平台深度开发Java版 v2.0”系列课程共有6季,使用JAVA语言,系统讲解微信公众平台订阅号、服务号官方列出的全部功能接口,包括:自定义菜单、个性化菜单(按需定制菜单)、群发消息、客服消息(有限次消息推送)、模板消息接(无限次消息推送)、微信网页开发(微信WEB开发、微信游戏)、微信JSSDK开发、用户管理、获取用户基本信息、网页授权获取用户基本信息(通过WEB得到用户信息)、二维码(临时二维码、永久二维码)、事件推送、接收普通消息、被动回复用户消息,等知识点。 以及,针对微信公众号开发的服务端架构设计方案。课程以微信公众号开发视角,讲解JAVA开发微信公众号所需的框架、第三方工具。 购买套餐还赠送经典微信开发课程——[微信公众号_独立知识点]环境搭建。该课程针对各种复杂的网络环境,讲解如何构建开发环境,已解决“没有服务器”、“没有固定IP”等开发者遇到的窘境。 课程采用独立知识点讲解,一个知识点,一组课程,真正做到“简单、高效、”以短的时间、实现的学习。更多课程信息请访问CSDN。网址:http://edu.csdn.net/lecturer/631 “微信公众平台企业号开发Java版”陆续上线。 详情 qq2326321088

    27776 人正在学习 去看看 翟东平

深度学习如何在云服务器中搭建环境


作者:Ruci

在深度学习中,难免会碰到电脑带不起的情况。这时,可以去网上购买云服务器使用。由于本人,在一次跑程序时,跑不起来。问向了导师,导师给我了一个云服务器。我看了一脸蒙蔽,于是乎。决定专门学习一下云服务器的使用。我相信,做这一行,以后难免会用到。

1、购买云服务器
2、下载远程连接的各种软件
3、搭建开发环境

一、购买云服务器
关于买哪一个云服务器好,我是初学者,不懂太多。不做深入评价。
买云服务器的地方有很多。比如:阿里云,腾讯,谷歌都有

下面是我买的一个专门学习的云服务器
这是我买的腾讯的云服务器,配置不高,跑深度学习肯定是不行的。买来只是为了学习一下

这样就相当于ok了。记住云服务器四个信息:
1、主机名; 2、公网IP地址; 3、自己设置的密码; 4、服务器云端口号

二、下载软件
主要有两款软件:Xshell、Xftp
链接:https://pan.baidu.com/s/1lBN-kpc--i8L2Ow_7zCTOg
提取码:3fs5
下载好,安装就好

我们先打开Xshell
输入三个信息
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
就ok!

再打开Xftp
在这里插入图片描述

三、搭建编程环境
由于,做深度学习,需要很多科学计算学习包。以及深度学习框架(tensorflow)
我这里选择的是下载Anaconda

方法一:
云服务器直接安装:

下载Anaconda

wget https://repo.continuum.io/archive/Anaconda2-4.4.0-Linux-x86_64.sh

安装:

 bash Anaconda2-4.4.0-Linux-x86_64.sh

验证:终端输入

anaconda

在这里插入图片描述
在这里插入图片描述

方法二:
我们可以用自己电脑去网站下载Anaconda
然后用Xftp传进云服务器就ok了
安装和上面一样。

以后肯定需要搭建gpu环境,这里我就不搭了。。我买的这个服务器。不适合

2018-04-25 00:00:00 eo63y6pKI42Ilxr 阅读数 1107
  • 微信公众平台深度开发v2.0第2季——获取微信服务器IP...

    “微信公众平台深度开发Java版 v2.0”系列课程共有6季,使用JAVA语言,系统讲解微信公众平台订阅号、服务号官方列出的全部功能接口,包括:自定义菜单、个性化菜单(按需定制菜单)、群发消息、客服消息(有限次消息推送)、模板消息接(无限次消息推送)、微信网页开发(微信WEB开发、微信游戏)、微信JSSDK开发、用户管理、获取用户基本信息、网页授权获取用户基本信息(通过WEB得到用户信息)、二维码(临时二维码、永久二维码)、事件推送、接收普通消息、被动回复用户消息,等知识点。 以及,针对微信公众号开发的服务端架构设计方案。课程以微信公众号开发视角,讲解JAVA开发微信公众号所需的框架、第三方工具。 购买套餐还赠送经典微信开发课程——[微信公众号_独立知识点]环境搭建。该课程针对各种复杂的网络环境,讲解如何构建开发环境,已解决“没有服务器”、“没有固定IP”等开发者遇到的窘境。 课程采用独立知识点讲解,一个知识点,一组课程,真正做到“简单、高效、”以短的时间、实现的学习。更多课程信息请访问CSDN。网址:http://edu.csdn.net/lecturer/631 “微信公众平台企业号开发Java版”陆续上线。 详情 qq2326321088

    27776 人正在学习 去看看 翟东平

云栖君导读:本文根据实测数据,初步探讨了在弹性GPU云服务器上深度学习的性能模型,可帮助科学选择GPU实例的规格。


一、背景


得益于GPU强大的计算能力,深度学习近年来在图像处理、语音识别、自然语言处理等领域取得了重大突GPU服务器几乎成了深度学习加速的标配。


阿里云GPU云服务器在公有云上提供的弹性GPU服务,可以帮助用户快速用上GPU加速服务,并大大简化部署和运维的复杂度。如何提供一个合适的实例规格,从而以最高的性价比提供给深度学习客户,是我们需要考虑的一个问题,本文试图从CPU、内存、磁盘这三个角度对单机GPU云服务器的深度学习训练和预测的性能模型做了初步的分析,希望能对实例规格的选择提供一个科学的设计模型。


下面是我们使用主流的几个开源深度学习框架在NVIDIA GPU上做的一些深度学习的测试。涉及NVCaffe、MXNet主流深度学习框架,测试了多个经典CNN网络在图像分类领域的训练和推理以及RNN网络在自然语言处理领域的训练。


二、训练测试


我们使用NVCaffe、MXNet主流深度学习框架测试了图像分类领域和自然语言处理领域的训练模型。


2.1 图像分类


我们使用NVCaffe、MXNet测试了图像分类领域的CNN网络的单GPU模型训练。

NVCaffe和MXNet测试使用ImageNet ILSVRC2012数据集,训练图片1281167张,包含1000个分类,每个分类包含1000张左右的图片。

2.1.1 CPU+Memory


2.1.1.1 NVCaffe


NVCaffe是NVIDIA基于BVLC-Caffe针对NVIDIA GPU尤其是多GPU加速的开源深度学习框架。LMDB格式的ImageNet训练集大小为240GB ,验证集大小为9.4GB。


我们使用NVcaffe对AlexNet、GoogLeNet、ResNet50、Vgg16四种经典卷积神经网络做了图像分类任务的模型训练测试。分别对比了不同vCPU和Memory配置下的训练性能。性能数据单位是Images/Second(每秒处理的图像张数)。图中标注为10000指的是迭代次数10000次,其它都是测试迭代次数为1000次。


640?wx_fmt=png640?wx_fmt=png640?wx_fmt=png640?wx_fmt=png


2.1.1.2 MXNet


MXNet的数据集使用RecordIO格式,ImageNet训练集 93GB ,验证集 3.7GB。


我们使用网络Inception-v3(GoogLeNet的升级版)做了图像分类的训练测试。分别对比了不同vCPU和Memory配置下的训练性能。数据单位是Samples/Second(每秒处理的图像张数)。


640?wx_fmt=png


2.1.2 磁盘IO

我们在阿里云GN5(P100)实例上使用NVCaffe测试了GoogLeNet网络模型在NVMe SSD本地盘、SSD云盘和高效云盘上的训练性能,测试结果如下(性能数据单位是Images/Second):


640?wx_fmt=png


2.2 自然语言处理


我们使用MXNet测试了RNN网络的LSTM模型的训练,使用PennTreeBank自然语言数据集。PennTreeBank数据集的文本语料库包含近100万个单词,单词表被限定在10000个单词。分别对比了不同vCPU和Memory配置下的训练性能:


640?wx_fmt=png


三、推理测试


3.1 图像分类


我们使用NVCaffe测试了图像分类领域的CNN网络的模型推理。


测试使用ImageNet ILSVRC2012数据集,验证测试图片 50000张。


3.1.1 CPU+Memory


我们使用NVcaffe对AlexNet、GoogLeNet、ResNet50、VGG16四种经典卷积神经网络做了图像分类的推理测试。分别对比了不同vCPU和Memory配置下的训练性能。数据单位是Images/Second(每秒处理的图像张数)。


640?wx_fmt=png


3.1.2 磁盘IO


我们使用NVCaffe测试了GoogLeNet网络在NVMe SSD本地盘、SSD云盘和高效云盘上的图像分类推理性能,测试结果如下(数据单位是Images/Second):


640?wx_fmt=png


四、数据预处理测试


在训练模型之前,往往要对训练数据集做数据预处理,统一数据格式,并做一定的归一化处理。


我们使用NVCaffe对ImageNet ILSVRC2012数据集做了数据预处理的测试,分别对比了NVMe SSD本地盘、SSD云盘和高效云盘的数据预处理时间,数据单位是秒,数据如下:


640?wx_fmt=png


五、数据分析


5.1 训练


5.1.1 图像分类
  

从NVCaffe和MXNet的测试结果来看,图像分类场景单纯的训练阶段对CPU要求不高,单GPU 只需要4vCPU就可以。而内存需求则取决于深度学习框架、神经网络类型和训练数据集的大小:测试中发现NVCaffe随着迭代次数的增多,内存是不断增大的,但是内存需求增大到一定程度,对性能就不会有什么提升了,其中NVCaffe AlexNet网络的训练,相比其它网络对于内存的消耗要大得多。相比之下MXNet的内存占用则要小的多(这也是MXNet的一大优势),93G预处理过的训练数据集训练过程中内存占用不到5G。
对于磁盘IO性能,测试显示训练阶段NVMe SSD本地盘、SSD云盘性能基本接近,高效云盘上的性能略差1%。因此训练阶段对IO性能的要求不高。


5.1.2 自然语言处理
  

从MXNet的测试结果来看,对于PennTreeBank这样规模的数据集,2vCPU 1GB Mem就能满足训练需求。由于自然语言处理的原始数据不像图像分类一样是大量高清图片,自然语言处理的原始数据以文本文件为主,因此自然语言处理对内存和显存的要求都不高,从我们的测试来看,4vCPU 30GB 1GPU规格基本满足训练阶段需求。


5.2 推理


5.2.1 图像分类
  

从NVCaffe的图像分类推理测试来看,除AlexNet 2vCPU刚刚够用外,其它网络2vCPU对性能没有影响,而9.4GB的验证数据集推理过程中内存占用大概是7GB左右,因此对大部分模型来看,2vCPU 30GB 1GPU规格基本满足图像分类推理的性能需求。
  

对于磁盘IO性能,推理性能NVMe SSD本地盘、SSD云盘很接近,但高效云盘差15%。因此推理阶段至少应该使用SSD云盘保证性能。

5.2.2 自然语言处理
  

对于自然语言处理,参考训练性能需求,我们应该可以推测2vCPU 30GB 1GPU规格应该也能满足需求。


5.3 数据预处理
  

从NVCaffe对ImageNet ILSVRC2012数据集做数据预处理的测试来看,数据预处理阶段是IO密集型,NVMe SSD本地盘比SSD云盘快25%,而SSD云盘比高效云盘快10%。


六、总结
  

深度学习框架众多,神经网络类型也是种类繁多,我们选取了主流的框架和神经网络类型,尝试对单机GPU云服务器的深度学习性能模型做了初步的分析,结论是:


  1. 深度学习训练阶段是GPU运算密集型,对于CPU占用不大,而内存的需求取决于深度学习框架、神经网络类型和训练数据集的大小;对磁盘IO性能不敏感,云盘基本能够满足需求。

  2. 深度学习推理阶段对于CPU的占用更小,但是对于磁盘IO性能相对较敏感,因为推理阶段对于延迟有一定的要求,更高的磁盘IO性能对于降低数据读取的延时进而降低整体延迟有很大的帮助。

  3. 深度学习数据预处理阶段是IO密集型阶段,更高的磁盘IO性能能够大大缩短数据预处理的时间。


end


阿里巴巴千亿交易背后的0故障发布

阿里巴巴6大行业报告免费分享啦!

七本书籍带你打下机器学习和数据科学的数学基础

Logtail 从入门到精通:开启日志采集之旅

更多精彩

640?wx_fmt=jpeg

2019-11-15 10:50:34 a18838956649 阅读数 44
  • 微信公众平台深度开发v2.0第2季——获取微信服务器IP...

    “微信公众平台深度开发Java版 v2.0”系列课程共有6季,使用JAVA语言,系统讲解微信公众平台订阅号、服务号官方列出的全部功能接口,包括:自定义菜单、个性化菜单(按需定制菜单)、群发消息、客服消息(有限次消息推送)、模板消息接(无限次消息推送)、微信网页开发(微信WEB开发、微信游戏)、微信JSSDK开发、用户管理、获取用户基本信息、网页授权获取用户基本信息(通过WEB得到用户信息)、二维码(临时二维码、永久二维码)、事件推送、接收普通消息、被动回复用户消息,等知识点。 以及,针对微信公众号开发的服务端架构设计方案。课程以微信公众号开发视角,讲解JAVA开发微信公众号所需的框架、第三方工具。 购买套餐还赠送经典微信开发课程——[微信公众号_独立知识点]环境搭建。该课程针对各种复杂的网络环境,讲解如何构建开发环境,已解决“没有服务器”、“没有固定IP”等开发者遇到的窘境。 课程采用独立知识点讲解,一个知识点,一组课程,真正做到“简单、高效、”以短的时间、实现的学习。更多课程信息请访问CSDN。网址:http://edu.csdn.net/lecturer/631 “微信公众平台企业号开发Java版”陆续上线。 详情 qq2326321088

    27776 人正在学习 去看看 翟东平

Why Anaconda ?

对于深度学习初学者,Python.pip,pytorch等各种依赖包是少不了的,尤其面临各个依赖包版本的不同时,有的升级有的降级,浪费宝宝们很多宝贵时间,简直就是劝退!不同工程在裸机上安装下载,就会乱的一塌糊涂,我们也不能跑一个工程重装一次系统,因此构建虚拟环境就是必须要整的事情了!简单一点入门的话用Anaconda就够了,稍微复杂一点可以上Docker,今天则是介绍下Anaconda基本使用!
Anaconda拥有超过1400个软件包其中包含Conda和虚拟环境管理,因此无需去了解独立安装每个库。可以使用已经包含在Anaconda中的命令conda install或者pip install从Anaconda仓库中安装开源软件包。Pip提供了Conda大部分功能,并且大多数情况下两个可以同时使用。可以使用conda build命令构建自定义包,然后通过上传到Anaconda Cloud、PyPI或其他仓库来分享给其他人。 ----------Wikipedia
windows系统安装方法在最下面补充

1.下载Anaconda

方式1:通过清华镜像源下载,下载速度较快!但是Anaconda版本不是最新的!
https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/
方式2:直接通过官网下载,由于服务器在国外,下载速度稍慢!
https://www.anaconda.com/distribution/

2.安装Anaconda

切换为普通用户,尽量不要用root用户

sudo sh Anaconda3-2019.10-Linux-x86_64.sh    

输入root密码,接下来只需要一直按回车键(Enter键)即可,然后输入yes后,再按回车!

source ~/.bashrc # 更新环境变量,否则输入conda相关指令报错说找不到conda相关命令

3.切换Anaconda软件源

由于很多框架例如TensorFlow.Pytorch服务器都在国外,下载速度超级慢,因此我们需要切换Anaconda的软件下载源。

cd ~/                                      # 进入主目录
conda config --set show_channel_urls yes   # 创建.condarc文件
vim .condarc                               # 编辑.condarc文件

删除.condarc文件所有内容,然后复制以下代码

channels:
  - defaults
show_channel_urls: true
default_channels:
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
custom_channels:
  conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud

保存该文件

4.创建.激活.关闭Anaconda环境

conda update -n base -c defaults conda  # 先更新一下Anaconda环境
conda create -n demo python=3.7   # 此处则是创建了名为demo的环境
conda activate demo               # 激活demo环境
conda deactivate                  # 关闭demo环境 

5.查看本机Anaconda所有环境

conda info --env

6.导入、导出Anaconda环境

如果本地的工程想要其他电脑上运行,则需要下载相同的环境依赖包,费事费力。所以我们可以将本地环境导出,然后在另外一台已经安装Anaconda的电脑上重新激活该环境即可。
电脑A:

conda activate demo          	# 第一步激活需要导出的环境
conda env export > demo.yaml 	# 该目录下则会多出demo.yaml文件,.yaml为文件后缀,yaml文件名可随便起

电脑B:
将demo.yaml拷贝至该电脑某文件夹下,打开Terminal终端:

conda env create -f demo.yaml   #  导入环境
# 按照提示,激活环境即可

7.克隆Anaconda环境

前提是已经有建立好的克隆环境

# conda create -n 新环境名 --clone 克隆的环境名,例如:
conda create -n new --clone old # 克隆名为old的环境,并将新产生的环境命名为new

8.删除Anaconda某环境

conda remove -n demo --all     # 删除demo环境下所有的文件

9.关闭Anaconda默认的Base环境

conda config --set auto_activate_base false

Windows安装Anaconda方法

可直接打开pycharm,在Terminal终端中输入

conda config --set show_channel_urls yes

这时候会在你的C盘,具体目录为C:\用户\你的用户名\.condarc
此时看到生成的文件 .condarc 文件
然后编辑.condarc文件内容
(建议下载一个Notepad++软件,可直接进行编辑,链接地址为:Notepad++点我进入主页

channels:
  - defaults
show_channel_urls: true
default_channels:
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free
  - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
custom_channels:
  conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
  simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud

接下来的使用和上述相同,
对于windows用户,建议直接在Pycharm中的Terminal里面敲指令

2017-05-23 10:38:37 fk1174 阅读数 3640
  • 微信公众平台深度开发v2.0第2季——获取微信服务器IP...

    “微信公众平台深度开发Java版 v2.0”系列课程共有6季,使用JAVA语言,系统讲解微信公众平台订阅号、服务号官方列出的全部功能接口,包括:自定义菜单、个性化菜单(按需定制菜单)、群发消息、客服消息(有限次消息推送)、模板消息接(无限次消息推送)、微信网页开发(微信WEB开发、微信游戏)、微信JSSDK开发、用户管理、获取用户基本信息、网页授权获取用户基本信息(通过WEB得到用户信息)、二维码(临时二维码、永久二维码)、事件推送、接收普通消息、被动回复用户消息,等知识点。 以及,针对微信公众号开发的服务端架构设计方案。课程以微信公众号开发视角,讲解JAVA开发微信公众号所需的框架、第三方工具。 购买套餐还赠送经典微信开发课程——[微信公众号_独立知识点]环境搭建。该课程针对各种复杂的网络环境,讲解如何构建开发环境,已解决“没有服务器”、“没有固定IP”等开发者遇到的窘境。 课程采用独立知识点讲解,一个知识点,一组课程,真正做到“简单、高效、”以短的时间、实现的学习。更多课程信息请访问CSDN。网址:http://edu.csdn.net/lecturer/631 “微信公众平台企业号开发Java版”陆续上线。 详情 qq2326321088

    27776 人正在学习 去看看 翟东平

1,第一个图片分类cifar-10代码中可以看出,(在本地跑)参数是这样传进服务器的:

python cifar_pai.py --buckets /Users/kylefan/program/cifar-10/cifar-10-batches-py --checkpointDir /Users/kylefan/program/cifar-10/checkpoint

其中–buckets对应下图的数据库目录:
这里写图片描述
也就是说函数里得有个参数是–buckets,然后在上图制定OSS中的目录。所以修改本地代码使其含有一个参数–buckets。

2,多个源文件需要压缩成tar.gz并指定主文件
压缩:(注意folder_to_compress不要使用绝对路径不然压缩包里的文件也会沿用这个目录结构)

tar -zcvf archive_name.tar.gz folder_to_compress

报错:
Traceback (most recent call last):
File “AlexNet/AlexNetArg.py”, line 152, in
tf.app.run(main=main)
File “/usr/lib/python2.7/site-packages/tensorflow/python/platform/app.py”, line 44, in run
_sys.exit(main(_sys.argv[:1] + flags_passthrough))
File “AlexNet/AlexNetArg.py”, line 80, in main
mnist = input_data.read_data_sets(dirname, one_hot=True)
File “/usr/lib/python2.7/site-packages/tensorflow/contrib/learn/python/learn/datasets/mnist.py”, line 212, in read_data_sets
with open(local_file, ‘rb’) as f:
IOError: [Errno 2] No such file or directory: ‘oss://kylefan/Alexnet/MNIST_data/train-images-idx3-ubyte.gz’
意思是OSS里没有oss://kylefan/Alexnet/MNIST_data/train-images-idx3-ubyte.gz这个文件,但是明明有。。。。待定

没有更多推荐了,返回首页