精华内容
下载资源
问答
  • 天池

    2010-08-17 15:23:00
    天池 中朝五号界碑 --阿兵哥,威武!可惜不让拍:( 白头 锦江大峡谷 --像骆驼? 篝火 漂流,湿鞋,湿衣,湿身,湿透。 这里的水真凉,透骨的凉。 运气不错,真真...

    长白山西麓登山

     

    2010081715343544.jpg

     

    2010081715362244.jpg

     

    2010081715380366.jpg

     

    天池

     

    2010081715385412.jpg

     

    2010081715395278.jpg

     

    2010081715412976.jpg

     

    中朝五号界碑

     

    2010081715431210.jpg

    --阿兵哥,威武!可惜不让拍:(

     

    白头

     

    2010081715443318.jpg

     

    锦江大峡谷

     

    2010081715465360.jpg

     

    2010081715501260.jpg

    --像骆驼?

     

    篝火

     

    2010081715530174.jpg

     

    漂流,湿鞋,湿衣,湿身,湿透。

    这里的水真凉,透骨的凉。

     

    运气不错,真真切切的看到了天池。爬得挺喘,值得!下山时,就起雾,下起小雨,后来的就看不到她了。哈,有缘。

    天池之巅,看一只黑鹰,迎着呼啸的山风,振翅逆飞。悬凝在天空,除了扑击的翅膀。有点诡。

     

    韩国人,真的没劲!没法在朝鲜的东坡看,绕大圈跑中国来,看所谓"他们的白头山"!呸...

     

    没有采到人参,但这里有种果子叫"姑娘",有点意思。松花江鱼不错,刺少,没有一丁的土味,鲜美。

    转载于:https://www.cnblogs.com/net66/archive/2010/08/17/1800547.html

    展开全文
  • 一 阿里天池的使用篇二 开启我们在天池服务器的第一个项目: 火灾浓烟与吸烟检测2.1 演示2.2 介绍三 模型训练四 天池端训练五 总结与技巧六 总结 免费算力,白嫖党顶级薅羊毛! 愁笔记本差,又买不起台式机显卡的...

    免费算力,白嫖党顶级薅羊毛!

    愁笔记本差,又买不起台式机显卡的同学,请注意啦!今天cv调包侠分享一下自己这几天开始使用的阿里天池的免费GPU服务器,以及这篇文章介绍如何在天池的tesla p100 16gb显存的服务器上训练自己的深度学习视觉模型~我们以火灾浓烟检测为例子。

    首先,大家可以看我Yolov5 吸烟检测文章与baseline传送门,今天主要与大家分享一下国庆好礼~

    国庆这几天呆在家里,可不能白费了,花点时间钻研一下新东西,我这几天尝试了百度AIstudio,Kaggle ,天池三个平台的免费算力,百度的大家都比较熟悉了,可惜小菜鸡不会paddle,又想跑自己的大模型,怎么办,怎么办,怎么办???

    平台\ 信息 显卡 显存
    百度AIstudio Nvidia Teslav100 16GB
    阿里 天池 Nvidia Teslap100 16GB
    Kaggle Tesla K80 12GB

    算力来说,百度的较好~,但是对于我们想用pytorch 和tensorflow ,以及Paddle还没入门的孩子来说,就建议来薅阿里天池的羊毛!因为Kaggle 速度很慢。

    回到正题

    一 阿里天池的使用篇

    首先注册并进入阿里云实验室。

    在这里插入图片描述

    2、如何安装、卸载、更新包?如遇错误怎么办?

    1)安装包:pip install some_package --user

    2)卸载包:部分包有依赖,无法卸载

    3)更新包:pip install -U some_package –user

    如果导入过程出错,建议尝试重启kernel或刷新页面

    3、如何切换GPU和CPU?

    enter image description here

    二 开启我们在天池服务器的第一个项目: 火灾浓烟与吸烟检测

    2.1 演示

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    2.2 介绍

    本项目为基础baseline ,数据为5000的香烟图片与3000的火灾图片,为两类别检测(因为后续需要做校园等场景异常行为监控,所以将以前的吸烟检测也加入进来了);

    图片如下(已放至公众号:Deep AI 视界 公众号回复:火灾检测):

    在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述

    三 模型训练

    先clone 我的项目:https://github.com/CVUsers/Fire-Detect-by-YoloV5(欢迎star~)

    或者 git clone https://github.com/CVUsers/Fire-Detect-by-YoloV5.git

    到本地进行调试,跑通后再放到阿里云服务器加大模型直接跑~

    然后公众号 DeepAI 视界回复:火灾检测

    会拿到一份8000张左右的图片images.7z

    解压到data下,data下的目录应为:

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-VBfQt1tS-1601784638378)(D:\CSDN\pic\天池\1601776984096.png)]

    其中,train.txt ,labels,test.txt我已经给您写好,不用重新制作数据,若是需要重新制作数据,请参考我的另一篇文章:

    令将yolov5预训练模型放至weights/下(我的网盘有)

    需要注意的有几点:
    1:labels中名字要与images中的图片名字对应(后缀不同),且要归一化成:id, x,y,w,h;

    2:修改data下的smoke.yaml 为如下(已为您修改)

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8Ne93a96-1601784638379)(D:\CSDN\pic\天池\1601777255275.png)]

    3:修改models/ yolov5x.yaml 中的类别为你的类别(已为您修改);

    4:train的args修改batchsize等参数

    四 天池端训练

    tips:您可以用小模型yolov5s进行测试,跑一个迭代没问题后,就可以改成yolov5x ;

    然后将整个项目压缩成压缩包,进入阿里实验室,打开notebook,点击上传文件:
    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-R0YZYCCl-1601784638381)(D:\CSDN\pic\天池\1601778097520.png)]

    然后在notebook右侧改成使用gpu:

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BIrVkCmS-1601784638385)(D:\CSDN\pic\天池\1601778143859.png)]

    检测是否为gpu环境:notebook左侧+号,新建一个terminal,输入nvidia-smi即可,若显示16gb就是gpu环境,如是cpu环境,会显示command not found

    tips:若是由于自己操作失误,gpu被程序误占满,停不下来,就在终端输入 fuser -v .dev/nvidia* 看到占用显卡的进程,然后kill 掉他的编号即可

    现在开始解压压缩包,我是7z压缩包(其他压缩包命令请自查):

    notebook中输入:

    !pip install py7zr
    
    a = py7zr.SevenZipFile('./Fire-Detect-by-YoloV5','r')
    a.extractall(path=r'./')
    a.close()
    print('over')
    

    等待over(可能需要一些时间)后,双击解压好的文件夹进入项目

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ucfD6SpJ-1601784638388)(D:\CSDN\pic\天池\1601778826053.png)]

    你可以左上角➕加号,新建python3的ipynb文件,然后输入:

    %load train.py
    

    Tips 此时,将main中的一行修改一下(因为是notebook版的参数解析方式):

    opt = parser.parse_args()改成
    opt = parser.parse_known_args()[0]
    

    当前的pytorch版本是符合我们项目要求的,你需要安装一个opencv-python

    终端输入:

    pip install opencv-python==3.4.2.17
    

    然后在我们的train.py 代码上按下shift+enter执行这个脚本,即可:

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kUIdBpOW-1601784638389)(D:\CSDN\pic\天池\1601779323817.png)]

    此图中,可看到模型参数分布与维度;一共是8.8*10^7次方参数

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hkqpIIKG-1601784638396)(D:\CSDN\pic\天池\1601779473179.png)]

    等待训练结束,同时会将模型保存在weights/下

    Tips:如果8小时的时长不够用,8小时后停止了迭代,那就重启实例,并修改train.py 的args中为:

    –resume 这一行加一个default = True,将–weights的模型改成weights/last.pt ,然后执行

    你就会发现,会继续原有模型训练~

    然后训练结束后,将模型中的best.pt 右键download到本地(在云端测试也行,不过云端不能开摄像头,可以测试图片和视频),我以本地为例,将best.pt放到本地的weights/下,将detect.py 的参数:–source 改成0 运行即可。

    if __name__ == '__main__':
        check_git_status()
        parser = argparse.ArgumentParser()
        parser.add_argument('--cfg', type=str, default='models/yolov5s.yaml', help='model.yaml path')
        parser.add_argument('--data', type=str, default='data/coco128.yaml', help='data.yaml path')
        parser.add_argument('--hyp', type=str, default='', help='hyp.yaml path (optional)')
        parser.add_argument('--epochs', type=int, default=300)
        parser.add_argument('--batch-size', type=int, default=16)
        parser.add_argument('--img-size', nargs='+', type=int, default=[640, 640], help='train,test sizes')
        parser.add_argument('--rect', action='store_true', help='rectangular training')
        parser.add_argument('--resume', nargs='?', const='get_last', default=False,
                            help='resume from given path/to/last.pt, or most recent run if blank.')
        parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
        parser.add_argument('--notest', action='store_true', help='only test final epoch')
        parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
        parser.add_argument('--evolve', action='store_true', help='evolve hyperparameters')
        parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
        parser.add_argument('--cache-images', action='store_true', help='cache images for faster training')
        parser.add_argument('--weights', type=str, default='', help='initial weights path')
        parser.add_argument('--name', default='', help='renames results.txt to results_name.txt if supplied')
        parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
        parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
        parser.add_argument('--single-cls', action='store_true', help='train as single-class dataset')
        opt = parser.parse_args()
    
    
        cfg,data,weights:前面看过了是一定要传的两个参;
        hyp:超参数,是指定一些超参数用的(学习率啥的);
        epochs: 轮数,默认300,需要指定;
        batch-size:一次喂多少数据,yolov5x 16gb显存,数据量大只能开到12,所以可以不传按默认16;
        img-size: 训练和测试数据集的图片尺寸(个人理解为分辨率),默认640,640nargs='+' 表示参数可设置一个或多个;
        rect: 只要加上’–rect’程序就会将rect设为true(应该是训练时启用矩形训练);
        resume: 断开后继续原有last.pt训练;
        notest:only test final epoch,仅在最后测试,节省时间与资源(这样训练中间变化趋势应该就看不到了);
        evolve:进化超参数(hyp),可以试试,但是加了这个,源码那边就不建议每次迭代完都保存模型了,可能是最后保存;
        cache-images:cache images for faster training,加快训练的,可以试试;
        name:renames results.txt to results_name.txt if supplied;
        device:cuda device, i.e. 0 or 0,1,2,3 or cpu,我这默认已经用了tesla p100了,不用改;
        single-cls:train as single-class dataset,暂时没用;
    

    解释一下result.png里都是啥:
    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6Z2adUS9-1601784638398)(D:\CSDN\pic\天池\1601781211748.png)]

    1. GIoU:推测为GIoU损失函数均值,越小方框越准;
    2. Objectness:推测为目标检测loss均值,越小目标检测越准;
    3. Classification:推测为分类loss均值,越小分类越准;
    4. Precision:准确率(找对的/找到的);
    5. Recall:召回率(找对的/该找对的);
    6. mAP@0.5 & mAP@0.5:0.95:这里说的挺好,总之就是AP是用Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值,@0.5:0.95表示阈值取0.5:0.05:0.95后取均值。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vNKqqNRV-1601784638399)(D:\CSDN\pic\天池\1601784586318.png)]

    五 总结与技巧

    总的来说,这阿里天池的服务器比较方便,网络速度也可以。

    我已经准备长期入驻阿里云天池实验室,为以后去达摩院扫地做铺垫–_--,叫:cv调包侠,欢迎来fork~

    总结一下上文的所有tips:

    敲黑板:
    tips:您可以用小模型yolov5s进行测试,跑一个迭代没问题后,就可以改成yolov5x放到服务器训练 ;
    
    tips:若是由于自己操作失误,gpu被程序误占满,停不下来,就在终端输入 fuser -v .dev/nvidia* 看到占用显卡的进程,然后kill 掉他的编号即可
    
    tips:参数解析要修改如下:
    opt = parser.parse_args()改成
    opt = parser.parse_known_args()[0]
    
    Tips:如果8小时的时长不够用,8小时后停止了迭代,那就重启实例,并修改train.py 的args中为:
    --resume 这一行加一个default = True,将--weights的模型改成weights/last.pt ,然后执行
    你就会发现,会继续原有模型训练~
    tips:可以开多个账号,在其他浏览器的页面上训练其他模型。
    

    六 总结

    欢迎关注个人公众号:DeepAI 视界 公众号回复火灾检测有好礼哟~
    在这里插入图片描述

    展开全文
  • 天池打卡

    2021-03-25 14:11:58
    天池打卡 变量、运算符与数据类型 注释 运算符 变量和赋值 数据类型与转换 print() 函数 位运算 原码、反码和补码 按位非操作 ~ 按位与操作 & 按位或操作 | 按位异或操作 ^ 按位左移操作 << 按位右移操作 ...

    天池打卡

    变量、运算符与数据类型
    注释
    运算符
    变量和赋值
    数据类型与转换
    print() 函数
    位运算
    原码、反码和补码
    按位非操作 ~
    按位与操作 &
    按位或操作 |
    按位异或操作 ^
    按位左移操作 <<
    按位右移操作 >>
    利用位运算实现快速计算
    利用位运算实现整数集合
    条件语句
    if 语句
    if - else 语句
    if - elif - else 语句
    assert 关键词
    循环语句
    while 循环
    while - else 循环
    for 循环
    for - else 循环
    range() 函数
    enumerate()函数
    break 语句
    continue 语句
    pass 语句
    推导式
    异常处理
    Python 标准异常总结
    Python 标准警告总结
    try - except 语句
    try - except - finally 语句
    try - except - else 语句
    raise语句
    flowchart.js/

    展开全文
  • 天池:一些比赛-源码

    2021-02-22 05:04:33
    天池 一些比赛
  • 天池历届大赛方案

    2018-01-30 13:26:38
    天池历届大赛方案。抽奖中的,天池历届大赛答辩PPT与视频。
  • 天池大赛

    千次阅读 2017-12-14 22:53:30
    今天刚刚注册了帐号,参加了天池大赛。准备先做一个入门的淘宝穿衣的... 参与天池大赛的几个好处:  1、有大量的真实的数据下载使用  2、有真实的业务场景  3、有很多人做同样的比赛,可以相互交流,共同提高

        今天刚刚注册了帐号,参加了天池大赛。准备先做一个入门的淘宝穿衣的比赛,看看能做出什么样的指标出来。

        参与天池大赛的几个好处:

        1、有大量的真实的数据下载使用

        2、有真实的业务场景

        3、有很多人做同样的比赛,可以相互交流,共同提高

    展开全文
  • 阿里天池蒸汽程序

    2018-11-02 17:10:36
    阿里天池大数据竞赛入门题,蒸汽参数回归问题,这是baseline
  • 天池数据集-数据集

    2021-03-04 16:57:51
    天池实验室 11.jpg
  • 天池比赛数据心电图数据天池比赛数据心电图数据天池比赛数据心电图数据天池比赛数据心电图数据天池比赛数据心电图数据天池比赛数据心电图数据天池比赛数据心电图数据天池比赛数据心电图数据天池比赛数据心电图数据...
  • 天池OGeek初赛数据

    2018-12-09 22:53:05
    这是天池OGeek比赛的数据,包含训练集,验证集和测试集A榜的数据,有需要的朋友可以看
  • tianchi_天池竞赛Baseline

    2021-01-24 12:59:38
    天池竞赛Baseline(2018广东工业智造大数据创新大赛——智能算法赛,线上0.921无调参)
  • 以后可能要打天池比赛了,先了解一下别人的经验,跳一些坑。
  • 天池新浪微博大赛决赛ppt天池新浪微博大赛决赛ppt天池新浪微博大赛决赛ppt
  • 天池中间件大赛

    2018-08-05 15:26:08
    1 天池中间件大赛dubboMesh优化总结(qps从1000到6850) 原文链接:天池中间件大赛dubboMesh优化总结 2 天池中间件大赛 - 单机百万消息队列存储实现分享 原文链接: 天池中间件大赛 - 单机百万消息队列存储实现...
  • 天池比赛数据-数据集

    2021-03-11 22:43:32
    天池金融比赛的数据集 sample_submit.csv train.csv testA.csv
  • 阿里天池笔记task1.ipynb
  • 天池新人实战赛-数据集
  • 天池工程 天池工程 HOcean_Round1, //tianchi.aliyun.com/competition/entrance/231768/introduction LDocker, //tianchi.aliyun.com/competition/entrance/231759/introduction O2O优惠券, //tianchi.aliyun....
  • 天池历届大赛答辩PPT

    2017-07-02 16:19:47
    天池历届大赛答辩PPT
  • 天池杯比赛笔记2

    2020-12-21 22:11:32
    天池杯比赛笔记2 EDA-数据探索性分析 使用jupyter notebook来运行和编译python 1.利用 Anaconda 下载相应的pandas,numpy等数据库和软件包 #在jupyter notebook安装所需要的库 !pip install [package] 2.现在使用的...
  • AliTianChi 天池大数据比赛2015
  • 天池龙珠计划至python学习电子书
  • 天池o2o比赛基础数据
  • 天池煤矿构造特征及其形成机制,张飞燕,姜波,基于天池煤矿地质勘探资料,分析矿井构造特征,结合区域构造背景探究地质构造的形成机制。天池煤矿构造较简单,地层总体呈走向北
  • tianchi:天池大赛-源码

    2021-06-17 12:56:30
    天池大数据竞赛 使用spring框架 research模块下的filter.dev文件用于替换变量 dataset.file.path=C:/Users/Administrator/Desktop/tianchi/tianchi_mobile_recommend_train_user.csv 将此行的值换成自己的数据文件...
  • 打开天池比赛首页 https://tianchi.aliyun.com/competition/gameList/activeList 默认是进入到Active标签,会列出进行中的比赛 点击某个比赛–>报名参赛 如果想利用天池实验室的资源,打开天池实验室首页 ...
  • 天池大数据竞赛平台线上平台赛复赛,数加平台的使用手册,帮助新手进行天池复赛平台赛。
  • 天池实验室入门练习 -1eddd3743739896b.jpg heart.png
  • 天池小窥

    2017-02-25 22:16:00
    天池小窥 天池比赛地址 今天算第一次窥视了一下天池,逛了论坛以及观看新手入门指导相关视频,选择了新人实战赛之离线赛作为第一个,入水天池的坑。 天池离线赛赛实践选择工具 系统:deepin 15.3 桌面版 语言:...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 15,413
精华内容 6,165
关键字:

天池