精华内容
下载资源
问答
  • Python爬取论文标题、、摘要等信息并存入MySQL。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。
  • ICCV 2019 papers/new汇总帖,极市团队整理
  • 论文里含有所有程序代码!只能用于借鉴学习,不可用于商业用途!版权所有,盗版必究!转载请声明原作者小小新!
  • 机器学习神经网络GAN图像处理python代码 2017年论文里的
  • Python爬取知网论文信息,包含数据爬取、数据分析、数据可视化代码,直接输入关键词即可获取相关数据信息
  • 基于python+tensorflow的srcnn超分辨率重构代码(基本可以达到论文中的效果),优于基本上网上的大部分代码,网上大部分代码效果离理想效果差5-6db,而我这个资源把里面的坑踩掉了。可以结合我主页的博客看会更容易...
  • 非常简单的一次课程设计
  • Experimentation of deep learning on the subjects of micro-expression spotting and recognition.
  • 有背景音乐,等级,分数,开始结束页面。内容十分详细,是自己的大作业论文用的程序,有需要的可以看看。我觉得毕业论文用也没问题
  • 2017年著名WGAN-GP方法论文里神经网络机器学习python代码tensorflow
  • python matplotlib 论文画图代码总结

    千次阅读 2019-02-05 17:22:21
    最近赶了一篇论文,其中涉及到很多实验结果的绘制。最开始使用了pandas自带的plot功能,使用简单,但是很多细节都无法自己调节定制,默认的结果又相当的丑。于是参考了csdn上各位大佬的分享,这些分享都对在某一方面...

    最近赶了一篇论文,其中涉及到很多实验结果的绘制。最开始使用了pandas自带的plot功能,使用简单,但是很多细节都无法自己调节定制,默认的结果又相当的丑。于是参考了csdn上各位大佬的分享,这些分享都对在某一方面的某个问题进行详细介绍,链接如下,在此表示感谢:
    Python——使用matplotlib绘制柱状图
    python中matplotlib的颜色及线条控制: 配色大全,想找漂亮颜色上这里
    【Python Matplotlib】设置x/y坐标轴刻度
    python matplotlib 画图刻度、图例等字体、字体大小、刻度密度、线条样式设置
    python matplot美化+坐标轴范围设置等笔记
    本文希望介绍一些在论文写作过程中实际的例子,看看怎样把上面提到的这些内容最后融合到一起。

    柱状图绘制

    并列柱状图

    把以下数据图形化:

    MetricsABC
    a2.52.62.7
    b2.752.852.95

    其中A,B,C是要比较的对象,a,b是两个评价指标,这里我们要完成几个操作:

    1. 并列柱状图
    2. 由于数值的差距不大,我们不希望y坐标从0开始,而是从某一大于0的值开始,比如2
    import matplotlib.pyplot as plt
    figure, ax = plt.subplots()
    item = ['A','B','C']
    num1 = [0.5, 0.6, 0.7]
    num2 = [0.75, 0.85, 0.95] #这里对数据进行了截断,所有值都减去了2,只画从2开始的部分
    x =list(range(len(num1))) #横坐标
    width = 0.4 #每一根“柱”的宽度
    plt.yticks([0, 0.2, 0.4, 0.6, 0.8, 1.0], [2.0, 2.2, 2.4, 2.6, 2.8, 3.0])
    #设置y坐标,实际数值是前一组,标记数值为后一组
    plt.bar(x, num1, width=width, label='a',fc = '#B0C4DE')#画第一组
    for i in range(len(x)):
        x[i] = x[i] + width #横坐标移动
    plt.bar(x, num2, width=width, label='b',fc = '#4682B4')#画第二组 
    plt.show()
    

    结果如下:
    在这里插入图片描述
    其中,plt.bar()的 fc=’’ 选项控制颜色,可以在文首链接中自由选择。
    接下来,还要进行几项工作:

    1. 设置x轴显示被比较对象名称:
    y=[]
    for i in range(len(x)):
        y.append(x[i] - width/2)   
    ax.set_xticks(y) #令对象名称出现在相邻两"柱"中间位置
    ax.set_xticklabels(item)
    
    1. 设置字体
    plt.tick_params(labelsize=16)
    labels = ax.get_xticklabels() + ax.get_yticklabels()
    [label.set_fontname('Times New Roman') for label in labels]#坐标轴字体设置
    
    font1 = {'family' : 'Times New Roman',
    'weight' : 'normal',
    'size'   : 16,
    }
    plt.legend(prop=font1)#图例字体设置
    
    1. 画背景线
    plt.grid(axis="y")
    
    1. 添加xlabel,ylabel,title
    plt.xlabel('Item',font1)
    plt.ylabel('Value',font1)
    plt.title('Parallel Histogram',font1)
    

    最终效果如下:
    在这里插入图片描述
    完整代码如下:

    import matplotlib.pyplot as plt
    figure, ax = plt.subplots()
    item = ['A','B','C']
    num1 = [0.5, 0.6, 0.7]
    num2 = [0.75, 0.85, 0.95] #这里对数据进行了截断,所有值都减去了2,只画从2开始的部分
    x =list(range(len(num1))) #横坐标
    width = 0.4 #每一根“柱”的宽度
    plt.yticks([0, 0.2, 0.4, 0.6, 0.8, 1.0], [2.0, 2.2, 2.4, 2.6, 2.8, 3.0])
    #设置y坐标,实际数值是前一组,标记数值为后一组
    plt.bar(x, num1, width=width, label='a',fc = '#B0C4DE')#画第一组
    for i in range(len(x)):
        x[i] = x[i] + width #横坐标移动
    plt.bar(x, num2, width=width, label='b',fc = '#4682B4')#画第二组 
    
    y=[]
    for i in range(len(x)):
        y.append(x[i] - width/2)   
    ax.set_xticks(y) #令对象名称出现在相邻两"柱"中间位置
    ax.set_xticklabels(item)
    
    plt.tick_params(labelsize=16)
    labels = ax.get_xticklabels() + ax.get_yticklabels()
    [label.set_fontname('Times New Roman') for label in labels]#坐标轴字体设置
    
    font1 = {'family' : 'Times New Roman',
    'weight' : 'normal',
    'size'   : 16,
    }
    plt.legend(prop=font1)#图例字体设置
    
    plt.grid(axis="y")
    plt.xlabel('Item',font1)
    plt.ylabel('Value',font1)
    plt.title('Parallel Histogram',font1)
    plt.show()
    

    如果空白区域太小,放不下图例,还可以添加如下命令自主调控y轴范围:

    plt.ylim(0, 2)
    

    普通柱状图

    上一节的简化版,以只画上表第一行为例,直接上代码:

    import matplotlib.pyplot as plt
    figure, ax = plt.subplots()
    item = ['A','B','C']
    num1 = [0.5, 0.6, 0.7]
    
    x=[0,0.8,1.6]
    plt.yticks([0, 0.2, 0.4, 0.6, 0.8, 1.0], [2.0, 2.2, 2.4, 2.6, 2.8, 3.0])
    
    plt.bar(x, num1,width=0.45,color='#4682B4',label='a',tick_label=item)
    
    plt.tick_params(labelsize=16)
    labels = ax.get_xticklabels() + ax.get_yticklabels()
    [label.set_fontname('Times New Roman') for label in labels]
    font1 = {'family' : 'Times New Roman',
    'weight' : 'normal',
    'size'   : 16,
    }
    plt.legend(prop=font1)
    plt.grid(axis="y")
    plt.xlabel('Item',font1)
    plt.ylabel('Value',font1)
    plt.title('Histogram',font1)
    plt.show()
    

    在这里插入图片描述
    注意可以通过调节横坐标向量x和宽度width对横向间隔进行调节。

    堆叠柱状图

    关键代码只有这一部分:

    plt.bar(x, num1, width=0.45,label='a',fc = '#4682B4')
    plt.bar(x, num2, width=0.45, bottom=num1, label='b',tick_label = item,fc = '#B0C4DE')
    

    用相同横坐标,先画a,再使用 bottom 选项,在a上叠加b。
    完整代码如下:

    import matplotlib.pyplot as plt
    figure, ax = plt.subplots()
    item = ['A','B','C']
    num1 = [2.5, 2.6, 2.7]
    num2 = [2.75, 2.85, 2.95]
    x=[0,0.8,1.6]
    
    plt.bar(x, num1, width=0.45,label='a',fc = '#4682B4')
    plt.bar(x, num2, width=0.45, bottom=num1, label='b',tick_label = item,fc = '#B0C4DE')
    
    plt.tick_params(labelsize=16)
    labels = ax.get_xticklabels() + ax.get_yticklabels()
    [label.set_fontname('Times New Roman') for label in labels]
    font1 = {'family' : 'Times New Roman',
    'weight' : 'normal',
    'size'   : 16,
    }
    plt.legend(prop=font1)
    plt.ylim(0,7)
    
    plt.grid(axis="y")
    plt.xlabel('Item',font1)
    plt.ylabel('Value',font1)
    plt.title(' Stacked Histogram',font1)
    plt.show()
    

    效果如下:
    在这里插入图片描述

    折线图

    关键代码如下:

    plt.plot(x,num1,label='a',linestyle='--',color='r',marker='D')
    plt.plot(x,num2,label='b',linestyle='--',color='b',marker='o')
    

    完整代码:

    import matplotlib.pyplot as plt
    figure, ax = plt.subplots()
    item = ['A','B','C']
    num1 = [2.5, 2.6, 2.7]
    num2 = [2.75, 2.85, 2.95]
    x=[1,2,3]
    
    plt.plot(x,num1,label='a',linestyle='--',color='r',marker='D')
    plt.plot(x,num2,label='b',linestyle='--',color='b',marker='o')
    plt.yticks([2.4,2.6,2.8,3.0])  #设置x,y坐标值
    plt.xticks(x)
    
    plt.tick_params(labelsize=16)
    labels = ax.get_xticklabels() + ax.get_yticklabels()
    [label.set_fontname('Times New Roman') for label in labels]
    font1 = {'family' : 'Times New Roman',
    'weight' : 'normal',
    'size'   : 16,
    }
    plt.legend(prop=font1,loc=4)
    
    plt.grid(axis="y")
    plt.xlabel('Item',font1)
    plt.ylabel('Value',font1)
    plt.title('Line Chart',font1)
    plt.show()
    

    最终效果:
    在这里插入图片描述

    展开全文
  • "High-Precision Model-Agnostic Explanations" 论文代码
  • "Language Models are Unsupervised Multitask Learners"论文代码
  • "Adversarial Generator-Encoder Networks" 论文代码
  • python代码很简短,不像C++等要几百行代码,但其实你调用的模块,底层都是用C/C++的 如果imshow出现qt.qpa.plugin: Could not find the Qt platform plugin “cocoa” in “”的报错,请看:Stackoverflow解决...
  • Python创意编程活动,Python爬虫自动获取CSDN博客收藏文章
  • Python爬虫根据关键词爬取知网论文摘要并保存到数据库中 由于实验室需要一些语料做研究,语料要求是知网上的论文摘要,但是目前最新版的知网爬起来有些麻烦,所以我利用的是知网的另外一个搜索接口

    由于实验室需要一些语料做研究,语料要求是知网上的论文摘要,但是目前最新版的知网爬起来有些麻烦,所以我利用的是知网的另外一个搜索接口

    比如下面这个网页:
    http://search.cnki.net/Search.aspx?q=肉制品

    搜索出来的结果和知网上的结果几乎一样

    在这个基础上,我简单看了些网页的结构,很容易就能写出爬取得代码(是最基础的,相当不完善,增加其他功能可自行增加)
    在这里插入图片描述
    网页的结构还是很清晰的

    在这里插入图片描述
    摘要信息也很清晰

    我使用的是 pymysql 连接的数据库,效率也还可以
    下面直接贴代码:

    # -*- coding: utf-8 -*-
    import time
    import re
    import random
    import requests
    from bs4 import BeautifulSoup
    import pymysql
    
    connection = pymysql.connect(host='',
                                 user='',
                                 password='',
                                 db='',
                                 port=3306,
                                 charset='utf8')  # 注意是utf8不是utf-8
    
    # 获取游标
    cursor = connection.cursor()
    
    #url = 'http://epub.cnki.net/grid2008/brief/detailj.aspx?filename=RLGY201806014&dbname=CJFDLAST2018'
    
    #这个headers信息必须包含,否则该网站会将你的请求重定向到其它页面
    headers = {
        'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
        'Accept-Encoding':'gzip, deflate, sdch',
        'Accept-Language':'zh-CN,zh;q=0.8',
        'Connection':'keep-alive',
        'Host':'www.cnki.net',
        'Referer':'http://search.cnki.net/search.aspx?q=%E4%BD%9C%E8%80%85%E5%8D%95%E4%BD%8D%3a%E6%AD%A6%E6%B1%89%E5%A4%A7%E5%AD%A6&rank=relevant&cluster=zyk&val=CDFDTOTAL',
        'Upgrade-Insecure-Requests':'1',
        'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
    }
    
    headers1 = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'
        }
    
    def get_url_list(start_url):
        depth = 20
        url_list = []
        for i in range(depth):
            try:
                url = start_url + "&p=" + str(i * 15)
                search = requests.get(url.replace('\n', ''), headers=headers1)
                soup = BeautifulSoup(search.text, 'html.parser')
                for art in soup.find_all('div', class_='wz_tab'):
                    print(art.find('a')['href'])
                    if art.find('a')['href'] not in url_list:
                        url_list.append(art.find('a')['href'])
                print("爬取第" + str(i) + "页成功!")
                time.sleep(random.randint(1, 3))
            except:
                print("爬取第" + str(i) + "页失败!")
        return url_list
    
    def get_data(url_list, wordType):
        try:
            # 通过url_results.txt读取链接进行访问
            for url in url_list:
                i = 1;
                if url == pymysql.NULL or url == '':
                    continue
                try:
                    html = requests.get(url.replace('\n', ''), headers=headers)
                    soup = BeautifulSoup(html.text, 'html.parser')
                except:
                    print("获取网页失败")
                try:
                    print(url)
                    if soup is None:
                        continue
                    # 获取标题
                    title = soup.find('title').get_text().split('-')[0]
                    # 获取作者
                    author = ''
                    for a in soup.find('div', class_='summary pad10').find('p').find_all('a', class_='KnowledgeNetLink'):
                        author += (a.get_text() + ' ')
                    # 获取摘要
                    abstract = soup.find('span', id='ChDivSummary').get_text()
                    # 获取关键词,存在没有关键词的情况
                except:
                    print("部分获取失败")
                    pass
                try:
                    key = ''
                    for k in soup.find('span', id='ChDivKeyWord').find_all('a', class_='KnowledgeNetLink'):
                        key += (k.get_text() + ' ')
                except:
                    pass
                print("第" + str(i) + "个url")
                print("【Title】:" + title)
                print("【author】:" + author)
                print("【abstract】:" + abstract)
                print("【key】:" + key)
                # 执行SQL语句
                cursor.execute('INSERT INTO cnki VALUES (NULL, %s, %s, %s, %s, %s)', (wordType, title, author, abstract, key))
                # 提交到数据库执行
                connection.commit()
    
                print()
            print("爬取完毕")
        finally:
            print()
    
    if __name__ == '__main__':
        try:
            for wordType in {"大肠杆菌", "菌群总落", "胭脂红", "日落黄"}:
                wordType = "肉+" + wordType
                start_url = "http://search.cnki.net/search.aspx?q=%s&rank=relevant&cluster=zyk&val=" % wordType
                url_list = get_url_list(start_url)
                print("开始爬取")
                get_data(url_list, wordType)
                print("一种类型爬取完毕")
            print("全部爬取完毕")
        finally:
            connection.close()
    

    在这里的关键词我简单的选了几个,作为实验,如果爬取的很多,可以写在txt文件里,直接读取就可以,非常方便。

    展开全文
  • "Mask Scoring R-CNN"论文的实现代码
  • 使用深度学习进行时间序列预测的论文代码和实验清单深度学习时间序列预测最新技术论文列表着重于深度学习以及使用深度学习进行时间序列预测的资源,代码和实验。 经典方法与深度学习方法,竞赛...目录论文会议竞赛...
  • 本文实例为大家分享了python mysql个人论文管理系统的具体代码,供大家参考,具体内容如下 1.mysql数据库建表 在mysql数据库里面建立两个表,分别是用户表和论文表。建表的方式有很多,可以直接用sql语句进行建表,...
  • 如何用Python优雅的毕业论文

    万次阅读 2018-12-08 09:18:00
    又到了我校一年一度的论文开题和中期检查时间,平时看上去忙碌却一个字都还没的学生还是大有人在的,而我也就是其中一位~今天,我就来说说我是如何利用Python帮小姐姐们写论文的。 PS:不是代写,就是帮忙处理数据...
    3629157-81cfc7b060230e4c.png

    前言

    又到了我校一年一度的论文开题和中期检查时间,平时看上去忙碌却一个字都还没写的学生还是大有人在的,而我也就是其中一位~今天,我就来说说我是如何利用Python帮小姐姐们写论文的。
    PS:不是代写,就是帮忙处理数据,建模,拒绝代写,从我做起。

    数据获取很麻烦?

    大家都知道,毕业论文大部分都是导师的科研项目,幸运的童鞋可能都有数据支撑了,拿来就用了。可是,接下来的这位学旅游的小姐姐貌似就没有这么幸运了,来,我们一一道来。

    这位学旅游的小姐姐的导师,让她统计下某个地区的美食情况,然后做分析;然后小姐姐轻松找到了携程网站,准备大干一场(copy),copy半天数据,发现才弄了几十页;在网上找了爬虫软件,不会用,买了付费,指导也不给力。

    3629157-ff0e859b9e1a3845.png

    小姐姐,没关系,Python爬虫来搞定~

    import requests
    from lxml import etree
    
    
    headers={
        'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36'
    }
    
    def get_info(url):
        res = requests.get(url,headers=headers)
        html = etree.HTML(res.text)
        infos = html.xpath('//ul[@class="jingdian-ul cf"]/li')
        for info in infos:
            try:
                food = info.xpath('dl/dt/a[1]/text()')[0]
                address = info.xpath('dl/dt/a[2]/text()')[0]
                comment = info.xpath('dl/dd[2]/a/text()')[0]
                print(food,address,comment)
            except IndexError:
                pass
    
    if __name__ == '__main__':
        urls = ['http://you.ctrip.com/searchsite/restaurant/?query=%E9%95%BF%E6%B2%99&PageNo={}'.format(str(i)) for i in range(1,10)]
        for url in urls:
            get_info(url)
    
    3629157-54826fcd36ef5bce.png

    小姐姐曰:其实你是一个好人~

    数据处理不太会?

    好,有的小姐姐数据有了(可能比较爱笑),但拿来的数据都是各种格式的,例如下面这个小姐姐。

    老师给的都是一个个txt,里面全是花括号括起来的,我只是需要里面的几个字段而已啦,以下是聊天记录:

    • 小姐姐:大佬,我的数据是这样的,发给我部分文件。
    • 我:好的,那你想做什么?
    • 小姐姐:就是获取每个txt中的几个字段
    • 我:这个很简单呀,这个花括号就是类似字典的结构,解析以下就行。
    • 小姐姐:字典?解析?
    • 我:。。。好吧,给你写代码吧

    这里就不写具体代码了,会python的这个应该问题不大,循环读取文件,用JSON库来解析,提取部分字段就OK了。然后代码几分钟就搞定了,发给小姐姐。

    小姐姐曰:大佬,你真快。。。

    模型建立无从下手?

    像我这种学林业的研究生,大部分同学都没有好好学习一门编程语言,但是毕业论文,大部分情况下又需要进行建模,接下来是小姐姐对话时间。

    • 小姐姐:大佬,我需要建模,帮帮我
    • 我:你是要回归还是分类?
    • 小姐姐:回归的,目前只会用Excel做线性回归,没有创新点,给我来点炸的。
    • 我:现在有很多算法呀,knn,svm,集成算法,神经网络,都可以做回归,sklearn调包就行。
    • 小姐姐:人家不会嘛,这些我都想来一个,然后看看哪些效果好。
    • 我:这个有点多,调参也需要时间的。。
    • 小姐姐:求你啦,我请你吃饭。
    • 我:好嘞~(无节操)

    最后把结果发给她了。
    小姐姐日:你什么都会啊,男人果然都是大猪蹄子。

    总结

    当然,毕业论文真的也没有那么简单,里面还会涉及很多本身专业的东西,Python只是作为一个辅助工具,帮助解决问题而已。譬如说我,有人问,我天天写Python,自己的专业是不是兼顾的不好?对,就是兼顾的不好,所以,我的论文在初期就遇到了坑,好在现在都处理好了,我论文的坑,下次再讲~

    预知后事如何,请听下回分解~

    展开全文
  • 我用Python写了一个论文降重工具

    千次阅读 多人点赞 2020-04-30 19:38:39
    时值毕业季,有不少小伙伴深受论文查重的困扰。因此我便想到做一个简单的自动去重的工具,先看看效果,我们再对原理或是代码实现做进一步的分析。首先需要输入appid以及key,这些可以在百度翻...

    时值毕业季,有不少小伙伴深受论文查重的困扰。因此我便想到做一个简单的自动去重的工具,先看看效果,我们再对原理或是代码实现做进一步的分析。

    首先需要输入appid以及key,这些可以在百度翻译开放平台申请一个账号,可以免费申请一个账号。接着将需要进行降重的文本内容复制到相应的输入框内,点击开始按钮,即可输出不同但意思相近的语句,即达到降重去重的作用。点击复制按钮便可以将得到的新文本复制到剪贴板上,点击清楚按钮可以重新输入需要降重的文本,并且循环往复地进行。

    去重原理

    论文查重的粒度是句子,两个句子的相似度主要取决于句子包含哪些词,以及词在句子中的位置。句子相似度只是文字上的对比,不考虑语义上的相近。

    正因如此,我们可以采取的措施便是变换句子结构,使用近似词替换。

    为了完成这些句子的自动替换,从而达到降重的目的,这里很容易便想到利用不同语种之间的互相转换来生成新文本。比如在本工具中,我采用了中文→英文→韩文→中文的策略,你也可以采取更长的转换路径,但那样似乎会在很大程度上降低文本的可读性。

    开放平台的使用

    语句的翻译我采用了百度翻译开放平台的接口,简单地申请之后就可以获取每个月200万的免费字符翻译权限。

    此API的接入方式略微有些麻烦,需要生成签名sign并且拼接完整的url。

    def translate(q,lan_from,lan_to):
        url = 'http://api.fanyi.baidu.com/api/trans/vip/translate'
        salt = random.randint(1, 65536)
        sign = hashlib.md5((str(appid)+str(q)+str(salt)+str(key)).encode('utf-8')).hexdigest()
        params = {
            'from' :lan_from,
            'to' :lan_to,
            'salt' : salt,
            'sign' : sign,
            'appid' : appid,
            'q': q
        }
        r = requests.get(url,params=params)
        txt = r.json()
        if txt.get('trans_result', -1) == -1:
            print('ERROR Code:{}'.format(txt))
            return q
        return txt['trans_result'][0]['dst']
    

    总结

    在弄清楚原理以及API的调用方法之后,我们可以轻松地写出一个GUI界面,也就是这个降重工具。当然这个工具非常初级,大家可以进行更加全面的扩展。

     

    推荐阅读

    我用Python在网上复制文字的几种实用方法

    十分钟掌握Pandas基本操作(下)

    一次免费代理ip的爬取实战

    展开全文
  • 快牛策略动量反转策略优化论文Python代码分享给大家
  • 论文“"Deep Photo Style Transfer"的代码和数据
  • 这是由Python写的网站源码,采用了Python里最强大的后端框架Django,该网站所实现的功能是为旅游者提供乡间小屋预订、租住服务,对希望学习利用Python+Django进行网站建设的开发者而言是一个难得的示例。
  • "Self-Supervised Intrinsic Image Decomposition"论文代码
  • python知网爬虫

    2017-04-28 18:01:41
    python知网爬虫,根据作者,爬取所有paper信息
  • 下载解压后安装必要的py程序库 再打开cardshiping运行程序及可,详细说明见博主相关介绍。
  • Python论文.doc

    2019-05-10 19:38:10
    本文通过mnist模型对数据进行训练,实现神经网络手写...首先通过一个直观的例子解释了什么是神经网络,接着是代码实现部分。没有使用tensorflow等框架,用python编写了一个三层神经网络,并应用再mnist手写库识别上。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 66,238
精华内容 26,495
关键字:

python写论文代码

python 订阅