精华内容
下载资源
问答
  • 利用web of science 批量获取doi至表格,之后通过运行python代码,自动批量下载文献 提示:其中,python代码是根据WuGenQiang(《通过doi下载单个文献pdf》)的代码修改的(本人python没学多少,所以代码不规范,...

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


    前言

    利用web of science 批量获取doi至表格,之后通过运行python代码,自动批量下载文献
    我用的python3.7,在Anaconda里运行的


    提示:其中,python代码是根据WuGenQiang(《通过doi下载单个文献pdf》)的代码修改的(本人python没学多少,所以代码不规范,见谅)。

    一、将选择的文献用excel导出

    1.文献按Excel导出

    在web of science内检索完自己想要的文献后,选择自己需要的文献,然后点击<将记录导出至Excel>,记录内容改为<全纪录>,点导出

    在这里插入图片描述

    2. 将DOI另存在一个excel中,存为xlsx格式

    直接用导出的excel,会出错,可能是我调用excel的类型不对?只能读取xlsx?不太清楚,懒得试了,有兴趣的小伙伴可以自己试试
    在这里插入图片描述

    二、利用python批量下载Excel表中文献

    将代码保存至F:\doi_download.py(也可设为其他),将excel挪到F盘,将下面代码的doi所在列改成A列,然后运行就行了。

    2.代码

    # -*- coding: utf-8 -*-
    """
    Created on Sun Jun  6 21:09:44 2021
    
    @author: dell
    """
    
    
    """
    这是原作者的信息
    @File: version_1.1_doi_to_get_pdf.py
    @Time: 2021/4/20 10:10 下午
    @Author: genqiang_wu@163.com
    @desc: 通过doi号下载文献pdf
    """
    
    import requests
    import re
    import os
    import urllib.request
    import openpyxl
    
    # headers 保持与服务器的会话连接
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36',
    }
    
    '''
    根据doi,找到文献的pdf,然后下载到本地
    '''
    
    
    def getPaperPdf(url):
        pattern = '/.*?\.pdf'
        content = requests.get(url, headers=headers)
        download_url = re.findall(pattern, content.text)
        # print(download_url)
        download_url[1] = "https:" + download_url[1]
        print(download_url[1])
        path = r"papers"
        if os.path.exists(path):
            pass
        else:
            os.makedirs(path)
    
        # 使用 urllib.request 来包装请求
        req = urllib.request.Request(download_url[1], headers=headers)
        # 使用 urllib.request 模块中的 urlopen方法获取页面
        u = urllib.request.urlopen(req, timeout=5)
    
        file_name = download_url[1].split('/')[-2] + '%' + download_url[1].split('/')[-1]
        f = open(path + '/' + file_name, 'wb')
    
        block_sz = 8192
        while True:
            buffer = u.read(block_sz)
            if not buffer:
                break
            f.write(buffer)
        f.close()
        print("Sucessful to download" + " " + file_name)
    '''
    将表格放在代码保存和运行的路径内,将wb变量内的'n0606.xlsx'改为自己的excel文件名,
    最后下载的论文在该路径下新建的papers文件夹内
    '''
    wb = openpyxl.load_workbook('n0606.xlsx')
    #doi在sheet1中
    sheet1 = wb.get_sheet_by_name('Sheet1')
    #读取第A列
    
    '''
    修改代码内,excel中DOI所在列,我的在BC,所以col_range变量后面的字符改为了‘BC’
    '''
    col_range = sheet1['A']
    # 读取其中的第几行:row_range = sheet1[2:6]
    fails=[]
    
    
     #以下代码加入了我找的其他SCI-hub网址,不需要可以删除一些
    for col in col_range: # 打印BC两列单元格中的值内容
        doi=col.value
        print (doi)
        if __name__ == '__main__':
            sci_Hub_Url = "https://sci-hub.ren/"
            paper_url = sci_Hub_Url + doi
            print(paper_url)
            nmm=0
            try:
                getPaperPdf(paper_url)  # 通过文献的url下载pdf
                continue
            except Exception:
                nmm=1
                print("Failed to get pdf 1"           
            if nmm==1:
                try :
                    sci_Hub_Url_2 = "https://sci-hub.se/"
                    paper_url_2 = sci_Hub_Url_2 + doi
                    getPaperPdf(paper_url_2)
                    
                    continue
                except Exception:
                    print("Failed to get pdf 2")
            if nmm==1:
                try :
                    sci_Hub_Url_3 = "https://sci-hub.st/"
                    paper_url_3 = sci_Hub_Url_3 + doi
                    getPaperPdf(paper_url_3)
                    continue
                except Exception:
                    print("Failed to get pdf 3")
            if nmm==1:
                try :
                    sci_Hub_Url_4 = "https://sci-hub.shop/"
                    paper_url_4 = sci_Hub_Url_4 + doi
                    getPaperPdf(paper_url_4)
                    continue
                except Exception:
                    print("Failed to get pdf 4")
            if nmm==1:
                try :
                    sci_Hub_Url_5 = "https://sci-hub.shop/"
                    paper_url_5 = sci_Hub_Url_5 + doi
                    getPaperPdf(paper_url_5)
                    continue
                except Exception:
                    print("Failed to get pdf 5")          
            if nmm==1:
                try :
                    sci_Hub_Url_7 = "https://sci-hub.do/"
                    paper_url_7 = sci_Hub_Url_7 + doi
                    getPaperPdf(paper_url_7)
                    continue
                except Exception:
                    print("Failed to get pdf 7")    
            if nmm==1:
                try :
                    sci_Hub_Url_6 = "https://libgen.ggfwzs.net/"
                    paper_url_6 = sci_Hub_Url_6 + doi
                    getPaperPdf(paper_url_6)
                    continue
                except Exception:
                    print("Failed to get pdf 6")
                    fails.append(doi)
                    
    #获取下载失败的doi
    print (fails)
    
    

    结果展示图在这里。
    在这里插入图片描述

    总结

    根据上面写的就可以根据excel的DOI批量下载论文了,不过有一些会失败,那种可能就要手动了,我自己感觉还可以,大家可以试试。
    另:python实在不行,所以根据别人代码改的(强调!!!),我加的那些让代码看起来很啰嗦,有更好的写法,欢迎大家告诉我,感恩

    展开全文
  • python批量管理文献

    2021-04-03 10:18:08
    目前硕士搬砖,老师给了个任务,下载700篇相关文献,并且把每篇文献按照 **年份-期刊名称-文章题目**格式来重命名,未处理之前如图: 处理完成之后如图: 对于700篇的文献整理,每一篇要依次点开,寻找对应 ...
       目前硕士搬砖,老师给了个任务,下载700篇相关文献,并且把每篇文献按照  *年份-期刊名称-文章题目* 格式来重命名,未处理之前如图:
    

    在这里插入图片描述

    处理完成之后如图:
    在这里插入图片描述
    对于700篇的文献整理,每一篇要依次点开,寻找对应 “年份 期刊名称 文章题目” ;这个工作量显然是灾难, 且重复操作没有营养,想写一个程序自动完成。

    第一步:获取每一篇文献的相关信息。若用程序直接读取pdf文件,寻找信息是相当困难的,因为我的这700篇文献中“年份 期刊名称 文章题目”出现位置极不规律,可以说一篇一个样,随便贴两张图:
    在这里插入图片描述
    在这里插入图片描述
    可以看出,*“年份 期刊名称 文章题目”*出现很不一样,无法通过一种固定的方法获取,在“哥们”的帮助之下,获得了一个神奇的软件:Zotero,下载链接(https://www.zotero.org/download/),把文章导入之后可以自动获得一系列信息,如图:

    在这里插入图片描述
    通过导入的操作,可以获得每一篇的相关信息,此软件可以将这些信息输出为.csv文件,如图:
    在这里插入图片描述
    第二步:从这里选择需要的信息,然后再通过python代码,就可以批量命名啦,源程序直接上:

    import os,csv
    path = "C:/Users/e2164\Desktop/2"+"/"  #文献文件所在位置
    new_name = csv.reader(open(r'C:\Users\e2164\Desktop\wenxin.csv', encoding='utf-8'))  #导出的excel文件所在位置
    New=[]
    for i in new_name: #获取表格想要信息,我这里选择的是  “年份 期刊名称 文章题目“
        name=i[0]+'-'+i[1]+'-'+i[2]  #这是把这些信息整合在一起
        New.append(name)
    print('导入完成')
    # 获取该目录下所有文件,存入列表中
    f = os.listdir(path)
    print(len(f))
    
    print(f[0])
    
    n = 0
    i = 0
    j = 1
    for i in f:
        # 设置旧文件名(就是路径+文件名)
        oldname = f[n]
    
        # 设置新文件名
        newname = New[n]+'.pdf'
        # 用os模块中的rename方法对文件改名
        try:
            os.rename(path+oldname, path+newname)
            print(oldname, '======>', newname)  #命名成功的
        except:
            os.rename(path + oldname, path + 'error'+str(j)+'.pdf')
            print(j)
            j += 1   #命名失败的
    
        n += 1
    

    注意:
    1、有些文献的题目中含有“/ \ < > * ? : ”,这样的字符是不允许出现的,所以在表格中把这些符号预先替换掉,从而大大提高成功率。
    2、excel文件中的文献排列顺序要和文献文件顺序排列一致,否则出现“张冠李戴”。

    展开全文
  • #!/usr/bin/env python # -*- coding: utf-8 -*- ...自动从arxiv.org 下载文献 ''' import os import os.path as osp import requests from lxml import etree from pprint import pprint import re imp
  • 在科研学习的过程中,我们难免需要查询相关的文献资料,而想必很多小伙伴都知道SCI-HUB,此乃一大神器,它可以帮助我们搜索相关论文并下载其原文。可以说,SCI-HUB造福了众多科研人员,用起来也是“美滋滋”。 一、...

    在科研学习的过程中,我们难免需要查询相关的文献资料,而想必很多小伙伴都知道SCI-HUB,此乃一大神器,它可以帮助我们搜索相关论文并下载其原文。可以说,SCI-HUB造福了众多科研人员,用起来也是“美滋滋”。

    一、代码分析

    代码分析的详细思路跟以往依旧如此雷同,逃不过的还是:抓包分析->模拟请求->代码整合。

    1. 搜索论文

    通过论文的URL、PMID、DOI号或者论文标题等搜索到对应的论文,并通过bs4库找出PDF原文的链接地址,代码如下:

    def search_article(artName):
        '''
        搜索论文
        ---------------
        输入:论文名
        ---------------
        输出:搜索结果(如果没有返回"",否则返回PDF链接)
        '''
        url = 'https://www.sci-hub.ren/'
        headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:84.0) Gecko/20100101 Firefox/84.0',
                   'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
                   'Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
                   'Accept-Encoding':'gzip, deflate, br',
                   'Content-Type':'application/x-www-form-urlencoded',
                   'Content-Length':'123',
                   'Origin':'https://www.sci-hub.ren',
                   'Connection':'keep-alive',
                   'Upgrade-Insecure-Requests':'1'}
        data = {'sci-hub-plugin-check':'',
                'request':artName}
        res = requests.post(url, headers=headers, data=data)
        html = res.text
        soup = BeautifulSoup(html, 'html.parser')
        iframe = soup.find(id='pdf')
        if iframe == None: # 未找到相应文章
            return ''
        else:
            downUrl = iframe['src']
            if 'http' not in downUrl:
                downUrl = 'https:'+downUrl
            return downUrl

    2. 下载论文

    得到了论文的链接地址之后,只需要通过requests发送一个请求,即可将其下载:

    def download_article(downUrl):
        '''
        根据论文链接下载文章
        ----------------------
        输入:论文链接
        ----------------------
        输出:PDF文件二进制
        '''
        headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:84.0) Gecko/20100101 Firefox/84.0',
                   'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
                   'Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
                   'Accept-Encoding':'gzip, deflate, br',
                   'Connection':'keep-alive',
                   'Upgrade-Insecure-Requests':'1'}
        res = requests.get(downUrl, headers=headers)
        return res.content

    很多人学习python,不知道从何学起。
    很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
    很多已经做案例的人,却不知道如何去学习更加高深的知识。
    那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!
    QQ群:568668415

    二、完整代码

    将上述两个函数整合之后,我的完整代码如下:

    # -*- coding: utf-8 -*-
    """
    Created on Tue Jan  5 16:32:22 2021
    
    @author: kimol_love
    """
    import os
    import time
    import requests
    from bs4 import BeautifulSoup
    
    def search_article(artName):
        '''
        搜索论文
        ---------------
        输入:论文名
        ---------------
        输出:搜索结果(如果没有返回"",否则返回PDF链接)
        '''
        url = 'https://www.sci-hub.ren/'
        headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:84.0) Gecko/20100101 Firefox/84.0',
                   'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
                   'Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
                   'Accept-Encoding':'gzip, deflate, br',
                   'Content-Type':'application/x-www-form-urlencoded',
                   'Content-Length':'123',
                   'Origin':'https://www.sci-hub.ren',
                   'Connection':'keep-alive',
                   'Upgrade-Insecure-Requests':'1'}
        data = {'sci-hub-plugin-check':'',
                'request':artName}
        res = requests.post(url, headers=headers, data=data)
        html = res.text
        soup = BeautifulSoup(html, 'html.parser')
        iframe = soup.find(id='pdf')
        if iframe == None: # 未找到相应文章
            return ''
        else:
            downUrl = iframe['src']
            if 'http' not in downUrl:
                downUrl = 'https:'+downUrl
            return downUrl
            
    def download_article(downUrl):
        '''
        根据论文链接下载文章
        ----------------------
        输入:论文链接
        ----------------------
        输出:PDF文件二进制
        '''
        headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:84.0) Gecko/20100101 Firefox/84.0',
                   'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
                   'Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
                   'Accept-Encoding':'gzip, deflate, br',
                   'Connection':'keep-alive',
                   'Upgrade-Insecure-Requests':'1'}
        res = requests.get(downUrl, headers=headers)
        return res.content
    
    def welcome():
        '''
        欢迎界面
        '''
        os.system('cls')
        title = '''
                   _____  _____ _____      _    _ _    _ ____  
                  / ____|/ ____|_   _|    | |  | | |  | |  _ \ 
                 | (___ | |      | |______| |__| | |  | | |_) |
                  \___ \| |      | |______|  __  | |  | |  _ < 
                  ____) | |____ _| |_     | |  | | |__| | |_) |
                 |_____/ \_____|_____|    |_|  |_|\____/|____/
                    
    
                '''
        print(title)
        
    if __name__ == '__main__':
        while True:
            welcome()
            request = input('请输入URL、PMID、DOI或者论文标题:')
            print('搜索中...')
            downUrl = search_article(request)
            if downUrl == '':
                print('未找到相关论文,请重新搜索!')
            else:
                print('论文链接:%s'%downUrl)
                print('下载中...')
                pdf = download_article(downUrl)
                with open('%s.pdf'%request, 'wb') as f:
                    f.write(pdf)
                print('---下载完成---')
            time.sleep(0.8)
    

     

    写在最后

    当然,我的代码仅供参考,小伙伴们完全可以根据自己的需要进行相应的调整和改动,这样才能更多地发挥其价值。

    展开全文
  • 本文介绍了用 Python + selenium 的方式从网络上自动下载 xml/exe 文件。 笔者最近在写一个小工具,需要从pubmed上批量下载包含文献信息的xml文件。很明显,这是一个爬虫任务,笔者选用了python+selenium的组合。...

    本文介绍了用 Python + selenium 的方式从网络上自动下载 xml/exe 文件。

    笔者最近在写一个小工具,需要从pubmed上批量下载包含文献信息的xml文件。很明显,这是一个爬虫任务,笔者选用了python+selenium的组合。代码写好后运行一切都很顺利,直到最后Chrome出现了警告信息,提示我是否要保留文件:
    在这里插入图片描述

    用Chrome下载一般的文件,如txt文件是不会有警告的,但是如xml、exe等类型的文件就会有警告。这样看上去可能是一种安全策略。虽然这个警告信息只需要点击一下就可以让程序继续运行,但是点击操作需要人工介入,这个程序就不能算作“全自动”了。最好能避开这个警告,让文件直接下载。

    笔者开始上网搜寻避开警告信息的办法,经过试验可以成功运行的代码如下[1]

    from selenium import webdriver
    from selenium.webdriver.chrome.options import Options
    
    # 设置chrome的下载参数。
    download_dir = "/path/to/your/download/dir"
    chrome_options = Options()
    chrome_options.add_experimental_option("prefs", {
      "download.default_directory": download_dir,
      "download.prompt_for_download": False,
    })
    browser = webdriver.Chrome(chrome_options=chrome_options)
    
    # 让chrome可以自动下载文件的最关键命令
    browser.command_executor._commands["send_command"] = ("POST", '/session/$sessionId/chromium/send_command')
    params = {'cmd': 'Page.setDownloadBehavior', 'params': {'behavior': 'allow', 'downloadPath': download_dir}}
    command_result = browser.execute("send_command", params)
    

    一些可以让低版本的Chrome/chromedriver自动下载xml/exe文件的方法一旦升级到最新版的Chrome就不管用了。比如设置下面这些参数,都达不到效果:

    prefs = {"profile.default_content_settings.popups": 0,
             "safebrowsing.enabled": True}
    chrome_options.add_experimental_option("prefs", prefs)
    

    最关键的还是browser.command_executor._commands那三句命令!

    笔者的Chrome版本是78.0.3904.108,chromedriver的版本是77.0.3865.40。

    当然,网上还有通过判断文件已下载大小的变化来实现下载xml/exe文件的,因为实现起来麻烦还是不推荐了[2]

    参考:
    [1]https://blog.csdn.net/weixin_41812940/article/details/82423892
    [2]https://segmentfault.com/a/1190000018538071?utm_source=tag-newest

    展开全文
  • Python中使用sentinelsat包自动下载Sentinel系列数据

    千次阅读 多人点赞 2019-06-02 14:22:36
    Python使用sentinelsat包自动下载Sentinel系列数据 前言 近日博主需要下载上海市2018年的哨兵1A/B GDRH数据。 sentinelsat包简介 sentinelsat包安装 Sentinelsat包参数详解 批量下载上海市Sentinel 1程序 ...
  • 在做学术、搞科研的过程中,我们往往需要针对一个特定的主题下载海量的文献。在把几百篇文献下载到电脑的过程中,假如遇到不够友好的数据库不提供批量下载的功能,怎么办?我恰好遇到了这样的批量下载...
  • 相信 Entrez 的强大是有目共睹的,BioPython 将它几乎所有操作都封装为方法,使我们可以...我想你的心情不会和下载一条序列时那么平静,那么,接下来通过BioPython提供的接口来实现快速的自动化序列下载。 一、自...
  • python写一个自动在网页搜索资源并下载的程序 从始至终就是一个懒虫的无理取闹~ 故事起因 该懒虫的拖延症使得自己不得不在国庆这个美好的日子里加班加点熬夜写开题报告以及ppt(ε=(´ο`*)))唉 说到开题报告,...
  • Python脚本,可让您使用标签从Google图片中搜索图片的网址和/或自动将其下载到计算机上 文献资料 安装 从我的下载simple-image-download.py并在您的项目中使用 使用命令pip install simple_image_download 方法 在...
  • 0、参考文献 [1]http://www.jianshu.com/p/19c846daccb3 1、代码 #-*- coding:utf-8 -*- import re import requests def dowmloadPic(html,keyword): pic_url = re.findall('"objURL":"(.*?)",',html,re....
  • 1、运行此代码前需要先下载Chrome浏览器,去百度搜索下载 2、我是利用selenium自动化测试工具进行爬取的,所以要再安装Selenium库,pip install selenium 3、ChromeDriver环境配置,先知道安装的Chrome浏览器的版本...
  • Python和selenium下载pdf文件

    千次阅读 2018-04-17 17:20:27
    今天要从国外的网站上下载一个学术会议的几百篇pdf文献,具体网址为...于是用Python+selenium写了个小程序,自动下载保存这些pdf文件。开始在Firefox浏览器中试验,试了好多次都没有成功。Fir...
  • [ ] 程序目的是为了获得指定网站上所有pdf的链接,然后逐个下载。 [ ] 程序框架参考的链接如下: ...[ ] 关于selenium的安装,请自行百度。...[ ] 但是这个源程序打开chrome/firefox一直无法自动下载,因此整
  • 文献资料 有关Python客户端的文档,请参见 。 可以在SoftLayer开发网络上找到其他API文档: 安装 通过pip安装: $ pip install softlayer 或者,您可以从源代码安装。下载源代码并运行: $ python setup.py ...
  • Azure Batch Apps Python客户端 该软件包用于使Azure Batch Apps客户能够使用Python与Management API进行交互。 此客户端模块旨在与现有的Batch Apps服务中设置的应用程序一起使用。... 为无人值守令牌添加了自动
  • 它旨在帮助您完成所有其他重复性任务(运行文档生成器,移动文件,下载内容),所有这些都借助Python语法和大量代码库的便利来完成。 文献资料 当前构建状态: 托管在PyPI上(开发版本的文档位于)。 安装 您可以...
  • 我倾向于使用网站1,能直接获取符合AutoBookMark Pro格式要求的目录,而且能用Zotero添加参考文献条目。 网站1:中国知网海外版 能下载全文pdf和分章pdf, 但连接速度较慢。 网站2:CNKI学问 能下载全文p...
  • PyTorch Pascal-5i数据集读取器 一个有效的Python实现,用于构建pascal-5i数据集。 PASCAL-5i是很少使用的分割文献中经常使用的数据集。 然而,似乎没有为工作的实施... 使用torchvision实用程序功能, 和将自动下载
  • 使用Mechanize模块实现自动化表单处理三、参考文献 之前的博客: 爬虫学习系列02-常见的下载和抽取网页的方法 爬虫学习系列03-下载缓存 爬虫学习系列04 - 并发下载 爬虫学习系列05 - 获取动态内容 本节,将与网页...
  • 构建清单下载软件的源代码,对其进行编译并将其分成多个软件包。 这一切都归功于嵌套构建中包含的强大库:标准编译库。 该库可自动执行所有艰巨的任务,同时仍提供有关这些自动化任务的大量修改。 可以在存储库中...
  • 先说说目的吧,本爬虫的目的是根据EXCEL文件的作者名字信息,以及设定的单位信息来自动循环爬取文章题目、作者姓名、期刊名称、发表时间(刊次)、下载量、被引量等信息并保存到CSV文件中。 用到了chromedriver、...
  • 文章目录问题描述解决方法参考文献/网站 ...但由于网络原因一直无法自动下载,故选择手动下载各个模型。 $ sudo apt-get update $ sudo apt-get install git cmake libpython3-dev python3-numpy $ gi
  • 项目是基于Python3 实现的爬取知网数据的爬虫,可根据知网高级检索进行搜索,提供文献基本信息、文献下载文献摘要等详细信息爬取功能。 实现过程可以查看我的博客 程序运行如下: 详细信息excel表格如下: 下载...
  • - 以BiLSTM等模型为基础,提供知识图谱关系抽取 中文分词 词性标注 命名实体识别 情感分析 新词发现 关键词 文本摘要 文本聚类等功能、用unet实现对文档表格的自动检测,表格重建、NLP事件提取文献资源列表 、 金融...
  • 本文写于2018年12月16日。之前,在Python+Selenium,让浏览器自动帮你下文献这篇文章中,我们讲到了批量下载文献的方法。下载下来之后就是阅读的过程。在阅读之前,我们通常需...
  • 因为动作输出的数值是连续,因此使用基于策略梯度的优化算法,其中比较知名的是 PPO 算法,OpenAI 和许多文献已把 PPO 作为强化学习研究中首选的算法。PPO 优化算法 Python 实现参考 stable-baselines。 ️‍♀️ ...
  • 桌面版sci-hub

    2018-12-26 10:29:03
    为了便于下载文献全文,我上传了 Python 开发的一个 Sci-Hub 的 exe 程序,双击打开后,直接输入文献的 DOI 号即可调用系统默认浏览器下载全文。 注意,可能一些比较新的文献会下载不了,还请见谅! 说明:由于...
  • DBLP 计算机核心技术文献 技术刘 增强现实、图像识别、深度学习、机器人 漫谈 SLAM 技术(上) 漫谈 SLAM 技术(下) 优秀的博客论文笔记 CSCI 1430: Introduction to Computer Vision 计算机视觉课程 计算机视觉和...
  • 3、运行对应任务的脚本(GPU方式): 会自动下载模型和任务数据并开始运行。 bash run_classifier_xxx.sh 如运行 bash run_classifier_iflytek.sh 会开始iflytek任务的训练 4、tpu使用方式(可选) cd CLUE/...

空空如也

空空如也

1 2 3
收藏数 55
精华内容 22
关键字:

python自动下载文献

python 订阅