精华内容
下载资源
问答
  • #资源达人分享计划#
  • 文献计量调查

    2018-06-09 18:25:14
    本文以CSSCI来源期刊为数据来源,检索得到相关研究文献183篇,采用文献计量学的相关分析方法进 行了共词、因子、聚类等多种分析,研究发现媒介融合规制改革的话语主体、媒介融合具体规制的探讨和产业结构调整 的规制...
  • 采用文献计量内容分析法,对1999-2008年《体育科学》发表的不同的体育科研单位合作论文的关键词进行了分析.结果表明:由于科研目标不一,高校体育科研合作内容以理论研究和基础研究为主,体育局的体育科研合作注重...
  • O2O模式研究的现状基于文献计量法分析 摘要在互联网高速发展的今天电子商务在商业的运营模式中起到重要的作用其中O2O模式被普遍看好成为电子商务发展的下一个里程碑本文统计了近些年来有关O2O模式研究的论文通过文献...
  • 公共文化服务的研究进展——基于共词聚类与战略坐标文献计量分析.pdf
  • 文献计量分析方法与工具

    万次阅读 多人点赞 2019-05-22 10:53:46
    一般采用文献计量分析方法并进行可视化。 文献计量分析的主要思路有: 1.发表数量:文献年度发表数量、累计数量; 2.作者:作者发文数量、作者分布、作者合作网络; 3.研究机构,研究机构所属地域; 4....
    • 当要研究某个领域时,需先对现有的相关研究进行调研。一般采用文献计量分析方法并进行可视化。

    • 文献计量分析的主要思路有:
      1.发表数量:文献年度发表数量、累计数量;
      2.作者:作者发文数量、作者分布、作者合作网络;
      3.研究机构,研究机构所属地域;
      4.关键词词频、关键词共现网络、关键词变迁;
      5.文献互引网络、共引、共被引;
      6.期刊来源分布;
      7.资源分布、基金分布、学科分布;
      8.高频词下载/引用文献列表。

    • 文献计量分析工具
      1.知网-计量可视化分析
      2.文献计量在线分析平台 点我(目前仅支持Web of Science数据库(即SCI数据库)引文数据)
      3.Bibexcel,崔雷的窗口点我 点我
      4.CiteSpace 点我(需要java环境)点我
      5.excel

    • 可视化工具
      1.Ucinet
      2.NetDraw
      3.Pajek
      4.NoteExpress
      5.excel

    • 数据来源
      1.中文文献:CNKI
      2.英文文献:WoS,web of science
      ps.学习文献检索表达式

    • 文献管理工具
      1.Endnote(国外,收费)
      2.NoteExpress(国内,收费,功能一体,NoteExpress与Microsoft Word适配,可将参考文献导入至word中)
      3.Mendeley(国外,免费,不支持中文文献)

    • 方案
      中文文献方便的实施的方案
      方案1:CNKI,计量可视化分析,导出excel格式文献数据辅助统计。
      方案2:CNKI,导出excel格式或其他格式然后根据需求处理成不同的字段进行统计分析,结合NoteExpress分析。
      英文文献方便的实施的方案
      方案1:WoS导出txt格式,导入到文献计量在线分析平台

    • 参考资料
      1.可视化资料:http://www.vizinsight.com/datavisbook/
      2.Zhuang Y , Liu X , Nguyen T , et al. Global remote sensing research trends during 1991–2010: a bibliometric analysis[J]. Scientometrics, 2013, 96(1):203-219.
      3.文献计量常用软件比较研究[D]. 2017.

    展开全文
  • 基于文献计量法分析DRGs在我国医疗服务绩效评价中的应用现况.pdf
  • 基于文献计量法的数据挖掘的网络学习行为研究现状分析.pdf
  • Citespace文献计量法

    2018-04-21 16:32:20
    Citespace文献计量法的应用操作,包括数据的检索下载、标准化处理,Citespace软件的设置与运行,可视化图谱的制作
  • 基于文献计量法分析DRGs在我国医疗服务绩效评价中的应用现况.rar
  • 本期特刊向企业中大数据领域的提交开放。 因此,本期特刊包括对大数据时代业务流程创新领域的五项贡献,企业中非结构化... 文献计量法用于可视化和突出显示有关大数据的令人兴奋的文献,然后突出显示此特殊问题的贡献。
  • 文献计量分析,基于内容分析法对信息化的建设可行性进行分析,通过衡量物联网的研究现状对文献进行分析
  • 方法:采用文献计量法分析从Web of Science数据库检索的有关患者导航模型在结直肠癌治疗中的应用的已发表文章。 统计数据是使用书目项目共现矩阵生成器(BICOMB)软件处理的可视化方法呈现的。 结果:从2006年至...
  • 为了解大学英语转型研究的发展情况和总体现状,主要对国内学术期刊(2004-2014年)刊出的有关大学英语转型研究的学术论文进行了文献计量研究,从文献数量、文献主题及文献内容等角度全面指出探讨国内大学英语转型研究的...
  • 中国低碳城市研究现状的文献计量分析——基于共词聚类和战略坐标图.pdf
  • 信息计量学(九):第九讲 文献信息引证规律和引文分析法
  • 本文将以科学计量学与引文分析法为理论指导,将Web of Science数据库收录的人工智能领域的文献为研究对象,并使用CiteSpace软件系统制作可视化图谱、数据统计表格,对2010年至2019年国际人工智能研究领域规律和发展状况...
  • # 同样上述方法,统计文献中关键词的计量信息 keyword = list_split ( WXdata [ 'Keyword' ] . dropna ( axis = 0 , how = 'all' ) . tolist ( ) , ';;' ) keyword1 = sum ( keyword , [ ] ) pd . DataFrame ( ...

    代码在jupyterNotebook中运行成功,过程中需要的包,已经安装完毕,每一代码格代表一个单元的代码,如需Pycharm运行,适当修改代码

    # 导入数据
    import pandas as pd
    WXdata=pd.read_excel('C:\\Users\\qingfeng\\Desktop\\PyDm_data.xlsx',sheet_name='WXdata') # 读取PyDm_data.xlsx文件下的WXdata表
    university=pd.read_excel('C:\\Users\\qingfeng\\Desktop\\PyDm_data.xlsx','university'); # 教育部官网提供了中国全部高等院校校名信息,此处读取PyDm_data.xlsx文件下的university表
    fund=pd.read_excel('C:\\Users\\qingfeng\\Desktop\\PyDm_data.xlsx','fund'); # 将从中国知网获取的基金名称信息整理成列表
    # fund.基金名称.head()  # 显示该表下名为基金名称这一列的数据,默认前5行,主要用来检测数据是否正确读入
    
    # 定义函数,该函数主要用来分解信息,content为待处理内容,separator为拆分节点
    def list_split(content,separator):  #分解信息函数
        new_list=[]
        for i in range(len(content)):
            new_list.append(list(filter(None,content[i].split(separator)))) # 此处采用了Python内置对象filter过滤器,对,后的数据实施,前的执行操作
        return new_list
    
    # 将WXdata['Organ']中的信息,采用分号separator,将信息分解开,以此获得学校信息名称,最后得出排名前10的学校名称
    organ= list_split(WXdata['Organ'],';')
    # 获得学校信息名称之后,统计学校计量
    data1=pd.DataFrame([[i,search_university(organ,i)] for i in university['学校名称']])
    data1.rename(columns={0:'学校名称',1:'频数'},inplace=True)
    data1.sort_values(by='频数',ascending = False)[:10]
    
    # 同样上述方法,获取基金的计量信息,返回排名前10的基金
    jijin=list_split(WXdata['Fund'].dropna(axis=0,how='all').tolist(),';;')
    data2=pd.DataFrame([[i,search_university(jijin,i)] for i in fund['基金名称']])
    data2.rename(columns={0:'学校名称',1:'频数'},inplace=True)
    data2.sort_values(by='频数',ascending = False)[:10]
    
    # 同样上述方法,统计文献中关键词的计量信息
    keyword=list_split(WXdata['Keyword'].dropna(axis=0,how='all').tolist(),';;')
    keyword1=sum(keyword,[])
    pd.DataFrame(keyword1)[0].value_counts()[:10]
    
    # 定义新的函数,用新的标识来替代目标信息中的某些内容
    def list_replace(content,old,new): 
        return [content[i].replace(old,new) for i in range(len(content))]
    
    # 使用上述函数,将Author列中数据进行过滤后,将,换为;
    author=list_replace(WXdata['Author'].dropna(axis=0,how='all').tolist(),',',';')# dropna主要用于滤除缺失数据,传入how='all'参数后将只丢弃全为缺失值的那些行,axis=1是对列进行计算 axiis=0是行
    # 
    author1=list_split(author,';');author1
    # type(author1) # 用来查看author的类型,为列表list类型,下同
    author2=sum(author1,[])  # 这里采用sum与列表推导式方法,将author1列表中所有列表写入author2中,汇总成为一个列表
    # type(author2)
    pd.DataFrame(author2)[0].value_counts()[:10]  # 此处为何要有前面的[0],见详解
    

    详解

    # 统计期刊与年份计量信息
    WXdata.Source.value_counts()[:10]  # 统计WXdata中Source列的统计信息,仅显示前10个
    WXdata.Year.value_counts()
    
    # 构造作者共现矩阵,机构共现矩阵,关键词共现矩阵
    import networkx as nx
    organ=list_split(WXdata['Organ'],';')
    data1=pd.DataFrame([[i,search_university(organ,i)] for i in university['学校名称']])
    data1.rename(columns={0:'学校名称',1:'频数'},inplace=True)
    keyword=list_split(WXdata['Keyword'].dropna(axis=0,how='all').tolist(),';;')
    keyword1=sum(keyword,[])
    author=list_replace(WXdata['Author'].dropna(axis=0,how='all').tolist(),',',';')
    author1=list_split(author,';')
    author2=sum(author1,[])
    #获取前30名的高频数据
    data_author=pd.DataFrame(author2)[0].value_counts()[:30].index.tolist();data_author
    data_keyword=pd.DataFrame(keyword1)[0].value_counts()[0:30].index.tolist();data_keyword
    data_university=data1.sort_values(by='频数',ascending = False)[0:30]['学校名称'].tolist()
    
    def occurence(data,document):  #生成共现矩阵
        empty1=[];empty2=[];empty3=[]
        for a in data:
            for b in data:
                count = 0
                for x in document:
                    if  [a in i for i in x].count(True) >0 and [b in i for i in x].count(True) >0:
                            count += 1
                empty1.append(a);empty2.append(b);empty3.append(count)
        df=pd.DataFrame({'from':empty1,'to':empty2,'weight':empty3})
        G=nx.from_pandas_edgelist(df, 'from', 'to', 'weight')
        return (nx.to_pandas_adjacency(G, dtype=int))
    Matrix1=occurence(data_author,author1);Matrix1
    Matrix2=occurence(data_university,organ)
    Matrix3=occurence(data_keyword,keyword)
    Matrix1
    
    # 绘制作者共现矩阵
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif']=['SimHei'] 
    plt.rcParams['axes.unicode_minus']=False
    graph1=nx.from_pandas_adjacency(Matrix1)
    nx.draw(graph1,with_labels=True,node_color='yellow')
    

    在这里插入图片描述

    #绘制机构共现矩阵
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif']=['SimHei'] 
    plt.rcParams['axes.unicode_minus']=False
    graph2=nx.from_pandas_adjacency(Matrix2)
    nx.draw(graph2,with_labels=True,node_color='yellow')
    
    # 绘制关键词共现矩阵
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif']=['SimHei'] 
    plt.rcParams['axes.unicode_minus']=False
    graph3=nx.from_pandas_adjacency(Matrix3)
    nx.draw(graph3,with_labels=True,node_color='yellow')
    
    
    # 进行层次聚类,绘图
    import scipy.cluster.hierarchy as sch
    import matplotlib.pyplot as plt
    plt.rcParams['font.sans-serif']=['SimHei'] 
    plt.rcParams['axes.unicode_minus']=False
    H1=sch.linkage(Matrix3,method='ward')
    sch.dendrogram(H1,labels=Matrix3.index,orientation='right')
    
    展开全文
  • 为了展现我国10年来散打理论研究态势,运用文献资料法、数理统计法、逻辑分析法等研究方法,从科学研究的发文量、研究方法、作者情况等方面进行了详细阐述.结果表明:散打科研论文数量呈增长趋势;高校是散打研究领域的...
  • 近五年我国文献计量学研究现状探析,谭晓华,赵蓉英,论文以2004-2008年中国科技期刊数据库收录的1714篇我国文献计量学研究文献为研究样本,运用统计分析法和内容分析法,从文献的出版年�
  • 本文运用文献计量学方法,对华北科技学院安全技术及工程学科科研人员2004—2008年间的110篇核心期刊论文的引文量、引文类型、引文语种、年代分布等进行统计与分析,旨在了解科研人员文献需求特点,为重点学科文献资源...
  • 基于文献计量的我国湿地旅游研究综述,刘邦凡,张贝,采用文献计量法对中国知网(CNKI)中有关我国湿地旅游的相关文献进行数据统计分析,并对目前我国湿地旅游的研究内容进行系统分类�
  • 随着大数据时代的到来,科学发现从以计算科学为...在此背景下,[文献计量]团队为广大科研工作者提供诸如COOC、CiteNet、ST、TE等知识图谱与文献计量软件使用技巧,助力核心论文发表! 软件来源公众号【学术点滴】 ...

    随着大数据时代的到来,科学发现从以计算科学为主的第三范式转为以数据密集型科学为主的第四范式,基于科学数据进行挖掘的科研创新成为重要趋势。科学知识图谱作为科学数据挖掘的重要手段,已成为科研人员的得力助手。

    在此背景下,[文献计量]团队为广大科研工作者提供诸如COOC、CiteNet、ST、TE等知识图谱与文献计量软件使用技巧,助力核心论文发表!

    在这里插入图片描述
    软件来源公众号【学术点滴】

    展开全文
  • 使用文献计量方法分析了总共 6572 篇论文,其中包括 28 篇高被引论文,仅选择了 1980 年至 2015 年 3 月 19 日在 Web of Science:trade_mark: 核心合集数据库中发表的论文。 结果通过所有与计算机科学相关的 Web of...
  • 木文运用文献计量学方法,对华北科技学院安全技术及工程学科科研人员2004-2008年间的110篇核心期刊论文的引文量、引文类型、引文语种、年代分布等进行统计与分析,旨在了解科研人员文献需求特点,为重点学科文献资源...
  • 研究过文献计量的人一定做过一个图——多维尺度分析 多维尺度的含义: 多维尺度(Multidimensional scaling,缩写MDS,又译“多维标度”)也称作“相似度结构分析”(Similarity structure analysis),属于多重变量...
     正文开始之前先看下图:下图是如何绘制出来的?聚类主题是如何划分的?哪张图最合理?
    

    在这里插入图片描述
    在这里插入图片描述
    研究过文献计量的人一定做过一个图——多维尺度分析

    多维尺度的含义:
    多维尺度(Multidimensional scaling,缩写MDS,又译“多维标度”)也称作“相似度结构分析”(Similarity structure analysis),属于多重变量分析的方法之一,是社会学、数量心理学、市场营销等统计实证分析的常用方法。

       多维尺度法是一种将多维空间的研究对象(样本或变量)简化到低维空间进行定位、分析和归类,同时又保留对象间原始关系的数据分析方法。
    

    多维尺度的作用:
    我们能够想象的最高维度是三维空间结构,二维平面看着最直观,因此我们在论文中遇到的基本都是二维的图片。

       多维尺度分析可直观将复杂数据间的关系投影到二维图形上,这样我们就可以通过之间观察二维图片上点与点的位置来对节点进行聚类。
    
       说白了,多维尺度的原理很简单,就是降维。
    
        比如,我们有一个由50个关键词构成矩阵,如果我们直接作图那将是一个50维的空间图,没有人能够看懂这个图。
    
        但是,如果我们将这个50维的空间图压缩为三维空间图或者二维平面图,以此代替50维的空间图呢?
    
        这时我们就能够通过二维平面图去描述看不懂的50维空间图中的点的关系了。
    
        多维尺度主要干的就是这个事儿。
    
        优点:多维尺度分析的目的是将研究个体之间的距离用二维平面距离呈现出来,客观地反映这些个体之间的相似性关系。个体之间距离越近性质越相似。
        缺点:分析结果不是唯一的,最终划分结果往往是人工手动划分,这样就会或多或少出现很多问题。
    

    合理案例与不太合理案例展示:
    较为合理的案例图:(下图基本上是根据客观距离的远近进行的划分)

    不太合理的案例图:(下图基本上是作者根据主观认识进行的划分)

    至此,你应该了解了绘制多维尺度图需要注意的事项

    如不会制作此图:可观看:《核心论文讲解—— 多维尺度分析和聚类分析》
    原创软件
    1-COOC一键做共现矩阵和知识图谱
    2-Data数据园一键提取中国知网\CSSCI\社科基金数据
    3-Web of Science数据全字段提取与矩阵制作
    4-《万能同义词合并5.0》CiteSpace、VOSviewer
    5-CiteSpace多数据库3.1一键去重-知网、万方、维普数据库
    6-Wos/Pubmed/Scopus数据库2.0一键去重+清洗数据
    7-gigo关键词合并与删除
    8-科学知识图谱软件,做知识图谱的利器
    9-期刊投稿查询系统
    10科研利器与文献计量原创软件汇总
    11-精品工作科研效率工具汇总
    12-相异矩阵一键转化—只有共现矩阵的情况
    13-[超越CiteSpace]突破CiteSpace只能做数据库里数据限制
    14-[超越VOSviewer]突破VOSviewer只能做数据库里数据限制
    15-德温特专利挖掘软件
    16-【全网独家】二模网络图谱绘制-【作者关键词】与【期刊关键词】
    17-【全网独家】潜在作者合作网络分析+潜在期刊主题相似度视频教程
    18-【知网文献计量趋势变化挖掘2.0】发布,多维度挖掘科技发展趋势
    19-【CSSCI文献计量趋势变化挖掘1.0】发布,多维度挖掘科技发展趋势
    20-【全网独家】战略坐标一键计算视频教程完整

    长按二维码,关注[学术点滴]公众号获取更多资讯。

    展开全文
  • 这是非常好的事情,能够让读者及时了解到最新研究成果,打破了文章从录用到出版的时滞问题 但是,网路首发的文章对于我们做文献计量与知识图谱就会存在致命问题 为什么呢? 因为网络首发的文章 缺失时间 缺失时间 ...
  • 采用文献计量学的方法,从论文数量、研究方法、研究主题三个维度对我国医学科研项目绩效评价指标研究成果进行了统计,并采用内容分析法对现有中医学文献科研项目绩效评价指标进行了深入分析研究,发现该领域的研究成果...
  • 利用数学和统计学的比较、归纳、抽象、概括等逻辑方法,对科学期刊、论文、著作等各种分析对象的引证与被引证现象进行分析,以便揭示其数量特征和内在规律的一种文献计量分析方法。 1.1.2 引文分析的内容 ①引文年代...
  • 以2016年SSCI收录的120种商业期刊为依据,在关键词共现网络分析的基础上,系统性地回顾了2007—2016年心理契约在组织管理中的理论和实证研究,梳理了心理契约的含义、特征、过程以及测量方法,详细阐述了心理契约的影响...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,816
精华内容 726
关键字:

文献计量分析法