精华内容
下载资源
问答
  • 多模态虚假新闻检测
    2021-08-22 23:07:55

    1、前言

    假新闻,指在形式上模仿新闻媒体内容伪造的信息,往往是一些不正确的或是误导人的信息。当今,社交媒体已经成为人们获取、分享和评论新闻的主要平台。然而,社交媒体的便利性和开放性也导致了假新闻的广泛传播,从而对社会造成了严重影响。例如,新型冠状病毒(2019-nCoV)的爆发威胁着人们的身体健康,然而一些疫情相关的假新闻也在社 交媒体上广泛传播,这极大阻碍了防疫工作的开展。

    手动收集和调查假新闻尽管更加准确,但同时也需要耗费大量的资源和时间。因此对于社交媒体上的海量帖子,自动检测假新闻是非常必要的。通过挖掘假新闻和真实新闻特征的区别(例如帖子内容,用户信息,传播过程等),然后使用传统机器学习方法或者深度学习方法进行假新闻的检测。早期的假新闻检测研究主要基于帖子和评论的文本内容和写作

    更多相关内容
  • 语义增强的多模态虚假新闻检测.docx
  • 目录 总体笔记 模型

    请添加图片描述
    目录
    请添加图片描述
    总体笔记
    请添加图片描述
    模型
    请添加图片描述

    展开全文
  • 多模态新闻细粒度检测基准数据集Fakeddit: https//aclanthologorg/2020.lrec-1.755. 研究背景简述 数字媒体的使用和高效传播,为人类社会带来了诸如促进社会互动,改善信息共享等好处,但假新闻、假消息...

    作者丨周鹏(公众号原创作者名:双鸭山学长)

    学校丨中山大学硕士

    研究方向丨计算语言学、语言加工、认知与教学

    多模态假新闻细粒度检测基准数据集Fakeddit:

    https//aclanthologorg/2020.lrec-1.755.

    研究背景简述

    数字媒体的使用和高效传播,为人类社会带来了诸如促进社会互动,改善信息共享等好处,但假新闻、假消息也出现了前所未有的激增。

    尤其近两年由于新冠疫情的影响,社交媒体上关于疫苗、病毒等的虚假信息泛滥,甚至导致疫苗接种犹豫的增加(Islam等, 2021)和重大的经济损失 (Brown, 2019)。

    因此,假新闻自动检测工具的开发对预防假新闻的负面影响具有重要作用。但目前大多数检测和分类错误内容的尝试都只集中在使用单一语言文本信息上,多模态方法较少见,它们通常将新闻分为真或假,缺乏更细粒度的分类。

    在这项工作中,来自西班牙马德里著名高校卡洛斯三世大学的学者(Santiago Alonso-Bartolome, Isabel Segura-Bedmar. Multimodal Fake News Detection.2021)使用单模态和多模态的方法,在 Fakeddit 数据集(Nakamura, K., Levy, S., & Wang, W. Y. 2020)上对假新闻进行了细粒度的分类。

    实验结果表明,基于结合语言文本和图像数据的卷积神经网络(CNN)架构的多模态方法效果最好,准确率为87%。一些假新闻类别,如操纵内容、讽刺或虚假连接这些分类都强烈受益于图像的使用。使用图像也可以改善其他类别的结果,但影响较小。

    对于仅使用语言文本的单模态方法,来自变压器的双向编码器表示(BERT)是最佳模型,准确率达78%。因此,同时利用语言文本数据和图像数据可以显著提高假新闻检测的性能

    方法

    该论文的主要目的是研究单模态和多模态方法在更细粒度的假新闻上的分类检测。

    为了做到这一点,他们使用了Fakeddit数据集,并将其分为以下六类不同的类别:

    真实内容(true)、误导性内容(misleading content)、被操纵内容(manipulated content)、虚假联系内容(false connection)、冒名顶替者内容( imposter content)和讽刺内容(satire)。

    他们探索了几种用于文本分类的深度学习架构,单模态方法如卷积神经网络(CNN)(Goodfell 等人,2016)、双向长短期记忆(BiLSTM)(Hochreiter&Schmidhuber,1997)和来自变压器的双向编码器表示(BERT)(Devlin等人,2018)。

    而多模态方法,他们提出了一种结合文本和图像的CNN架构来对假新闻进行分类。

    使用语言文本的单模态方法:

    首先,要进行深度学习模型的预处理,通过删除停止语、标点符号、数字和多个空格来开始预处理语料库中的文本。然后,将每个文本分割进行标记,并进行词形还原(lemmatization),接着将词形还原后的文本转换为整数(Integers)序列。

    通过学习语料库的词汇,并构建一个字典,其中每个单词映射到不同的整数,然后使用这个字典将每个文本转换为一个整数序列。这样的序列中的每一个非零条目都对应于原始文本中的一个单词,文本中文字的原始顺序得到了还原(respected)。

    由于我们需要向深度学习模型提供相同长度的向量,因此我们填充和截断整数序列,使它们有相同数量的条目。这样做的缺点是,那些太长的向量将被截断, 并丢失一些信息。

    为了选择被填充的截断的向量的长度,我们计算了小于10、15、20和25标记的文本的百分比。

    图1显示了每种情况下的训练、验证和测试分区的结果。我们可以看到,98%的文本的长度小于15篇。

    由于必须被截断的文本数量非常少(不到 2%),因此丢失的信息就很少了。所以,我们选择15作为填充和截断后的向量长度。

    图 1:小于给定长度的文本所占百分比

    深度学习架构使用与给定文本对应的单词嵌入序列作为输入。因此,嵌入层将输入序列的每个整数值转换为一个单词嵌入向量。

    通过这种方式,每个向量化的文本被转换为15行和300列的矩阵(300列是单词嵌入的维数)。我们同时使用随机初始化和预先训练的手套单词嵌入(Pennintonetal.,2014)。

    我们还比较了一种动态方法(让模型进一步训练单词嵌入)和一种静态方法(不让模型训练单词嵌入)。

    CNN方法:

    具体方法可参见原文(点击“阅读原文”),进行假新闻文本分类架构的主要路径如图2所示:

    图2  CNN用于文本分类

    (嵌入层-卷积层-最大池化层-致密层+ReLU激活+

    过 logsoftmax 函数-获得相应输入文本的预测类)

    该方法的结果如下表1

    表1

    该模型的准确率为72%,微观平均水平为57%,宏观平均水平为49%,其中在识别真实内容(true)、被操纵内容(manipulated content)上的平均准确率最高(都为79%),而在识别冒名顶替者内容( imposter content)上平均准确率最低(13%),此外,该论文还比较了CNN使用动态和静态Glove向量的结果,感兴趣的可参见原文。

    BiLSTM方法:

    具体方法可参见原文(点击“阅读原文”),进行假新闻文本分类架构的主要路径如图3所示:

    图 3:用于文本分类的BiLSTM

    该方法的结果如下表2:

    表2

    该模型的准确率为72%,微观平均水平为57%用随机向量初始化的 BiLSTM 得到的结果与用随机初始化的 CNN 得到的结果非常相似(见表1)。

    事实上,这两种模型的精度相同,为 0.72。然而,在微观平均水平方面,BiLSM 模型比随机初始化的 CNN 模型多得到9分。

    这种改进可能是因为BiLSTM 提高了其冒名顶替者内容的分数。(其他使用动态和静态Glove向量的结果可参见原文)

    BERT方法:

    在这种方法下,他们使用BERT提供的向量来表示输入标记,而不是使用 前趋势手套嵌入的随机初始化。与GloVe模型相反(Pennintonetal.,2014),BERT考虑了每个单词的上下文(即它周围的单词)。

    该方法的结果如下表3:

    表3

    BERT的准确率为78%,微观平均水平的准确率为74%。因此,它优于之前所有的单峰深度学习方法。

    这证明了由BERT提供的预先训练的上下文文本表示的优势,而不是与上下文无关的Glove向量或神经网络的随机初始化。

    语言和图像数据结合的多模态方法:

    多模态方法使用一个CNN,它将同一新闻对应的文本和图像作为输入。 该模型输出一个包含6个数字的向量,从中得到了预测的类。其具体方法可参见论文原文。

    该方法的结果如下表4:

    表4

    从中可以看出,多模态方法的准确率为87%,微观平均水平为72%,是所有单模态模型中得分最高的。

    最佳模型的比较:

    除了深度学习算法外,他们还提出了最成功的文本分类算法之一——支持向量机 (SVM)作为基线。表4显示了最佳模型(SVM、CNN、BiLSTM、BERT 和多模态CNN)的准确性和微观平均分的比较。

    总之,我们可以看到多模态CNN的性能优于所有的单模态方法。这证明了将文本和图像组合于细粒度的假新闻分类的有效性。

    针对单模态方法,BERT模型在准确性和微观平均水平分数方面都是最好的,这显示了使用上下文词嵌入的优势。

    第三个最好的方法是使用动态Glove向量的BiLSTM。最后,所有的深度学习方法都优于基线SVM。

    结论

    总之,假新闻可能会对政治、健康和经济产生重大的负面影响。因此,有必要开发能够快速和可靠地检测错误信息的工具。

    在马德里卡洛斯三世大学学者的这篇论文贡献中,我们能看到多模态方法克服了只利用语言文本的方法,BERT 是进行语言文本分类的最佳模型。

    此外,使用动态GloVe词嵌入的性能优于 CNN和 BiLSTM架构的随机初始化。作为未来的工作,他们还计划使用预先训练好的网络来生成视觉表示。特别是他们将使用VGG网络,它是在 ImageNet 等大型图像数据集上进行预训练的。

    他们还计划探索不同的深度学习技术,如LSTM、BiLSTM、GRU 或 BERT,以及不同的方法来结合视觉和文本表示。在他们目前的研究中,他们使用早期融合方法(early fusion approach)构建了他们的多模态CNN,该方法包括创建文本和视觉表示,然后组合,然后在得到的组合表示上应用一个分类器,以得到每个类的概率。

    相反,他们计划研究一种晚期融合方法( late fusion approach),这将需要两个独立的分类器(一个用于语言文本输入,另一个用于图像输入)。然后将来自两个分类器的预测结合起来,得到最终的预测。

    Santiago Alonso-Bartolome, Isabel Segura-Bedmar. Multimodal Fake News Detection.2021.Computer Science Department, Universidad Carlos III de Madrid, Avenida de la Universidad, 30, Leganés, 28911, Madrid, Spain

    原文链接:

    https://arxiv.org/abs/2112.04831

    △长按添加AI小助手

    微信ID:tanxin6934

    备注:姓名-学校/公司-研究方向-城市(如:小欣-斯坦福-目标检测-深圳)

    即可领取目标检测与R-CNN/数据分析的应用/电商数据分析/数据分析在医疗领域的应用/NLP学员项目展示/中文NLP的介绍与实际应用/NLP系列直播课/NLP前沿模型训练营等干货学习资源。

    每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总等等。

    展开全文
  • 关键词:社交媒体,虚假新闻检测多模态学习; 作者:Shengsheng Qian,Jinguang Wang,Jun Hu,Quan Fang,Changsheng Xu; 中国科学院大学,中国科学院模式识别国家重点实验室;合肥工业大学; 发表会

    本博客系本人阅读该论文后根据自己理解所写,非逐句翻译,欲深入了解该论文,请参阅原文。

    论文标题:Hierarchical Multi-modal Contextual Attention Network for Fake News Detection;

    关键词:社交媒体,虚假新闻检测,多模态学习;

    作者:Shengsheng Qian,Jinguang Wang,Jun Hu,Quan Fang,Changsheng Xu;

    中国科学院大学,中国科学院模式识别国家重点实验室;合肥工业大学;

    发表会议或期刊:SIGIR 2021;

    代码地址:未开源;

    摘要:

    最近,因为广泛传播的虚假新闻会误导读者并带来不好的影响,在社交媒体平台上检测虚假新闻成为了一个最关键的问题。目前为止,从人工定义的特征提取方法到深度学习方法,许多致力于解决检测虚假新闻的模型被提出。但是这些模型仍然有不足:(1)没有利用多模态的上下文信息(multi-modal context information),没有提取到高阶的补充信息( high-order complementary information );(2)在学习新闻表示时忽视了文本内容的完整层次化的语义(full hierarchical semantics of textual content )。为了解决上述问题,本文提出了一个层次化的多模态的基于上下文的注意力网络(hierarchical multi-modal contextual attention network, HMCAN)用来做谣言检测。该模型将多模态上下文信息(multi-modal context information)和文本的层次化的语义信息(hierarchical semantics of text )联合建模为一个统一的深度模型。具体而言,本文使用BERT和ResNet来学习文本和图像表示。然后将所得文本和图像表示送入一个多模态的上下文注意力网络以融合模态内(intra-modality)和模态间(inter-modality)的关系。最后,本文设计了一个层次化的编码网络来捕获虚假新闻检测中丰富的语义信息。在三个公开数据集上的实验证实了本文所提出的模型达到了目前最好的结果。

    现存方法的问题:

    1. 早期的谣言检测主要是通过人力完成的,比如依靠领域专家或者机构识别,但是该方式费时费力;
    2. 后来出现了自动检测谣言的模型,大致分为两类,其一是传统的学习方法。这些方法根据新闻的多媒体内容和用户的社交上下文信息,手动定义一系列谣言的特征。但是谣言也是不断发展的,其特征也在不断变化更加复杂,仅仅使用手动定义的特征很难完全捕获到所有谣言的特征;
    3. 自动检测的模型第二类是深度学习的方法,使用神经网络来捕获谣言的特征。但是现有的这类方法大多只关注于文本内容而忽视了新闻的多模态特征,也就是图像等信息;
    4. 现有的多模态谣言检测方法也有缺陷,比如对多模态上下文信息的利用不充分,不能提取新闻中高阶信息增强检测的性能(fully utilize the multi-modal context information and extract high-order complementary information);以及没有提取文本内容的层次化语义特征( explore and capture the hierarchical semantics of text information,具体来说,其他方法用Bert获得文本特征表示时,都是用Bert的最后一层输出作为文本表示,但Bert的中间隐藏层实际上也包含很多有用的信息,这些层一起就是层次化的语义特征)。

    本文主要贡献:

    1. 针对谣言检测问题,提出了层次化的多模态上下文注意力网络(HMCAN)来联合学习多模态上下文信息和文本的层次化语义信息;
    2. 设计了多模态上下文注意力网络来建模新闻的多模态特征,来自不同模态的信息可以对另一模态做补充。设计了层次化语义编码模块来提取文本的丰富语义特征;
    3. 在三个公开数据集上经过实验显示出本文模型比其他SOTA方法具有更强的鲁棒性以及在检测谣言方面更高效。

    本文方法及模型:

    虚假新闻检测问题可以定义为一个二分类问题,给定一个多模态的新闻P包含文本内容和对应的若干图像,模型的目的是输出一个标签Y来判断该新闻是假新闻(Y=1)还是真新闻(Y=0)。

    本文模型整体框架如下图2所示,包含以下几个模块:

    • 文本和图像编码网络:用Bert获取文本的表示向量,用预训练的ResNet50模型来提取图像的特征(预训练表示ResNet50的参数在本文模型训练时固定不变)。给定一个新闻P={W, R}其中W代表新闻的文本内容,R代表视觉内容。首先将W表示为一个包含m个单词的序列,然后经过预训练的Bert得到单词的表示S=\{s_1, s_2, ..., s_m\}。图像类似,R输入预训练的ResNet50得到n个区域特征O=\{o_1, o_2, ..., o_n\}
    • 多模态上下文注意力网络:如上图2第二行左边两个图所示,一个多模态上下文注意力网络以文本和图像的表示为输入,经过两个contextual transformer模块(他们俩不共享权重),得到两个向量(图2第二行最左边图片中的C_{TI}, C_{IT}),令C = \alpha C_{TI} + \beta C_{IT}, {\alpha} + \beta = 1,最终得到一个多模态的表示(图2第一行图片中C^0, C^1, C^2)。具体而言,一个contextual transformer由两个transformer组成(如图2第二行中间一张图片),其中左边的transformer是标准的transformer结构,其QKV均来自输入input1,公式如下。因此该transformer就是学习了input1数据的intra-modality的特征。

      右边的transformer修改了标准transformer结构的输入,其他结构没有改变。其输入的Q来自input2,而KV值则来自input1,是左边transformer的输出结果(公式(5)的结果),公式如下。因此该transformer就是学习了input1和input2两者inter-modality的特征。

      两个transformer的输出分别经过一个pooling之后再拼接在一起,作为contextual transformer的输出结果,也就是左边图片中的C_{TI}, C_{IT}。注意到,一个多模态上下文注意力网络中的一个contextual transformer1的input1和input2分别是text和image内容,而contextual transformer2的input1和input2分别是image和text。
    • 层次化编码网络:Bert模型中间层有11个,加上最后一层共有12层表示,为了降低计算量,本文将相邻的4个层的表示求和(4个层为一组),得到3组层次化的文本语义表示。公式如下:其中i代表文本W中的第i个单词,j代表Bert的第j层,s代表每组的向量表示。

      将他们分别与图像特征做多模态注意力,然后拼接所得表示C^0, C^1, C^2,就得到了本文模型最终的多模态新闻表示。

    • 虚假新闻检测器: 对新闻的真假进行判断。检测器的输入是新闻的多模态表示C,包含一层全连接层和对应的激活函数,输出该新闻的预测标签,如公式(11):

      因此,本文模型的loss是:

    实验:

    任务:虚假新闻检测;

    数据集:微博 WEIBO [12], 推特 TWITTER [12, 13](这里推特数据集的初始来源是论文[1]), 和 PHEME [42],各数据集的具体统计信息如下表1所示:

    评价指标:使用二分类的准确率Accuracy作为主要评价指标。考虑到数据集不平衡的问题,同时使用二分类中精确率Precision,召回率Recall和F1值作为补充评价指标。

    实验设置:Bert和ResNet50使用预训练的模型,也就是不fine-tune。注意:本文对于没有图像的纯文本新闻,会生成对应的虚假图像(dummy images)。其他参数的设置详见论文原文。

    对比方法Baselines:包含单模态模型(方法1-4)和多模态模型(方法5-10):

    1. SVM-TS:使用启发式规则和线性SVM分类器检测虚假新闻;
    2. CNN:使用学习虚假新闻的特征表示,并且做早期的虚假新闻发现;
    3. GRU:基于RNNs学习隐藏层表示,同时可以用多层GRU学习一系列新闻组成的变长的时间序列的特征;
    4. TextGCN:用GCN学习单词和文档的表示,然后将他们一起建模为一个异构图;
    5. EANN:用一个事件判别器捕获新闻所属事件信息,提取事件无关的新闻特征;
    6. att-RNN:用注意力机制学习文本、图像、社交信息之间的关系;
    7. MVAE:用变分自编码器加一个二分类器做检测;
    8. SpotFake:用预训练的Bert提取文本特征,VGG-19提取图像特征;
    9. SpotFake+:8的增强版,使用预训练的XLNet提取文本特征;
    10. SAFE:用相似性关系捕获多模态特征;

    实验结果和分析:

    所有方法的虚假新闻检测结果值在论文中表2展示,表格较大,这里只展示微博数据集上的实验结果,其他两个数据集的实验结果见原文。

     本文从实验结果中得出以下结论:

    1. 在所有方法中,SVM-TS结果最差,说明人工定义的特征对识别虚假新闻是不够的;
    2. 基于深度学习的单模态方法(CNN,GRU)结果比SVM-TS好,说明它们提取特征的性能比传统方法好。但是在推特数据集上,CNN只比SVM-TS好,可能是因为CNN对于单词间长距离的语义信息没有捕获到。另外,TextGCN比CNN,GRU结果好,说明图结构对于捕获单词和文档的关系还是有效的;
    3. 多模态方法att-RNN和MVAE比单模态方法GRU等好,说明除了文本内容之外,额外的图像信息确实对检测虚假新闻是有用的;
    4. SAFE比CNN好,因为它也用了多个模态的信息。而SpotFake和SpotFake+在推特和微博数据集上比其他baselines方法都好,说明预训练的Bert和XLNet模型确实在提取文本特征方面更好;
    5. 本文模型HMCAN在推特和PHEME数据集上比其他方法都好。在微博数据集上不如SpotFake论文中的结果,但是在判断真实新闻上,本文的F1结果比它好。而在本文复现的SpotFake模型上的实验结果显示,本文模型的检测结果是比它好的。

    HMCAN各部分的分析:如下表3所示,其中HMCAN-V代表去掉了视觉信息只使用文本内容的HMCAN变体;HMCAN-C代表去掉了多模态上下文注意力网络的变体;HMCAN-H代表去掉了层次化语义模块的变体,也就是只使用Bert的最后一层输出表示做后续任务。

     从上表3可以看出,去掉任何一个部分都会带来检测结果的降低,说明本文的视觉信息,两种模块都是有用的。(论文原文中对这里分析的很少,个人觉得还有可以挖掘的点,比如可以看出去掉视觉信息之后性能下降很大,去掉多模态部分下降是第二的,说明在这个过程中,图像也就是多模态的信息是非常重要的;而H部分相当于是对文本进行增强,说明文本信息提取已经很多了,所以增加并不多

    多模态上下文注意力模块中alpha值的影响:

    将两个contextual transformer的结果合在一起的方法中的alpha,不同值会对虚假新闻检测的结果有什么影响呢?本文进行了实验,如下图3所示,在Accuracy方面(左图),alpha=0.7时推特和PHEME数据集上结果最好,微博数据集上比0.1时差一点;在F1方面(右图), 微博上0.1最好,推特上0.3最好,PHEME上0.7最好。综上,本文实验中设置alpha=0.7,能在三个数据集上得到较好的结果。

    层次化模块中分组数据g不同值的影响:

    如下图4所示,当g的值从1升到3时,性能增加,从3之后性能开始下降。到12时会小幅度上升但是仍然低于g=3时,而且当g=12时意味着Bert的输出有12层,计算量太大,因此本文选择了设置g=3.

    结论:

    未来本文期望探索更有效的提取视觉特征的方式,或者利用额外的知识(knowledge)来辅助识别虚假新闻。

    个人理解及问题:

    • 本文的虚假新闻检测器只使用了一层全连接层,它的输入特征维度是多少?直接降到2维会不会丢失太多特征?实验设置中只说文本和图像的维度是768,文本的分词数目是多少呢?后面contextual transformer最后的pooling是如何做的(均值还是求和还是拼接?),输出的C_{TI},C_{IT}的维度是多少呢?
    • 本文对视觉图像提取了region特征,没有使用图像的整体特征,如果加上一个会不会更有效呢?有些虚假新闻的特征能从图像的整体特征上反映出来?
    • 本文为什么要特地把SpotFake的论文结果拿出来对比呢?直接使用作者复现的SpotFake结果不就好了吗?而其他的方法又没有展示原始论文结果。

    参考文献:

    [1] C. Boididou, S. Papadopoulos, D. Dang-Nguyen, G. Boato, and Y. Kompatsiaris. 2016. Verifying multimedia use at mediaeval 2016. In MediaEval 2016 Workshop.

    [12] Zhiwei Jin, Juan Cao, Han Guo, Yongdong Zhang, and Jiebo Luo. 2017. Multimodal fusion with recurrent neural networks for rumor detection on microblogs. In Proceedings of the 25th ACM international conference on Multimedia. ACM, 795–816.

    [13] Dhruv Khattar, Jaipal Singh Goud, Manish Gupta, and Vasudeva Varma. 2019. MVAE: Multimodal variational autoencoder for fake news detection. In The World Wide Web Conference. 2915–2921.

    [42] Arkaitz Zubiaga, Maria Liakata, and Rob Procter. 2017. Exploiting context for rumour detection in social media. In International Conference on Social Informatics. Springer, 109–123.

    展开全文
  • 融合多模态内容语义一致性的社交媒体虚假新闻检测.docx
  • EANN多模态新闻检测论文阅读

    千次阅读 2020-11-29 20:18:43
    多模态虚假新闻检测论文阅读EANN: Event Adversarial Neural Networks for Multi-Modal Fake News Detection 目的 本研究的目标是设计一个有效的假新闻识别模型,去除所有事件中不可转移的 event-specific ...
  • 本博客系本人理解该论文之后所写,非逐句翻译,预知该论文详情,请参阅论文原文。 论文标题:Multimodal Fusion with Co-Attention Networks for Fake News Detection;...但是现有谣言检测模型在融合多模态特征方面
  • 微博虚假新闻鉴别模型的设计与实现,李少愚1,徐鹏,本文主要针对当前微博虚假新闻泛滥的现状,对比国内外虚假新闻鉴别的同类型方法,从基于文本内容的角度提出并实现了以深度学习技
  • 一文看懂虚假新闻检测(附数据集 & 论文推荐)

    万次阅读 多人点赞 2019-02-19 08:37:22
    作者丨孙子荀单位丨腾讯科技高级研究员研究方向丨多模态内容质量本人过去几年一直从事内容质量方面的算法工作,近期出于兴趣对假新闻这个问题做了一些调研,简单总结一下提供读者参考...
  • 2019年11月16日,智源论坛:虚假新闻检测暨2019虚假新闻检测挑战赛颁奖仪式召开。本次挑战赛由北京智源人工智能研究院和中国科学院计算技术研究所共同举办,旨在促进互联网虚假新闻检测技...
  • 2019 年 8 月,北京智源人工智能研究院联合中科院计算所、数据评测平台 biendata,共同发布了中文多模态虚假新闻数据集,并同步开放了评测竞赛(2019 年 8 ...
  • AAAI 2021 | 多模态最新进展解读

    千次阅读 2021-03-22 00:52:26
    点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达本文转载自:智源社区 | 作者:孙宇冲单位:中国人民大学多模态学习旨在使计算机拥有处理不同来源信息的能力,近年来成为...
  • 基于深度多模态网络的季节不变语义分割 (略读) 原文 Season-Invariant Semantic Segmentation with A Deep Multimodal Network 摘要 语义场景理解对于越野行驶的自主车辆来说是一种有用的能力。虽然摄像头是用于...
  • 引言随着计算机视觉和自然语言处理的发展,有越来越的研究人员把目光转向于如何结合多种模态的信息完成更现实且更具有挑战性的任务。本次Fudan DISC实验室将分享EMNLP2020和ICL...
  • 虚假谣言,新闻检测与分析论文

    千次阅读 2020-04-24 11:29:51
    多模态虚假新闻检测的两篇重要论文: Multimodal Fusion with RNN for Rumor Detection on Microblogs 上面这篇文章引入了注意力机制,看这篇经典论文: 《Recurrent Models of Visual Attention》 EANN:...
  • 谣言检测文献阅读一—A Review on Rumour Prediction and Veracity Assessment in Online Social Network 谣言检测文献阅读二—Earlier detection of rumors in online social networks using certainty‑factor‑...
  • 嘿,记得给“机器学习与推荐算法”添加星标本文所介绍被CCF A类会议WWW2022接收的题为《Veracity-aware and Event-driven ...该论文所关注的问题是如何从个体用户的角度有效地减少假新闻(fake news)的传播。现有假...
  • 9 型标题党,可以通过多模态的分类问题直接建模,类似无营养、水文、假新闻等。 举例 断章取义(I, II,IV) 标题:刘德华演唱会现场 耍大牌 !怒骂保安场面失控! 内容:安保动作过大,刘德华保护歌迷安全 故作玄...
  • 本文对比方法只选用了两个,现有的虚假新闻检测多模态模型已经很多了,为什么不进行对比呢? 参考文献: [1] Ali Furkan Biten, Lluis Gomez, Marc¸al Rusinol, and Dimosthenis Karatzas. 2019. Good news, ...
  • 谣言检测文献阅读一—A Review on Rumour Prediction and Veracity Assessment in Online Social Network 谣言检测文献阅读二—Earlier detection of rumors in online social networks using certainty‑factor‑...
  • 关键词:假新闻检测多模态;知识;图卷积 文章目录1 摘要2 引言3 方法3.1 问题定义3.2 整体框架3.3 知识蒸馏3.4 多模态内容的图构建3.5 知识驱动的多模态图卷积网络(KMGCN)4 实验4.1 实验.
  • (单模态+多模态/数据+代码) 3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进 4.国内首个面向工业级实战的点云处理课程 5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解 6.彻底搞懂视觉-惯性SLAM:基于VINS-...
  • 关键词:假新闻检测,社交网络,情感,multimodal,Gate 文章目录1 摘要2 引言3 模型3.1 建模发布者情感3.2 建模社交情感3.3 DEAN框架4 实验5 总结 1 摘要 本文要解决的任务是利用文本中的情感信息,进行假新闻...
  • 新闻背后 今年的多模态发展态势源自几十年来坚实的研究基础。 早在 1989 年,约翰霍普金斯大学和加州大学圣迭戈分校的研究人员就开发出一种基于元音的分类系统,用以识别人类语音中的音频与视觉数据。 接下来的二十...
  • ” 3)多模态 大部分讨论都涉及了多模态模型的重要性,多模态模型是对来自其他模态(例如图像、语音等)的数据进行训练的语言模型。参会者大体上同意,大型多模态模型将变得更加普遍,并实现更多功能。实际上,在...
  • 关键词:假新闻检测;图像;频域;像素域;CNN;RNN;attention 文章目录1 摘要2 引言3 模型3.1 模型概览3.2 频域子网络3.3 像素域子网络3.4 融合子网络4 实验5 总结 1 摘要 本文主要是利用新闻的图像信息,将频域...
  • 哈喽大家好,这里是NewBeeNLP。今天趁着端午休假,归类梳理了下之前的原创文章,不知道你是从哪篇文章开始关注的呢????非常感谢一年来的喜欢和支持,不管是入门小白还是行业老司机,希...

空空如也

空空如也

1 2 3 4 5 6
收藏数 113
精华内容 45
关键字:

多模态虚假新闻检测