精华内容
下载资源
问答
  • 关于it职业素养论文

    2017-11-04 23:27:24
    中国每年毕业的IT专业学生数量远高于美国和印度,但供求矛盾依旧突出。很多IT企业苦于实用型IT新生力量缺乏,而大量的IT专业学生却为就业问题烦恼
  • Set It and Forget It! Turnkey ECC for Instant Integration:设置即可忘!提供即时集成一站式ECC前述关于paper椭圆曲线加密ECC正文ECC背景GOSTECC单元测试:ECCKAT生成ECC层:ECCKIILA结果心得 前述 坐标2021.1....

    Set It and Forget It! Turnkey ECC for Instant Integration:设置即可忘!提供即时集成的一站式ECC

    前述

    坐标2021.1.14
    看论文真是隔领域如隔山,隔壁的区块链看得我虽懵懂但津津有味,今天的ECC看得我一头雾水还自惭形秽。。。o(╥﹏╥)o

    关于paper

    首先论文的题目:“turnkey”-一站式方案(英语:Turnkey project,又称turnkey,turn-key),是一种专案类型,指的是卖方将专案架设好并调整完成,在可立即使用的情况下卖给买家,是科技业中一种常见的技术转移方式。 “卖方什么事情都帮你搞定了,买方最后只需要拿钥匙验收就可以了”[百度百科]
    该论文实现了ECC堆栈的自动化实现、测试和集成,旨在提供一个集成的ECC架构,解决密码学上的ECC一些问题,以自动化的方式实现,跨越密码学研究成果和部署的软件之间的鸿沟。
    Keyword:applied cryptography; public key cryptography; elliptic curve cryp-tography; software engineering; software testing; formal verification; GOST; NSS; OpenSSL

    成果在 https://gitlab.com/nisec/ecckiila,汗,得现下git,彩笔属性暴露无遗

    椭圆曲线加密ECC

    ECC椭圆曲线加解密原理详解(配图). <—大佬们都好会写,膜
    椭圆曲线方程:y2=x3+ax+b。。。
    阿贝尔群运算:相加、倍点。。。
    有限域运算(mod p),注:如果椭圆曲线上一点P,存在最小的正整数n使得数乘nP=无穷远点O∞,则称n为P的阶;否则为无限阶。。。
    ECC加密过程。。。

    正文

    ECC背景

    短Weierstrass曲线 Ew:y2=x3+ax+b,a∈GF( p),b∈GF( p).
    假设E的元素个数等于h·q,其中q是一个素数,lg(q)≈lg(P),h∈{1,4,8}。P为E上的定点,当4整除h,有:
    Twisted Edwards 曲线 Et:eu2+v2=1+du2v2,二者元素个数相同,且线上的点具有一 一对应的关系。
    1、Short Weierstrass曲线上的投影点:混合点加法都以投影点和仿射点作为输入,O是例外,它没有仿射表示——异常过程攻击。
    2、Twisted Edwards曲线上的投影点:O不会对加法产生异常。

    ECC加密三步:
    (1)Key generation:给定一个q阶点g,用户随机均匀地从{1, . . . ,q−1}选择一个密钥α,并计算公钥P=[α]g。
    (2)Key agreement with cofactor clearing (ECC CDH):Alice生成私钥αa∈{1, . . . ,q−1}和公钥Pa=[αa]g;Bob生成αb和Pb=[αb]g。接下来,Alice和Bob分别计算sab=[h·αa]Pb和sba=[h·αb]Pa。因此,sab=[h·αa]Pb=[h·αa·αb]g=[h·αb·αa]g=[h·αb]Pa=sba是共享密钥。h的乘法称为辅因子清除
    (3)Digital signature algorithm (ECDSA):用一个公式签名(r,s)

    GOST

    1、数字签名:与上述相同。RFC 4357[39]中描述了前三条lg(p)=256的曲线,所有这些曲线都只有平凡的余因子h=1,即它们是循环群,所有曲线点都可以是合法的公钥。采用新的数字签名标准后,标准化了两条lg(p)=512和h=1的曲线,以及两条h=4的Twisted Edwards曲线:一条lg(p)=256,另一条lg(p)=512,所有这些都在RFC 7836[44]中描述。一个重要的方面是Twisted Edwards曲线仍然指定为短曲线由于兼容性。
    2、密钥生成:无规定,随机数。
    3、密钥协议:VKO,使用了UKM:双方已知的可选非秘密参数,VKO直接在ECC级别对UKM进行编码。
    4、公钥加密:根据GOST R 34.10,经常使用不正确的短语加密,但实际上从未使用过非对称密钥加密。相反,VKO计算一个共享密钥,然后对称加密算法使用该密钥进行数据加密。因此,它是混合加密。

    GOST OpenSSL Engine:gost engine是作为GOST加密算法的参考实现而创建的,有各种加密部分的实现
    支持密钥生成、密钥协议(用OpenSSL术语派生)、数字签名和验证以及混合加密/解密。它支持相关RFCs的所有曲线,从测试曲线到h=1短曲线,再到h=4短曲线,具有Twisted Edwards等值。在标准化级别上,总共有八条具有多个对象标识符(OID)别名的不同曲线。

    ECC单元测试:ECCKAT

    用于ECC实现的库无关单元和回归测试框架
    使用数据驱动测试(DDT)方法,严重依赖于已知答案测试(KATs)

    流程

    • 从各种来源(如标准、RFC和验证工作)收集现有的KATs;-ECC-CDH、ECDSA、确定性ECDSA的各种曲线测试
    • 用负测试和潜在的拐角情况来增强这些KAT,并使用独立的 测试中实现(IUT)扩展到任意曲线;-扩展到素数域和二进制域上的一般曲线,一个最显著的缺陷是缺乏对ECC-CDH的负测试
      —具体:— 即曲线h≠1,ECCKAT生成ECC CDH的负测试,如下所示。首先,用SageMath方法找到一个完全椭圆曲线群的生成元,即如果群是循环的,则找到一个 hq阶点,或者在(实际上,很少见的)非循环情况下找到一个最大阶的生成元。然后,q标量乘产生一个最大的小子群的恶意生成器。这正是应该导致ECC-CDH协议失败的对等点,因为清除辅因子(即标量和h之间的整数乘法)将导致产生的标量乘法产生O:对等点具有h阶(循环情况)或h的某些除数(非循环情况)。
    • 以标准化格式输出这些测试,易于下游使用,以便集成到特定于库的测试工具中。ECCKAT目前支持的三个后端:测试万物协议(TAP)-下游项目必须解析TAP测试本身;OpenSSL的测试框架-确定性ECDSA KATs能够顺利地集成,但经典的ECDSA不能;gost-engine的测试框架-本文提出,目前不支持GOST数字签名

    应用在了几个发现缺陷的地方:ECC标量乘法失败、ECC CDH漏洞、VKO漏洞

    生成ECC层:ECCKIILA

    它允许动态创建有关ECC层的C代码
    ECCKIILA流程图,来自原文
    1、域上的计算:从fiat-crypto项目获得了GF( p)算法的大部分
    2、关于两条曲线:gost-engine中的大多数传统曲线都工作在素数基数q≈p的曲线Ew上,但其中两条曲线集中在基数4q为素数q≈p的曲线上。对于这两条特殊曲线,gost-engine曲线在规范级别以Short Weierstrass形式表示(即“在线”或序列化时),但在内部我们使用Twisted Edwards曲线Et 表示。此外,我们通过将(4)和(3)写成投影形式来实现连接Ew-Et的映射,以延迟GF §中代价高昂的逆。
    3、点加。。。
    4、点乘。。。
    5、装配:ECCKiila目前支持三个后端:OpenSSL、NSS和gost engine。对于OpenSSL,ECCKiila生成一个EC_GROUP结构,它是曲线的OpenSSL内部表示,带有用于各种操作的函数指针。我们为三个相关的函数指针设计了简单的包装器,它们是浅层的,最终(在检查参数是否正确并将输入转换为预期格式之后)调用图1中相应的标量乘法实现。NSS类似于ECGroup结构。gost-engine装配(大部分)将它与OpenSSL的EC模块分离,因为它只需要支持带有显式参数的GOST曲线。

    结果

    应用程序级视图,完全集成,测量了未修改的OpenSSL3.0alpha、gost-engine和NSS3.53(称为基线)以及随后使用ECCKiila输出(集成)修改的相同版本的时间。对于它们中的每一个,我们测量了第2节中描述的操作的计时,例如密钥生成、密钥协商(派生)、签名和验证。。。
    gitlab上,有机会下载看看。。。

    心得

    稀里糊涂的,仿佛看懂了,又仿佛啥都没看懂,囧,明日再战
    特此声明,该博文所写均为本人自己理解,如有争议以论文原作者为准,(鞠躬

    展开全文
  • 科技故事 这是我有关计算机网络的课程的最后一篇论文。 Techtale是一款有关“学习和玩耍”的游戏,显示有关IT的内容。
  • 一篇关于kriging的论文

    2014-02-28 23:32:40
    regionalized variable theory.It depends onexpressing spatial variation of the property in terms ofthe variogram,and itminimizesthe predictionerrors whichare themselvesestimated. We describethe ...
  • IT行业资格认证 论文

    2013-05-10 10:29:47
    关于IT资格认证考试课程论文,写是网上书店系统
  • Set It and Forget It! Turnkey ECC for Instant Integration:设置即可忘!提供即时集成一站式ECC前述关于paper椭圆曲线加密ECC正文ECC背景GOSTECC单元测试:ECCKAT生成ECC层:ECCKIILA结果心得 前述 坐标2021.1....

    前述

    坐标2021.1.21
    新的一周,汇报CCS,还是选了应用密码学主题,一口气看了4篇,人都看傻了。。。

    关于paper

    本文是关于数据库安全的,存在对于一维数据库的很多攻击——基于范围查询(访问模式泄漏/已知查询分布/搜索模式泄漏)
    核心:对二维数据库进行探讨
    Keyword:Encrypted Database; Database Reconstruction; Attack

    一些概念

    • 二维数据库:DR,D中的记录称为点,是一个R元组,元组索引为 j
    • 范围查询:一对q=(c,d)∈D2,响应一组标识符集合,即位于c和d之间的矩形中的点。
    • 多重响应集:RM(D),是响应的集合,因为不同的查询可能响应相同的记录,所以多重。去重后记为RS(D).
    • 泄漏等价数据库:指响应多重集完全相同的数据库,记为E(D).
    • 全数据库重构FDR,给定某个数据库的RM(D),计算E(D).

    正文

    定义的工具

    (1)反射:一个点关于主对角线的对称点
    (2)查询密度到域的两个角围成的面积的乘积,对于点v(v0,v1)和w(w0,w1)且v<=w,公式 ρv,w=v0v1(N0+1-w0)(N1+1-w1),N0和N1分别是域的长宽。引理:点与其反射具有相同的查询密度
    (3)根据查询密度推断点的位置:引理a:设α∈Z,则方程ρx=α至多有2(N0+N1)个整数解x。引理b:已知ρx,ρv,x,v<=x,则x至多有两个整数解—画线,找交点
    (4)定义的方法:第一步是确定“包含”数据库其余部分的2、3或4个端点;特别是这些点将共同实现每个维度的最大值和最小值。我们通过寻找一组点的极小集来找到这些点,使得它们在查询中的同时出现意味着整个数据库都在该查询中。然后,我们通过仔细应用引理a和b,代数地求解D中这些点的可能赋值,得到一个多项式解列表。然后,对于每个可能的解,我们恢复一系列等价的数据库族,由它们自由移动的“组件”组织起来。取所有族的并作为极值点的可能解,得到E(D)。

    分类等价数据库

    • 组件:定义D的组件C,C中的每个点都支配(>=)或被支配(<=) 非C中的点。若组件上的所有点都可反射(反射点在D上),则组件可反射。引理:任何数据库都可以被组件唯一地划分。
    • 等价的引理:设C为数据库D的可反射组件,每个点 p∈C的反射σ( p)构成组件C′,用C′替换C得到D′,则D和D′是等价的。
    • 分类的定理:任何等价于D的数据库都可以从少量的“种子”数据库反射它们的组件来形成。

    全数据库重构

    攻击概述

    (1)识别数据库的极值点,包括任何拐角点。
    (2)提取最左侧、左侧和最右侧、右侧的点,并将剩余点分为三组:一组是所有点位于左侧和右侧上方,一组是所有点位于它们之间,另一组是所有点位于它们下方。
    (3)我们找到所有可能的左右点的位置,并用它们来识别数据库中每个点的一个或两个位置。
    (4)利用恢复的位置,将数据库划分为多个组件。
    (5)我们将每个分区中的点的位置修剪为每个点一个位置。

    预处理

    给定RM(D),生成相应的RS(D)。——去重
    对RM(D)和RS(D)进行预处理,确保域中的每个值最多对应一个标识符。

    极端情况

    极值点的极小点集E,E中只有2/3/4个点的情况
    只需遍历大小为2、3和4的所有极值点子集,然后选取第一个子集,这样包含该子集中所有点的RS(D)中的最小响应就是最大的响应
    图源原论文
    数据库中极值点的最小集的三种互斥情形:(1)两个corner,p和q;(2)一个corner,q;(3)无corner。

    对数据库分段

    给定一组由算法1计算的left、right、bot和top的极值点,我们的目标是根据它们相对于极值点的垂直(第二坐标)排列,将数据库中D的点分为三组,分别是:S1、S2和S3。
    图源原论文
    将数据库分割为三组点。

    找到候选位置

    首先,我们使用ρleft来计算left使得left0∈[N0]且left1∈[N1]。我们最多可以得到2(N0+N1)个解,如引理a所示。然后我们使用第二个参数,ρleft,right 得到方程组,然后求解left0、left1、right0和right1的所有有效解。一旦我们确定了left、right位置,我们就可以用引理b来计算剩余记录的至多两个潜在解。

    将数据库划分为多个组件

    把D的所有点投影到主对角线上,那么一个组件的点的投影沿着对角线是连续的。该算法通过“向上走”对角线并跟踪到目前为止遇到的投影点的IDs来找到可反射组件。一个组件被形成,一旦它的两个投影点都被看到。

    修剪候选重构

    已经获得可能的数据库族及其(可反射和不可反射)组件。为了实现FDR,必须删减解集,并为每个组件确定1或2种可能的配置。
    我们将遍历每个族中的每个组件。对于每个组件C,我们创建一个图G,其节点是C的标识符。与算法5类似,我们在对角线上找到每个标识符的低和高投影。如果由(low(ID1)、high(ID1))和(low(ID2)、high(ID2))生成的框相交于多个点,我们再次“向上走”对角线,在ID1和ID2之间添加一条边。更正式地说,当high(ID1)>low(ID2)和high(ID2)>low(ID1)时。任何high(ID)=low(ID)的标识符就G而言被忽略。图12说明了图G的结构。
    图源原论文
    图12:(左)域[19]×[19]上有7条记录和3个组件的数据库。真实点用实心圆表示,它们的反射用空圆表示,它们在主对角线上的投影用十字记号表示。(右)由算法3构造的组件图,其中两条记录之间的边表示固定一条记录的点固定了另一条记录的点。

    对图G进行深度优先搜索。在搜索的每个步骤中,我们遍历一些边(ID1,ID2),其中至少有一个标识符,比如ID1,只有一个位置,比如r。如果另一个标识符有两个u,u′,我们计算ρu,r和ρu’,r,并确定哪一个与RM(D)一致。不可能两者都是一致的,因为在这种情况下,(ID1,ID2)之间不会有边。如果没有一致的,则此数据库族无效。

    评估

    数据集:2004年、2008年和2009年的医疗成本和利用项目全国住院病人样本(HCUP,NIS)*,2012-2018年七年,芝加哥市数据门户网站的芝加哥犯罪地点的医院记录,以及德国绿党政治家马尔特·斯皮茨的手机记录。
    【https://www.hcup-us.ahrq.gov/niscoverview.jsp。我们没有对任何数据进行非对称化,我们的攻击也不是为了对医学数据进行非对称化,进行实验的作者接受了HCUP数据使用协议培训,并提交了签署的数据使用协议。】
    https://data.cityofchicago.org/Public-Safety/Crimes-2001-to-present/ijzp-q8t2
    https://crawdad.org/spitz/cellular/20110504/

    做了可反射组件的数量的结果。。。
    还做了自动查找E(D)中的D的实验,一维、二维查询的对称性破坏
    结论:对于HCUP数据库,攻击比基线要好得多,但并不完全准确。对于具有单个已知点的位置数据,对于具有大域的芝加哥数据,在E(D)中找到D的概率很高。密度较大的数据库(如具有小域的芝加哥数据)和具有许多可反射组件的数据库(如Spitz数据集)仍然显著优于基线,但性能较差。

    心得

    这篇的图很多,内容也很易懂了,可以说用到的数学知识不难,作者能这么巧妙地运用它们,并设计出精简的搜索算法,很厉害,敬仰
    掌握一个idea小技巧,从一维扩展到二维。。。
    特此声明,该博文所写均为本人自己理解,如有争议以论文原作者为准,(鞠躬

    展开全文
  • 关于 MESERP系统集成的论文 摘要IT技术的蓬勃发展对企业来说既是机遇又是挑战近年来ERP与MES系统也成功应用于工厂生产业务的管理上但是随着对ERP与MES系统的深入应用系统间的集成与协同越来越成为制约信息系统深化与...
  • 论述了关于问答系统真正原理
  • I hope it can help you .
  • 即使从理论角度来看,也有无数种解释方式,但实际上,只有Stratonovich和Itô解释以及动力学形式很重要。 将注意力集中在前两个上,它们为解决方案跃迁概率密度函数(PDF)产生了两个不同Fokker-Planck-...
  • 生成对抗性(神经)网络的论文和其他资源清单。 该站点由Holger Caesar维护。 要补充或纠正它,请通过holger-at-it-caesar.com与我联系,或访问 。 还要签出和我们的。 注意:尽管对此引用有极大的兴趣(每月约3000...
  • However, it is not always easy to establish efficient and accurate background model with fast convergence rate. In this paper, an effective scheme was proposed to improve the convergence rate of ...
  • 论文研究-关于信息技术外包资源管理模式研究.pdf, 信息技术外包(IT Outsourcing)是对信息技术(IT)资源管理、发展新思维方式.一般情况下,信息...
  • 一篇关于蛋白质组综述! Bioinformatics tools for proteomics, also called proteome informatics tools, span today a large panel of very diverse applications ranging from simple tools to compare protein...
  • *, the secondary network percolates at all time t [ 0, i.e., there exists always an infinite connected component in the secondary network under the time-... It is proven that it is still possible for
  • really-awesome-gan, 关于生成竞争性( 神经网络) 网络的论文列表 really-awesome-gan生成对抗性( 神经网络) 网络的论文和其他资源列表。 这个网站由 Holger Caesar维护。 请与我联系,或者访问 it-caesar.com 服务,...
  • 今天检查自己的算法,发现有个以前写的注释问是不是有错,印象里这个问题已经解决了啊,原来Tomita的论文还不知道放哪儿去了,妈的。查了一下,看见这个: > I pulled the following message from the website ...

    今天检查自己的算法,发现有个以前写的注释问是不是有错,印象里这个问题已经解决了啊,原来Tomita的论文还不知道放哪儿去了,妈的。查了一下,看见这个:

    > I pulled the following message from the website text search. I find it
    > hard to follow the example in the message though, and wonder if anyone
    > can further explain why Earley's parsing extension to his recognizer
    > algorithm given in his Ph.D. thesis does not correctly build parse
    > trees. Any examples or references to papers would be appreciated. Thanks.

    Elizabeth Scott presented a paper on the subject at LDTA'07: _SPPF-Style
    Parsing From Earley Recognisers_, to appear in ENTCS. An example of
    incorrect Earley parsing given there (and originally from Tomita) is the
    grammar

            S -> S S | a

    with input "aaa", for which Earley's parsing procedure allows spurious
    derivations for "aaaa" and "aa".

    过了一遍我的算法,觉得不可能这样,试了一下果然没有。隐隐约约记得Earley的算法中在Item上做链接记录哪些Item导致了当前的Item,而上面的例子中每个Item都有可能是两个情况导致的,但这些情况没有被区分。

    (正确的推导:(aa.a,a.aa),错误的推导:(a.a,aa.aa)。)

    好像类似问题在我使用Earley算法前自己完全自创算法时也碰到过,所以就避开了。该死的注释,也不写清楚点。真没心情去回忆到底怎么个来龙去脉了,而且对我这个版本的正确性还是比较有信心的。

    我的方法是State(c)上做链接,而链接到c上的a和b又是两个State。(我的State是一个对Earley Item的引用还是就是类似Earley Item的东西?早知道应该和那些论文统一用词...),不同的是,我的State记录了导致它的State的position。

    对于最终的a)S-> S S有b)S->(S S) S和c)S->S (S S),导致a最后一个S的完成的两个State,显然分别记录了导致它们的State的position,b是2,c是1,这样就不会产生混淆的情况。

    问题:关于复杂度。对于Earley的这个错误,论文里的解决方法印象里有两种:1)每次复制一个新的Item以区别的是无法保证O(n^c)的,2)用做了标记的pointer在Item之间互相指的是最坏n^3的。我的方法和这两种都不一样,复杂度有没有受影响呢?

    这两者的区别在本质上说,1生成了全部的推导树,在执行过程中每次都创建新的Item,下一次链接这个新的Item,等于记住了所有排列组合;2生成的是DAG,或者说重用了节点的推导树。

    比如对于a)S->(S S S) S,有b)S->((S S) S) S和c)S-> (S (S S)) S,但把a变成d)S->S S的时候,我们并不关注d中第一个S是符合b的情况还是c的;而最后得到不同路径的推导树,有正确的DAG就足够了(Earley的是错的DAG)

    (update:终于翻出了Earley 1970的论文,粗看了一遍初步认为跟我的实现基本一样,现在怀疑是其它书籍/论文作者给理解/弄错了。)

    我没有仔细分析我的算法和解决方法2有什么不同,粗略的想,pointer上的标记实际上也是记录了和我类似的信息,而且初步判断不会比我记录的更少。也就是说,我们记录的信息都是充分必要的,所以按理说,我的算法应该也具有同样的复杂度。

    不过,有时间还是仔细计算一遍为好。(其它:更多的,考虑我上次未完成的想法,那些找茬语法的出现根本上在于信息表达有误,在这个例子里,递归不等于迭代,表达方式本身可能就是一种失误)

    在这做个笔记,省得万一真有问题,也算个线索,别忘了。下次记得同步注释.....,尤其是这种事情,完全不写注释也避不开,因为毕竟用了别人的算法,需要重新掌握的时候碰见各种各样的信息可能就会糊涂。

    顺便骂两句很多写论文的,总是喜欢不交代清楚就贬低别人的东西。比如很多所谓的“论文”就是号称Tomita或者XX多么快,弄一些貌似专业的测试,至于细节什么都没讲。

    事实上呢,Earley如果经过一些调整,只比LR(1)慢1.9倍(Tomita的parser就是一个LR的扩展),但却可以解析全部上下文无关文法,而不仅仅是子集,扩展性也强。

    (给感兴趣的提供些背景知识:大家都知道LR是O(n)的,但事实上LR不能覆盖全部的CFG;而基本所有能处理全部CFG的都是最坏n^3的,更直观的说,大多数平时用到的语法这些parser执行起来都是O(n))

    说白了,相比LR流的算法,Earley原始版本的算法问题有二:1. 没有很好的优化。2. 没有预先计算。这俩问题已经有人做了一些工作(比如Aycock和Horspool),上面的调整就指的他们的成果。

    其次,很多LR扩展出来的generic parser和上下文相关的parser,也开始包含类似于Earley的想法,比如Tomita那个;一大票本来就是和Earley一脉相承的算法更不用提了。

    我为什么喜欢Earley算法?

    真看懂这个算法以后,就会发现相比任何达到相同功能的算法,没有比Earley算法在思路上更加简洁优美的模型了。基于抽象结果的属性,它还是对优化、扩展相对开放的,完全可以视为一个“算法框架”。

    跟这个算法相比,LR给人的感觉就是冷冰冰的;而LR的各种扩展算法如果不说丑,也会让刚接触的人难受。究其原因,是因为Earley一开始就选对了抽象的方式,而Knuth却有点直奔主题。

    简洁、通用的东西,改进和扩展相对容易;而一个精心设计的产物,再去动它就不那么痛快了。

    我相信那些基于LR扩展、而不是基于Earley改进的研究者,很大程度上是在他们初学时受到潜移默化的干扰、有太多先入为主的观念才做出在他们自己看起来“自然而然”的选择。

    所以我当初再三权衡之下,还是下决心排除干扰,选了Earley算法。

    在我看来Earley跟同时代的人相比,虽然综合水平一定比不上Knuth这样的大师,但是他绝对是一个拥有直觉的聪明人。可惜,此人后来好像投身心理学了。计算机就这么没劲?

    转载于:https://www.cnblogs.com/guaiguai/archive/2011/02/06/1949408.html

    展开全文
  • 关于生物指示物种,对样品进行分析后得出结果表明,鱼类(鲤鱼和大菱铁矿)铁,铜,汞和铅浓度高于现有标准(国际,粮农组织/世卫组织),使消费者面临高健康风险。 这项研究表明,地表水浊度高值与洗金...
  • 随着社会信息化的深入,业务运行于信息系统之上的结果,使得业务对IT的依赖程度不断增强。在这种情况下,保证信息系统能够持续不间断地给业务提供支持,并且创造更多的机会,使业务部门能够更好地达到业务目标,自然...
  • 本文中案例研究是关于为美国联邦机构公民提供公共健康和安全服务业务改进项目,是此集成框架实际应用,并揭示了此集成方法对于投资决策好处。 框架中决策过程是一套集成,有组织和适应性强管理和控制...
  • 这是比较关于IT的毕业论文,针对计算机学院或软件学院的同学.该论文遵守论文的规范,标准参考资料,可以供大家参考.不推荐直接使用.
  • 做人工智能必看45篇论文-附下载地址

    千次阅读 多人点赞 2019-06-20 16:46:37
    我们所看到的那些黑客技,其后面无不堆积了大量的论文。而且都是最新、最前沿的论文。 从某种调度来讲,他们所用的技术跟书籍里的内容确实不是一个时代。要想与时俱进,就必须改变思路——从论文入手。 今天给大家...

    在这里插入图片描述
    而AI领域的发展会是IT中最快的。我们所看到的那些黑客技,其后面无不堆积了大量的论文。而且都是最新、最前沿的论文。

    从某种调度来讲,他们所用的技术跟书籍里的内容确实不是一个时代。要想与时俱进,就必须改变思路——从论文入手。

    今天给大家介绍45篇让你跟上AI时代的论文。

    一 神经网络基础部分

    No1 wide_deep模型论文:

    关于神经元、全连接网络之类的基础结构,想必每个AI学者都有了解。那么你是否真的了解全连接网络中深层与浅层的关系呢?来看看wide_deep模型吧。这篇论文会使你对全连接有个更深刻的理解。

    关于该模型的更多介绍可以参考论文:

    https://arxiv.org/pdf/1606.07792.pdf

    在wide_deep模型中,wide模型和deep模型具有各自不同的分工。

    —wide模型:一种浅层模型。它通过大量的单层网络节点,实现对训练样本的高度拟合性。它的缺点是泛化能力很差。

    —deep模型:一种深层模型。它通过多层的非线性变化,使模型具有很好的泛化性。它的缺点是拟合度欠缺。

    将二者结合起来——用联合训练方法共享反向传播的损失值来进行训练—可以使两个模型综合优点,得到最好的结果。

    No2 wide_deep模型论文:

    为什么Adam被广泛使用?光会用可不行,还得把原理看懂。这样出去喷一喷,才会显得更有面子。

    Adam的细节请参阅论文《Adam: A Method for Stochastic Optimization》,该论文的链接网址是:

    https://arxiv.org/pdf/1412.6980v8.pdf

    No3 Targeted Dropout模型论文:

    你还再用普通的Dropout吗?我已经开始用Targeted Dropout了。比你的又快,又好。你不知道吧,赶紧学习一下。

    Targeted Dropout不再像原有的Dropout那样按照设定的比例随机丢弃部分节点,而是对现有的神经元进行排序,按照神经元的权重重要性来丢弃节点。这种方式比随机丢弃的方式更智能,效果更好。更多理论见以下论文:

    https://openreview.net/pdf?id=HkghWScuoQ

    二 图像分类部分

    No4 Xception模型论文:

    在那个图像分类的时代,谷歌的Xception系列,像x战警一样,一个一个的打破记录。其中的技术也逐渐成为AI发展的知识体系。有必要看一下。或许会对自己的工作有所启发。

    详细情况请查看原论文《Xception: Deep Learning with Depthwise Separable Convolutions》,该论文网址是:

    https://arxiv.org/abs/1610.02357

    No5 残差结构论文:

    运气好到没朋友,现有模型,后完善理论指的就是残差结构这哥们。他的传奇导致即使到今天的AI技术,也无法将它割舍,就来常微分方程都得拿它比肩。快来学学吧。用处大着呢。好多模型都拿他当先锋。

    利用残差结构,可以使得网络达到上百层的深度。详情请参阅原始论文《Deep ResidualLearning for Image Recognition》,该论文网址是:

    https://arxiv.org/abs/1512.03385

    No6 空洞卷积论文:

    NasNet的招牌动作,虽然不是出于NASNet,但是却被人家用得如火纯青。有时不得不惊叹,机器设计出来的模型还真实跟人设计的不一样!

    想知道空洞卷积的感受野为什么与层数呈指数级关系吗?

    细节请查看原论文《Multi-scale context aggregation by dilated convolutions》,该论文网址是:

    https://arxiv.org/abs/1511.07122v3

    No7 DenseNet论文:

    这个模型使我想到了“一根筋”,再次证明了只有轴的人才能成大事!令类的模型,神奇的效果,快来体验一下吧。这可是比华佗还牛的神医哦!

    有关DenseNet模型的细节,请参考原始论文《Densely Connected Convolutional Networks》,该论文的连接是:

    https://arxiv.org/abs/1608.06993

    No8 EfficientNet模型论文:

    知道目前位置图像分类界谁是老大吗? 来,看看这个!

    EfficientNet模型的论文地址如下:

    https://arxiv.org/pdf/1905.11946.pdf

    No9 Grad-CAM模型论文:

    如果你能把神经元搞得透彻,你也会想到这个点子。不想聊太多!一个字“绝”!这TMD才叫卷积网络的可视化!

    详细情况请参阅论文《Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization》,该论文的链接网址是:

    https://arxiv.org/pdf/1610.02391.pdf

    No10 分类模型泛化能力论文:

    知道为啥都喜欢使用ResNet模型当先锋吗?运气好就是运气好!好到大家都喜欢用它,还说不出为啥它那么好!反正就是好,不信的话看看这篇论文的实验结果。

    论文中,在选取模型的建议中,多次提到了ResNet模型。原因是,ResNet模型在Imgnet数据集上输出的特征向量所表现的泛化能力是最强的。具体可以参考以下论文:

    https://arxiv.org/pdf/1805.08974.pdf

    三 批量正则化部分

    No11 批量正则化论文:

    这个没的说,必修课,不懂的化,会被鄙视成渣渣!

    论文《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》,该论文网址是:

    https://arxiv.org/abs/1502.03167

    No12 实例归一化论文:

    时代不同了,批量归一化也升级了,赶紧学学新的归一化吧。

    在对抗神经网络模型、风格转换这类生成式任务中,常用实例归一化取代批量归一化。因为,生成式任务的本质是——将生成样本的特征分布与目标样本的特征分布进行匹配。生成式任务中的每个样本都有独立的风格,不应该与批次中其他的样本产生太多联系。所以,实例归一化适用于解决这种基于个体的样本分布问题。详细说明见以下链接:

    https://arxiv.org/abs/1607.08022

    No13 ReNorm算法论文:

    ReNorm算法与BatchNorm算法一样,注重对全局数据的归一化,即对输入数据的形状中的N维度、H维度、W维度做归一化处理。不同的是,ReNorm算法在BatchNorm算法上做了一些改进,使得模型在小批次场景中也有良好的效果。具体论文见以下链接:

    https://arxiv.org/pdf/1702.03275.pdf

    No14 GroupNorm算法论文:

    GroupNorm算法是介于LayerNorm算法和InstanceNorm算法之间的算法。它首先将通道分为许多组(group),再对每一组做归一化处理。

    GroupNorm算法与ReNorm算法的作用类似,都是为了解决BatchNorm算法对批次大小的依赖。具体论文见下方链接:

    https://arxiv.org/abs/1803.08494

    No15 SwitchableNorm算法论文:

    我们国人做产品都喜欢这么干!all in one ,好吧。既然那么多批量归一化的方法。来,来,来,我们来个all in one吧。不服来辩,我这啥都有!

    SwitchableNorm算法是将BN算法、LN算法、IN算法结合起来使用,并为每个算法都赋予权重,让网络自己去学习归一化层应该使用什么方法。具体论文见下方链接:

    https://arxiv.org/abs/1806.10779

    四 注意力部分

    No16 大道至简的注意力论文:

    把AI搞成玄学也就算了!居然还扯到道家了!谷歌的工程师真实中外通吃啊!搞出来了一个只用注意力就能做事的模型,连卷积都不要了!你所好玩不好玩!至简不至简!刺激不刺激!

    大名鼎鼎的Attention is All You Need 注意力机制论文

    注意力机制因2017年谷歌的一篇论文Attention is All You Need而名声大噪。下面就来介绍该技术的具体内容。如果想了解更多,还可以参考原论文,具体地址如下:

    https://arxiv.org/abs/1706.03762

    No17-18 孪生注意力论文:

    好比LSTM与GRU一样,注意力他们家也除了一对双胞胎,长得略微有点不同。但是功能一样,都能吃能喝,还能注意。老虎老鼠傻傻的不清楚!

    —BahdanauAttention:https://arxiv.org/abs/1409.0473。

    —LuongAttention:https://arxiv.org/abs/1508.04025。

    No19 各自升级的孪生注意力论文:

    话说这对双胞胎,出生后就分开了。各自学的不同的语言,一个学习汉语,一个学习中文。若干年后,见面,发现二者的能力还是一样!

    BahdanauAttention注意力升级成了normed_BahdanauAttention,而LuongAttention注意力升级成了scaled_LuongAttention。都一样的效果,你爱用哪个用哪个吧!

    例如:

    在BahdanauAttention类中有一个权重归一化的版本(normed_BahdanauAttention),它可以加快随机梯度下降的收敛速度。在使用时,将初始化函数中的参数normalize设为True即可。

    具体可以参考以下论文:

    https://arxiv.org/pdf/1602.07868.pdf

    No20 单调注意力机制论文:

    老公主动表忠心,我以后不看别的美女。老婆觉得不够,再加个限制:你以后不准看别的女人!于是单调注意力就出来了。

    单调注意力机制(monotonic attention),是在原有注意力机制上添加了一个单调约束。该单调约束的内容为:

    (1)假设在生成输出序列过程中,模型是以从左到右的方式处理输入序列的。

    (2)当某个输入序列所对应的输出受到关注时,在该输入序列之前出现的其他输入将不能在后面的输出中被关注。

    即已经被关注过的输入序列,其前面的序列中不再被关注。

    更多描述可以参考以下论文:

    https://arxiv.org/pdf/1704.00784.pdf

    No21 混合注意力机制论文:

    这个注意力很强大,比一般的注意力专注的地方更多,信息更丰富。我已经注意你很久了!呵呵呵~~~

    因为混合注意力中含有位置信息,所以它可以在输入序列中选择下一个编码的位置。这样的机制更适用于输出序列大于输入序列的Seq2Seq任务,例如语音合成任务。

    具体可以参考以下论文:

    https://arxiv.org/pdf/1506.07503.pdf

    五 高级的卷积网络知识

    No22 胶囊网络与动态路由的论文:

    这是一股为图像分类降温的寒风,深刻而又尖锐的点出了卷积网络的硬伤! 从事最大池化再无翻身之日。

    虽然胶囊网络再实际应用中,不像它的理论那么牛,但是对AI的帮助,卷积的理解是革命性的。非常值得一读。另外,这也是一篇绝对让你对数学彻底绝望的论文。花几根白头发把里面的算法啃下来吧。这样你与大神就能更近一步。

    胶囊网络分为主胶囊与数字胶囊,主胶囊与数字胶囊之间的耦合系数是通过训练得来的。在训练过程中,耦合系数的更新不是通过反向梯度传播实现的,而是采用动态路由选择算法完成的。该算法来自以下论文链接:

    https://arxiv.org/pdf/1710.09829.pdf

    目前胶囊网络的研究还处于初级阶段,随着人们研究的深入,相信这些问题会得到解决。

    No23 矩阵胶囊网络与EM路由算法:

    如果你觉得不过瘾,那么还可以再看一篇。继续自虐一下。

    带有EM(期望最大化)路由的矩阵胶囊网络是动态路由胶囊网络的一个改进版本。论文链接如下:

    https://openreview.net/pdf?id=HJWLfGWRb

    No24 胶囊网络的其它用处:

    胶囊网络混身是宝,但就是自己不争气。这也说明还有上升的空间。就拿其中一个动态路由算法来讲,居然比普通的注意力还好。

    看完之后,相信你一定会手痒!要不要也试试?把你的注意力换一下。值得你尝试,会有彩蛋的!

    该论文的实践也证明,与原有的注意力机制相比,动态路由算法确实在精度上有所提升。具体介绍可见以下论文:

    https://arxiv.org/pdf/1806.01501.pdf

    No25 卷积网络新玩法TextCNN模型:

    早先小编在一个项目中,自己用卷积网络处理字符数据。自己感觉很Happy。没想到,无意间居然发现了一篇同样这么干的论文。居然还有个名字,叫TextCNN。哎!可惜啊!小编文化少,只会写代码,不会写论文。

    TextCNN模型是利用卷积神经网络对文本进行分类的算法,由 Yoon Kim 在 Convolutional Neural Networks for Sentence Classification 一文中提出。论文地址:

    https://arxiv.org/pdf/1408.5882.pdf

    六 图像内容处理部分

    No26 FPN模型论文(包含了ROIAlign的匹配算法):

    要是搞计算机视觉,还是要建议看一下。非常的基础。也是图像分割方面的用得最多得模型。

    FPN的原理是:将骨干网络最终特征层和中间特征层的多个尺度的特征以类似金字塔的形式融合在一起。最终的特征可以兼顾两个特点——指向收敛目标的特征准确、特征语义信息丰富。更多信息可以参考论文:

    ROIAlign层中的匹配算法也来自于这篇FPN论文,链接如下:

    https://arxiv.org/abs/1612.03144

    No27 Mask R-CNN模型论文:

    效果好,代码多!硬货!来啃吧!

    Mask R-CNN模型是一个简单、灵活、通用的对象实例分割框架。它能够有效地检测图像中的对象,并为每个实例生成高质量的分割掩码,还可以通过增加不同的分支完成不同的任务。它可以完成目标分类、目标检测、语义分割、实例分割、人体姿势识别等多种任务。具体细节可以参考以下论文:

    https://arxiv.org/abs/1703.06870

    No28 YOLO V3模型论文:

    这个模型的提点就是快!目标识别强烈推荐

    YOLO V3模型的更多信息可以参考以下链接中的论文:

    https://pjreddie.com/media/files/papers/YOLOv3.pdf

    No29 Anchor-Fress模型–FCOS模型论文:

    随着AI技术的进步Anchor-Fress模型死灰复燃(早先是YOLO V1那一批模型),这次不一样的是彻底干掉带Anchor的模型。训练起来那就一个爽!妈妈再也不用为我准备单独的Anchor标签了。

    与YOLO V1相比, FCOS模型的思想与YOLO V1模型非常相似,唯一不同的是FCOS模型没有像YOLOv1那样只考虑中心附近的点,而是利用了ground truth边框中所有的点来进行预测边框。并且通过 center-ness 分支来抑制那些效果不行的检测边框。这样FCOS 就可以改善YOLO V1模型总会漏掉部分检测边框的缺点。

    相关论文地址:

    https://arxiv.org/abs/1904.01355

    No30 Anchor-Fress模型–CornerNet-Lite模型论文:

    一样也是Anchor-Fress模型,与FCOS效果差不多少,具体看一下论文吧

    CornerNet-Lite模型。相关论文地址:

    https://arxiv.org/pdf/1904.08900.pdf

    No31 栈式沙漏网络模型–Hourglass论文:

    最初用户人的姿态估计,在符合模型中也是常被使用的模型。论文地址:

    https://arxiv.org/abs/1603.06937

    No32 OCR必修课——STN模型论文:

    可以让模型自动仿射变化,你说牛不牛!要学OCR,就得从这个开始。

    有关STN模型的论文链接如下:

    https://arxiv.org/abs/1506.02025

    七 循环神经网络部分

    No33 QRNN模型论文:

    在RNN模型的cell里,如果还只知道LSTM和GRU。那就太low了。快了补补吧:

    如果想更多了解QRNN,可以参考以下论文:

    https://arxiv.org/abs/1611.01576

    No34 SRU模型论文:

    接着来,各种RNN的Cell。又漂亮,又好吃!

    SRU单元在本质上与QRNN单元很像。从网络构建上看,SRU单元有点像QRNN单元中的一个特例,但是又比QRNN单元多了一个直连的设计。

    若需要研究SRU单元更深层面的理论,可以参考如下论文:

    https://arxiv.org/abs/1709.02755

    No35 IndRNN模型论文:

    再补一个,这可都是好cell啊!

    将IndRNN单元配合ReLu等非饱和激活函数一起使用,会使模型表现出更好的鲁棒性。

    有关IndRNN单元的更多理论,可以参考论文:

    https://arxiv.org/abs/1803.04831

    No36 IndRNN模型论文:

    最后,再来一个cell,如想要了解更多关于JANET单元的内容,可以参考以下论文:

    https://arxiv.org/abs/1804.04849

    八 AI合成部分

    No37-38 Tacotron与Tacotron-2模型论文:

    AI合成部分的经典模型,以上结构来自Tacotron与Tacotron-2两个结构,更多内容可以参考以下两篇论文:

    https://arxiv.org/pdf/1703.10135.pdf

    https://arxiv.org/pdf/1712.05884.pdf

    No39 DeblurGAN模型论文:

    图片合成的论文太多了。这里简单列几个,大体原理和思路了解,即可。

    DeblurGAN模型是一个对抗神经网络模型,由生成器模型和判别器模型组成。

    —生成器模型,根据输入的模糊图片模拟生成清晰的图片。

    —判别器模型,用在训练过程中,帮助生成器模型达到更好的效果。

    具体可以参考论文:

    https://arxiv.org/pdf/1711.07064.pdf。

    No40 AttGAN模型论文:

    同样,这也是个图片合成的。不同的是多属性合成,相对比较有意思。

    AttGAN模型由两个子模型组成:

    (1)利用编码器模型将图片特征提取出来。

    (2)将提取的特征与指定的属性值参数一起输入编码器模型中,合成出最终的人脸图片。

    更多细节可以参考论文:

    https://arxiv.org/pdf/1711.10678.pdf

    No41 RNN.WGAN模型论文:

    可以合成文本的GAN。离散数据也能干!

    RNN.WGAN模型使用了WGAN模型的方法进行训练。详细做法可以参考如下论文:

    https://arxiv.org/abs/1704.00028

    九 多任务学习

    No42 MKR模型论文:

    多任务学习模型有必要了解一下。这里推荐一个论文给你看看。

    MKR是一个多任务学习的端到端框架。该框架能够将两个不同任务的低层特征抽取出来,并融合在一起实现联合训练,从而达到最优的结果。有关MKR的更多介绍可以参考以下链接:

    https://arxiv.org/pdf/1901.08907.pdf

    十 NLP部分

    No43 BERT模型论文:

    如果你搞NLP,那么这个就不用我来介绍了。如果你准备搞NLP,那么赶紧来看看这个,跟上时代。

    BERT相关论文链接

    https://arxiv.org/abs/1810.04805

    在BERT之后,又出了好多优秀的模型。但是,还是先把这个啃下来,再看别的才不费劲。

    十一 模型攻防

    No44 FGSM模型论文:

    攻击模型的经典方法。值得掌握。

    FGSM(Fast Gradient Sign Method)是一种生成对抗样本的方法。该方法的描述如下:

    (1)将输入图片当作训练的参数,使其在训练过程中可以被调整。

    (2)在训练时,通过损失函数诱导模型对图片生成错误的分类。

    (3)当多次迭代导致模型收敛后,训练出来的图片就是所要得到的对抗样本。

    具体可以参考论文:

    https://arxiv.org/pdf/1607.02533.pdf

    No45 黑箱攻击论文:

    基于雅可比(Jacobian)矩阵的数据增强方法,是一种常用的黑箱攻击方法。该方法可以快速构建出近似于被攻击模型的决策边界,从而使用最少量的输入样本。即:构建出代替模型,并进行后续的攻击操作。

    详细请见如下链接:

    https://arxiv.org/abs/1602.02697

    这里只是列了一些基础的论文。如果这45篇论文看完。可以保证你再看到大厂的产品时,不会感觉有代沟。

    我发现在《深度学习之TensorFlow工程化项目实战》这本书中,这45个论文都讲过。在书里已经将大部分的论文转化成中文描述,并配合实际的代码案例了。作者李金洪,出至代码医生工作室。

    在这里插入图片描述

    《深度学习之TensorFlow工程化项目实战》

    书籍链接:https://h5.youzan.com/v2/goods/1y6m98eemgvfz

    推荐理由:

    • 涵盖数值、语音、语义、图像等多个领域96个有较高应用价值的深度学习案例
    • 赠送12套同步配套教学视频 + 113套源代码文件(带配套样本)
    • 内容全面,应用性强,从有监督学习到半监督学习,从简单的数据分类到语音、语言和图像分类乃至样本生成等一系列前沿技术,均有介绍
    • 语言通俗易懂,拒绝生僻的术语,拒绝生僻的公式符号,落地性强
    • 穿插了几十个需要读者注意的知识要点和难点,分享作者积累的宝贵经验

    作者简介:

    李金洪,长期拼搏在一线的高级软件工程师。先后担任过CAD算法工程师、手机游戏主程、架构师、项目经理、CTO、部门经理、资深产品总监和CEO等职务。现任代码医生工作室主程序员。精通C、C++、汇编、Python、Java和Go等编程语言;擅长神经网络、算法、协议分析、逆向和移动互联网安全架构等技术。在深度学习领域中参与过某移动互联网后台的OCR项目、某娱乐节目机器人的语音识别和声纹识别项目,以及活体检测、金融和安全等领域的多个AI项目。发布过两套关于CNTK深度学习框架的视频教程。

    展开全文
  • 我们所看到的那些黑客技,其后面无不堆积了大量的论文。而且都是最新、最前沿的论文。 从某种调度来讲,他们所用的技术跟书籍里的内容确实不是一个时代。要想与时俱进,就必须改变思路——从论文入手。 今天给大家...
  • 根据顶级期刊数据,我们根据文献计量学方法,对信息系统,组织研究和管理方面111篇论文进行了研究。 通过分析,我们知道尽管信息系统学科是一个相对较晚采用者,但在IS上下文中仍有很大空间来探索收费。 ...
  • 这项研究是关于IS敏捷构造定义以及在敏捷IS中进行感知,诊断以及选择和执行属性工作后续研究。 IS敏捷性定义为IS实时感知变化能力。 实时诊断; 并实时选择并执行响应。 架构敏捷IS是一项复杂且资源密集...
  • 我们所看到的那些黑客技,其后面无不堆积了大量的论文。而且都是最新、最前沿的论文。 从某种调度来讲,他们所用的技术跟书籍里的内容确实不是一个时代。要想与时俱进,就必须改变思路——从论文入手。 接下来就来...
  • 项目管理论文

    2012-11-06 22:49:34
    项目管理理论中关于软件项目外包采购管理探讨 107 项目管理三角形 111 项目管理体系:战略好还要管理好 112 项目管理要突出解决好四个问题 113 项目管理业绩为上 115 项目管理应树立理念 117 项目管理中...
  • 博士论文纲要

    2006-03-21 00:47:37
    基于成长型企业柔性IT架构设计第1章 绪论 1.1 问题提出 1.2 研究意义 1.3 国内外研究现状 1.4 可行性分析 1.5 本章小结第2章 关于成长型企业管理特征和组织结构 2.1 成长型企业定义 2.2 成长型企业在...

空空如也

空空如也

1 2 3 4 5 ... 7
收藏数 129
精华内容 51
关键字:

关于it的论文