精华内容
下载资源
问答
  • 人工智能发展历史概述

    万次阅读 多人点赞 2019-07-15 16:16:31
    人工智能发展道路上的大事记 ----------------详细版 从20世纪50年代开始,许多...

                              人工智能发展道路上的大事记

                                                                                                                          ----------------详细版

          从20世纪50年代开始,许多科学家,程序员,逻辑学家和理论家帮助和巩固了当代人对人工智能思想的整体理解。随着每一个新的十年,创新和发现改变了人们对人工智能领域的基本知识,以及不断的历史进步推动着人工智能从一个无法实现的幻想到当代和后代切实可以实现的现实。

                                    

    人工智能在20世纪50年代

    1950年: Alan Turing发表了“计算机器和智能”,提出了模仿游戏的想法 - 一个考虑机器是否可以思考的问题。这一建议后来成为的 图灵测试,其测量机(人工)智能。图灵的发展测试了机器的思考能力。图灵测试成为人工智能哲学的重要组成部分,人工智能在机器中讨论智能,意识和能力。

                                                      

    1952年:计算机科学家亚瑟·塞缪尔(Arthur Samuel)开发了一种跳棋计算机程序 - 第一个独立学习如何玩游戏的人。

    1955年:约翰麦卡锡和一群人创建了一个关于“人工智能”研讨会的提案。1956年,当研讨会举行时,这个词的正式诞生归功于麦卡锡。

    1955年: Allen Newell(研究员),Herbert Simon(经济学家)和Cliff Shaw(程序员)共同撰写了第一个人工智能计算机程序逻辑理论家。

    1958年: McCarthy开发了Lisp,这是人工智能研究中最受欢迎且最受青睐的编程语言。

    1959年:塞缪尔在谈到编程计算机以比编写程序的人更好地进行国际象棋游戏时创造了“机器学习”一词。

    人工智能在20世纪60年代

    人工智能领域的创新在20世纪60年代迅速发展。新的编程语言,机器人和自动机,研究以及描绘人工智能生物的电影的出现越来越受欢迎。这极大地突出了人工智能在20世纪下半叶的重要性。

    1961年: 乔治·德沃尔(George Devol)在20世纪50年代发明的工业机器人Unimate成为第一个在新泽西州通用汽车装配线上工作的机器人。它的职责包括从装配线运输压铸件并将零件焊接到汽车上 - 这一任务对人类来说是危险的。

    1961年:计算机科学家兼教授James Slagle开发了SAINT(符号自动INTegrator),这是一个启发式问题解决方案,其重点是新生微积分中的符号整合。

                                                       

    1964年:计算机科学家Daniel Bobrow创建了STUDENT,一个用Lisp编写的早期AI程序,解决了代数词问题。学生被认为是人工智能自然语言处理的早期里程碑。

    1965年:计算机科学家兼教授Joseph Weizenbaum开发了ELIZA,这是一个交互式计算机程序,可以用英语在功能上与英语交谈。Weizenbaum的目标是证明人工智能思维与人类思维之间的沟通是“肤浅的”,但发现许多人将拟人化特征归因于伊丽莎。

                                                            

    1966年:由Charles Rosen在其他11人的帮助下开发的机器人Shakey是第一个通用移动机器人,也被称为“第一个电子人”。

                                                               

    1968年:由Stanley Kubrick执导的科幻电影2001:A Space Odyssey发行。它具有HAL(启发式编程的算法计算机),一个有感知的计算机。HAL控制航天器的系统并与船员交互,与他们交谈,好像HAL是人,直到故障以负面方式改变HAL的相互作用。

    1968年:计算机科学教授Terry Winograd创建了早期自然语言计算机程序SHRDLU。

    人工智能在20世纪70年代

    与20世纪60年代一样,20世纪70年代让位于加速发展,尤其是机器人和机器人。然而,20世纪70年代的人工智能面临着诸多挑战,例如政府对人工智能研究的支持减少。

    1970年: WABOT-1,第一个拟人机器人,在日本早稻田大学建造。它的功能包括可移动的肢体,能够看到和交谈的能力。

                                                                       

    1973年:应用数学家詹姆斯·莱特希尔向英国科学理事会报告了人工智能研究的状况,他说:“迄今为止,该领域的任何一部分都没有发现产生的重大影响,这将导致大幅减少”通过英国政府支持人工智能研究。

    1977年:导演乔治卢卡斯的电影“星球大战”发行。这部电影采用了C-3PO,这是一个人形机器人,被设计为协议机器人,“能够流畅地播放超过七百万种通信形式。”作为C-3PO的伴侣,这部电影还采用了R2-D2--一个小型的, astromech droid,无法进行人类言语(C-3PO的逆转); 相反,R2-D2与电子蜂鸣声通信。其功能包括小型维修和副驾驶星际战斗机。

    1979年:斯坦福推车,一个遥控,配备电视的移动机器人,由当时的机械工程研究生詹姆斯·L·亚当斯于1961年创建。1979年,一个“滑块”或机械旋转,将电视摄像机从侧面移开 -当时的博士生汉斯莫拉维克补充道。在大约五个小时内,购物车成功地越过了一个没有人为干扰的充满椅子的房间,使其成为最早的自动驾驶汽车的例子之一。

                                                         

    AI在20世纪80年代

    人工智能的快速增长一直持续到20世纪80年代。尽管人工智能背后的进步和兴奋,谨慎包围了不可避免的“人工智能冬季”,这是一个资金减少和人工智能兴趣的时期。

    1980年: WABOT-2在早稻田大学建成。WABOT的这一开始允许人形机器人与人交流以及阅读乐谱并在电子琴上播放音乐。

                                                                            

    1981年:日本国际贸易和工业部为第五代计算机项目拨款8.5亿美元,该项目的目标是开发可以交谈,翻译语言,解释图片和表达人性化推理的计算机。

    1984年:由史蒂夫巴伦执导的电影“电影梦”发行。情节围绕着男人,女人和名为“埃德加”的有感知的个人电脑之间的三角恋。

    1984年:在人工智能促进协会(AAAI)上,Roger Schank(AI理论家)和Marvin Minsky(认知科学家)警告人工智能冬季,人工智能研究的兴趣和资金将首先减少。他们的警告在三年内实现了。

    1986年:梅赛德斯 - 奔驰在Ernst Dickmanns的指导下建造并发布了一辆配备摄像头和传感器的无人驾驶厢式货车。它能够在没有其他障碍物和人类驾驶员的道路上行驶高达55英里/小时。

    1988年:计算机科学家和哲学家Judea Pearl发表了“智能系统中的概率推理”.Pearl还发明了贝叶斯网络,这是一种“概率图形模型”,通过有向无环图(DAG)表示变量及其依赖关系。

    1988年:两位聊天机器人Jabberwacky和Cleverbot(20世纪90年代发布)的程序员和发明者Rollo Carpenter开发了Jabberwacky,以“以有趣,有趣和幽默的方式模拟自然人类聊天”。这是通过聊天机器人与人沟通的AI示例。

    AI在20世纪90年代

    千禧年即将结束,但这种预期只会助长人工智能在其持续的增长阶段。

    1995年:计算机科学家理查德华莱士开发了聊天机器人ALICE(人工语言互联网计算机实体),灵感来自Weizenbaum的ELIZA。ALICE与ELIZA的区别在于增加了自然语言样本数据收集。

                                                      

    1997年:计算机科学家Sepp Hochreiter和JürgenSchmidhuber开发了长短期记忆(LSTM),这是一种用于手写和语音识别的递归神经网络(RNN)架构。

                                                    

    1997年:由IBM开发的国际象棋电脑Deep Blue成为第一个赢得国际象棋比赛并与卫冕世界冠军相匹敌的系统。

    1998年: Dave Hampton和Caleb Chung发明了Furby,这是第一款儿童玩具机器人。

    1999年:与Furby一致,索尼推出了AIBO(人工智能RoBOt),这是一种价值2000美元的机器人宠物狗,通过与环境,所有者和其他AIBO的互动来“学习”。其功能包括能够理解和响应100多个语音命令并与其人类所有者进行通信。

    人工智能从2000年到2010年

    新的千禧年正在进行中 - 在Y2K的恐惧消亡之后 - 大赦继续向上发展。正如预期的那样,创造了更多的人工智能生物以及关于人工智能概念的创意媒体(特别是电影)以及它可能会走向何方。

    2000: Y2K问题,也称为2000年问题,是一类与2000年1月1日开始的电子日历数据的格式化和存储相关的计算机错误。鉴于所有的互联网软件和程序都是在20世纪初创建的,一些系统很难适应2000年(及以后)的新年格式。以前,这些自动化系统只需要改变一年中的最后两位数字; 现在,所有四位数字都必须切换 - 对技术和使用它的人来说是一个挑战。

                                                       

    2000年: Cynthia Breazeal教授开发了Kismet,一种能够识别和模拟情绪的机器人。它的结构像人脸,眼睛,嘴唇,眼睑和眉毛。

    2000年:本田发布了ASIMO,一种人工智能的人形机器人。

    2001年:由史蒂文斯皮尔伯格执导的科幻电影AI人工智能发布。这部电影是在一个充满未来主义的反乌托邦社会中进行的,并追随大卫,这是一个先进的人形儿童,具有拟人化的感受,包括爱的能力。

    2002年: i-Robot发布了Roomba,一种自动机器人真空吸尘器,可在避开障碍物的同时进行清洁。

    2004年: NASA的机器人探索漫游者精神和机遇在没有人为干预的情况下导航火星的表面。

    2004年:由Alex Proyas执导的科幻电影I,Robot发行。设置在2035年,人形机器人为人类服务,而一个人则是强烈反机器人,因为个人悲剧的结果(由机器人决定)。

    2006年: Oren Etzioni(计算机科学教授),Michele Banko和Michael Cafarella(计算机科学家)创造了“机器阅读”这一术语,将其定义为对文本的无监督自主理解。

    2007年:计算机科学教授Fei Fei Li及其同事组建了ImageNet,这是一个注释图像数据库,其目的是帮助进行物体识别软件研究。

    2009年:谷歌秘密开发了一款无人驾驶汽车。到2014年,它通过了内华达州的自驾车测试。

    AI 2010至今

    目前的十年对人工智能创新非常重要。从2010年开始,人工智能已经融入我们的日常生活中。我们使用具有语音助理的智能手机和具有“智能”功能的计算机,我们大多数人都认为这是理所当然的。人工智能不再是一个白日梦,并且已经有一段时间了。

    2010年: ImageNet推出了他们年度AI对象识别竞赛的ImageNet大规模视觉识别挑战赛(ILSVRC)。

    2010年:微软推出了Kinect for Xbox 360,这是第一款使用3D摄像头和红外探测跟踪人体运动的游戏设备。

    2011年: Watson,一个回答IBM创建的计算机的自然语言问题,击败了两个前Jeopardy!冠军,肯詹宁斯和布拉德鲁特,在电视游戏中。

                                       

    2011年: Apple发布了Siri,Apple iOS操作系统的虚拟助手。Siri使用自然语言用户界面来向其人类用户推断,观察,回答和推荐事物。它适应语音命令,并为每个用户投射“个性化体验”。

    2012年: Jeff Dean和Andrew Ng(谷歌研究人员)通过向YouTube视频展示1000万张未标记图像,培训了一个拥有16,000个处理器的大型神经网络来识别猫的图像(尽管没有提供背景信息)。

    2013年:来自卡内基梅隆大学的研究团队发布了Never Ending Image Learner(NEIL),这是一种可以比较和分析图像关系的语义机器学习系统。

    2014年:微软发布了Cortana,他们的版本是类似于iOS上的Siri的虚拟助手。

    2014年:亚马逊创建了亚马逊Alexa,一个家庭助理,发展成智能扬声器,作为个人助理。

    2015年: Elon Musk,Stephen Hawking和Steve Wozniak等3,000人签署了一封公开信,禁止开发和使用自主武器(用于战争目的)。

    2015-2017:谷歌DeepMind的AlphaGo,一个玩棋盘游戏Go的计算机程序,击败了各种(人类)冠军。

                                             

    2016年:一个名为Sophia的人形机器人由Hanson Robotics创建。她被称为第一个“机器人公民”.Sophia与以前的类人生物的区别在于她与真实的人类相似,能够看到(图像识别),做出面部表情,并通过人工智能进行交流。

    2016年: Google发布了Google Home,这是一款智能扬声器,使用人工智能充当“个人助理”,帮助用户记住任务,创建约会,并通过语音搜索信息。

    2017年: Facebook人工智能研究实验室培训了两个“对话代理”(聊天机器人),以便相互沟通,以学习如何进行谈判。然而,随着聊天机器人的交谈,他们偏离了人类语言(用英语编程)并发明了自己的语言来相互交流 - 在很大程度上展示了人工智能。

    2018年:阿里巴巴(中国科技集团)语言处理AI在斯坦福大学的阅读和理解测试中超越了人类的智慧。阿里巴巴的语言处理在一组10万个问题中得分为“82.44,对82.30” - 这是一次狭隘的失败,但仍然是失败。

    2018年:谷歌开发了BERT,这是第一个“双向,无监督的语言表示,可以使用转移学习在各种自然语言任务中使用。”

    2018年:三星推出虚拟助手Bixby。Bixby的功能包括语音,用户可以在这里与他们交谈并提出问题,建议和建议; 视觉,Bixby的“ 视觉 ”能力内置于相机应用程序中,可以看到用户看到的内容(即对象识别,搜索,购买,翻译,地标识别); 和Home,Bixby使用基于应用程序的信息来帮助用户使用和交互(例如天气和健身应用程序)。

                                                                  

    人工智能在2019年及以后会有什么期待?

    人工智能的发展正以前所未有的速度发展。话虽如此,我们可以预期,过去十年的趋势将在未来一年继续上升。2019年我们要关注的一些事项包括:

    聊天机器人 +虚拟助手:加强聊天机器人和虚拟助手自动化,提高用户体验

    自然语言处理(NLP):增加人工智能应用的NLP能力,包括(尤其是)聊天机器人和虚拟助手

    机器学习和自动机器学习: ML将转向AutoML算法,以允许开发人员和程序员在不创建特定模型的情况下解决问题

    自动驾驶汽车:尽管围绕各种故障的自动驾驶汽车存在一些不好的压力,但可以安全地假设将自动化将产品从A点驱动到B点到1的过程自动化。节省人力成本,2通过自动驾驶车辆优化购买 - 运输 - 到达消费者的过程 - 实质上 - 不会在车轮后面疲劳

    展开全文
  • 美国人工智能发展概述
  • 人工智能技术发展概述

    千次阅读 2020-06-05 10:49:59
    当前人工智能发展如火如荼,已经衍生出了许多应用技术,具体而言,可以分为13个领域:机器学习、计算机视觉、知识工程、自然语言处理、语音识别、计算机图形学、多媒体技术、人机交互技术、机器人、数据库技术、可视...

    当前人工智能发展如火如荼,已经衍生出了许多应用技术,具体而言,可以分为13个领域:机器学习、计算机视觉、知识工程、自然语言处理、语音识别、计算机图形学、多媒体技术、人机交互技术、机器人、数据库技术、可视化技术、数据挖掘、信息检索与推荐

    1. 机器学习

    机器学习是一门多领域交叉学科,设计概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习技术专门研究计算计算机怎样模拟或实现人类的学习行为,以获取新的知识技能,重新组织已有的知识结构,从而使之不断改善自身的性能。机器学习有许多经典算法:包括监督学习、无监督学习、半监督学习、强化学习、线性回归、分类与回归树、随机森林、逻辑回归、朴素贝叶斯、k最近邻、AdaBoost、K-均值算法、支持向量机、人工神经网络,其中人工神经网络由于其具有"自学习功能"、"联想存储功能"和“高速寻找最优解”的能力而成为当今机器学习最热门的研究领域。

    机器学习基本过程(来源:百度图片)
    发展历程:机器学习这一概念首创于1952年IBM科学家亚瑟·塞缪尔,他将机器学习定义为“可以提供计算机能力而无需显示编程的研究领域”,这为机器学习的发展奠定了基础,这段时间被称为机器学习的“奠基时期”。从此机器学习开始发展起来,后来在20世纪60年代到70年代末,由于当时理论研究和计算机硬件都受到极大限制,机器学习的发展几乎处于停滞状态,进入“瓶颈时期”。1985-1986年,神经网络研究人员相继提出了使用BP算法训练的多参数线性规划(MLP)理念,昆兰提出了后来非常出名的“决策树”机器学习算法,越来越多的人重新把注意力放到了机器学习领域,机器学习再度蓬勃发展起来,这段时间被称为机器学习的“重振时期”。20世纪90年代初,Vapnik等提出了支持向量机SVM的概念,这是机器学习领域的一大重要突破,那一段时期的机器学习研究也分为神经网络和SVM两派。2000年带核函数的SVM方法提出之后,SVM方法在许多任务中都获得了更好的效果,机器学习发展进入“成型时期”。2006年,神经网络研究领域领军者Hinton提出神经网络算法并在顶尖学术期刊《Science》发表文章,这开启了深度学习在学术界和工业界的浪潮,这段时期被称为机器学习的**“爆发时期”**,深度学习的出现,让图像、语音等感知类问题取得了真正意义上的突破,人工智能进入到了一个新时代。

    在这里插入图片描述
    机器学习发展历程(图片来源:Brief History of Machine Learning)

    1. 计算机视觉。

    计算机视觉技术是一门包括了计算机科学与工程、神经生理学、物理学 、信号处理、认知科学、应用数据与统计等多门学科的综合性科学技术。计算机视觉技术利用摄像机以及电脑替代人眼,从而使得计算机拥有人类的双眼所具有的份额各、分类、识别、跟踪、判别决策功能。计算机视觉包括了许多不同的研究方向,包括:物体识别和检测、语义分割、运动和跟踪、视觉问答等。近年来语义分割和视觉问答是非常热门的方向之一。

    发展历程:通常来说,1982年马尔《视觉》一书的问世,标志着计算机视觉成为了一门独立学科,计算机视觉视觉发展40多年,总体上经历了三个历程:马尔计算视觉阶段、多视几何与分层三维重建和基于学习的视觉。马尔计算机视觉分为三个层层次:计算理论、表达和算法以及算法实现。马尔认为大脑的神经计算和计算机的数值计算没有本质区别,所以并没有对“算法实现”进行探讨,主要讨论的是“计算理论”和“表达与算法”两部分。多视几何与分层三维重建的代表人物是法国INRIA的O.Faugeras、美国GE研究院的R.Hartely和英国牛津大学的A.Zisserman.多视几何的理论于2000年已基本完善,而后这方面的工作主要集中在如何提高“大数据下鲁棒性重建的计算效率”。大数据需要全自动重建,而全自动重建需要反复优化,而反复优化需要花费大量计算资源。所以,如何在保证鲁棒性的前提下快速进行大场景的三维重建是后期研究的重点。基于学习的视觉是指以机器学习为主要技术手段的计算机视觉研究,主要分为两个阶段:本世纪初的以流形学习为代表的子空间法和以深度学习为代表的视觉方法。

    1. 知识工程。

    知识工程是将知识集成到计算机系统从而完成只有特定领域专家才能完成的复杂热恩无的一门学科,其建立者是1994年图灵奖获得者费根鲍姆。知识工程从大数据中自动或半自动获取知识,建立基于知识的系统,以提供互联网智能知识服务。知识工程在许多应用中已经凸显出了越来越重要的应用价值,包括知识融合、语义搜索和推荐、问答和对话系统以及大数据分析与决策。

    发展历程:知识工程发展可以分为五个标志性的阶段:前知识工程时期、专家系统时期、万维网1.0时期、群体智能时期以及知识图谱时期。

    (1)前知识工程时期(1950-1970):这一阶段主要有两个方法——符号主义和连结主义。符号主义认为物理符号系统是智能行为的充要条件,连结主义则认为大脑是一切智能活动的基础。这一时期的知识表示方法主要有逻辑知识表示、产生式规则、语义网络等。

    (2)专家系统时期——知识工程蓬勃发展期(1970-1990):70年代,人工智能开始转向建立基于知识的系统,通过“知识库+推理机”实现机器智能,这一时期涌现出很多成功的限定领域专家系统,如MYCIN 医疗诊断专家系统、识别分子结构的DENRAL专家系统等。斯坦福人工智能实验室奠基人Feigenbaum 教授在 1980 年的一个项目报告中提出知识工程的概念, 从此确立了知识工程在人工智能中的核心地位。

    (3)万维网(1990-2000): 在1990年到2000年,出现了很多人工构建大规模知识库,包括广泛应用的英文WordNet、Cyc常识知识库,以及中文的HowNet。Web1.0万维网为人们提供了一个开放平台,使用HTML定义文本的内容,通过超链接把文本连接起来,使大众可以共享信息。W3C提出的可扩展标记语言XML,为互联网环境下大规模知识表示和共享奠定了基础。

    (4) 群体智能(2000-2006):万维网的出现使得知识从封闭知识走向开放知识,从集中构建知识成为分布群体智能知识。这个过程中出现了群体智能,群体智能最典型的代表是维基百科,维基百科由用户去建立知识,体现了互联网大众用户对知识的贡献,成为今天大规模结构化知识图谱的重要基础。

    (5) 知识图谱(2006-):从2006年起,大规模维基百科类富结构知识资源的出现和网络规模信息提取方法的进步,使得大规模知识获取方法取得了巨大进展。当前自动构建的知识库已成为语义搜索、大数据分析、智能推荐和数据集成的强大资产,在大型行业和领域中正得到广泛应用。目前知识图谱的发展和应用状况,除了通用的大规模知识图谱,各行业也在 建立行业和领域的知识图谱,比如语义搜索、问答系统、智能知识服务等。

    1. 自然语言处理

    自然语言处理是指用计算机对自然语言的形、音、义等信息进行处理,即对字、词、句、篇章的输入、输出、识别、分析、理解、生成等的操作和借工,具体表现形式包括机器翻译、文本摘要、文本分类、文本校对、信息抽取、语音合成、语音识别等。

    在这里插入图片描述
    发展历程:1950年“图灵测试”的提出被认为是自然语言处理思想的开端,这段时间自然语言处理主要采用基于规则的方法。70年代后随着互联网的高速发展,丰富的语料库成为现实,自然语言处理思潮由经验主义向理性主义过渡,基于统计的方法逐渐代替了基于规则的方法。从2008年到现在,人们开始引入深度学习来做自然语言处理研究,由最初的词向量到2013年的word2vec,将深度学习与自然语言处理的结合推向了高潮,并在机器翻译、问答系统、阅读理解等领域取得了一定成功。

    1. 语音识别。

    语音识别是让机器识别和理解说话人语音信号内容的新兴学科,目的是将语音信号转变为文本字符或者命令的智能技术,利用计算机理解讲话人的语义内容,使其听懂人类的语音,从而判断说话人的意图,是一种非常自然和有效的人机交流方式。

    在这里插入图片描述

    发展历程:起源:20世纪50年代。1952年世界上第一个语音识别系统Audry诞生,可以识别10个英文数字发音。1956年,Olson和Belar研制了可以识别一个说话人的10个单音节的系统。1959年,英国人Fry和Denes研制了一个能够识别4个元音和 9 个辅音的识别器。20世纪60年代,电子计算机开始被应用于语音识别,提出了一系列语音识别技术的新理论——动态规划线性预测分析技术。较好地解决了语音信号产生的模型问题。20世纪70年代,伴随着微电子技术的发展,语音识别领域取得突破性进展。这一时期的语音识别方法采用传统的模式识别策略。到了80年代,隐马尔可夫模型(HMM)技术逐渐成熟,并成为语音识别的主流方法,以知识为基础的语音识别的研究日益受到重视,人工神经网络(ANN)在语音识别中的应用研究逐渐兴起。20 世纪 90 年代,语音识别技术逐渐走向实用化,在建立模型、提取和优化特征参数方面取得了突破性的进展,使系统具有更好的自适应性。21 世纪之后,深度学习技术极大的促进了语音识别技术的进步,识别精度大大提高,应用得到广泛发展。

    1. 计算机图形学。

    计算机图形学是一门研究通过计算机将数据转换成图形、并在专门显示设备上显示的原理方法和技术的学科。它主要的研究内容是研究如何在计算机中表示图形,以及利用计算机进行图形的计算处理和显示的相关原理和算法,其总体框架包括数学和算法基础、建模、渲染以及人机交互技术。

    发展历程:1950年,美国MIT的旋风一号计算机配备了世界上第一台显示器——阴极射线管(CRT)来显示一些简单的图形,使得计算机摆脱了纯数值计算的单一用途,能够进行简单的图形显示,从此计算机具有了图像显示功能,但是还不能对图形进行交互操作。1962年美国MIT林肯实验室发表题为“sketchpad:一个人机交互通信的图形系统”的论文,首次使用了“Computer Graphics”这一概念,从此确立了计算机图形学正式成为一个独立学科的分支。1988年之后,光栅图形学算法开始萌芽。20世纪70年代,图形学进入了兴盛期,光栅图形学算法迅速发展,实用的CAD图形系统开始出现,真实感图形学和实体造型技术的产生成为70年代计算机图形学的两个重要进展,同时在这一时期,图形软件标准化程度提高。20世纪80年代出现了带有光栅扫描显示器的微型计算机和图形工作站,极大地推动了计算机图形学的发展。20世纪90年代以后,微机和软件系统的普及使得图形学的应用领域日益广泛,计算机图形学朝着标准化、集成化和智能化的方向发展,多媒体、人工智能、计算机可视化、虚拟现实等分支蓬勃发展,三维造型也获得了长足发展。

    1. 多媒体技术。

    多媒体技术是融合计算机、声音、文本、图像、动画、视频和通信等多种功能于一体的技术,它借助日益普及的高速信息网,实现计算机的全球联网和信息资源共享,并且它给传统的计算机系统、音频和视频设备带来方向性的变革,将对大众传媒产生深远的影响。多媒体技术涉及的内容包括:多媒体数据压缩、多媒体处理、多媒体数据存储、多媒体数据检索、多媒体著作工具、多媒体通信与分布式多媒体、多媒体专用设备技术、多媒体应用技术。

    发展历程启蒙发展阶段(起源于20世纪60年代,实现于20世纪80年代):1965年纳尔逊提出了一种把文本中遇到的相关文本组织在一起的发法——超文本,万维网上的多媒体信息正是采用了超文本思想与技术,组成了全球范围的超媒体空间。1984年Apple公司创造性地为Macintosh计算机增加了图形处理功能,改善了人机交互界面。1987年又引入“超级卡”,是Macintosh机成为更容易使用、易学习并能处理多媒体信息的机器。标准化阶段:从20世纪90年代,多媒体技术从以研究开发为重心转移到以应用为重心,因此标准化问题成为关键,先后制定了静态图像的标准——JPEG标准、视频/运动图像的标准——MPEG标准、多媒体数字通信的标准——H系列标准等。蓬勃发展阶段:这一时期的代表之一是多媒体芯片和处理器的进一步发展,现在多媒体技术及应用正在向更深层次发展,新的技术、新的应用、新的系统不断涌现。

    1. 人机交互。

    人机交互是人与计算机之间为完成某项任务所进行的信息交换过程,是一门研究系统与用户之间的交互关系的学问。鉴于人机交互对于科技发展的重要性,人机交互是现代信息技术、人工智能技术研究的热门方向。

    发展历程简单人机交互阶段:这个阶段最早是早期的手工作业,采用手工操作和依赖机器的方法使用计算机,后来发明了作业控制语言及交互命令语言,这一阶段的使用者主要是程序员。之后有了图形用户界面(GUI),由于GUI简单易学,不懂计算机的普通用户也可以熟练使用,信息产业空前发展。自然人机交互阶段:随着网络普及型发展及无线通讯技术的发展,传统的图形界面交互已经无法满足用户的需求,人机交互进入自然交互阶段。这个阶段主要有4种交互方式:多通道交互使用户能够通过言语、眼神、帘布表情等方式与计算机进行交互;情感人机交互方面,美国MIT对情感计算进行研究,目前正在开发情感机器人,IBM的“蓝眼计划”可使计算机知道人想干什么;CMU主要研究可穿戴计算机;虚拟现实是以计算机技术为核心,结合相关科学技术,生成与一定范围真实环境在视、听、触感等方面高度近似的数字化环境,虚拟现实目前已经应用到了社会生活的很多方面;智能用户界面致力于改善人机交互的高效率、有效性和自然醒的人机界面。它通过表达、推理,按照用户模型、领域模型、任务模型、谈话模型和媒体模型来实现人机交互。自然语言理解技术近年来在搜索技术方面得以广泛应用,现在,已经有越来越多的搜索引擎支持自然语言搜索特性,并有一些阶段性成果出现在商业应用中。

    1. 机器人。

    目前,智能机器人已经成为世界各国的研究热点之一,是衡量一国工业化水平的重要标志。机器人是自动执行工作的机器装置,其范围很广,可以是自主的,半自主的,工业机器人、群机器人、纳米机器人等,进几十年来,机器人技术的研究与应用,大大推动了人类的工业化和现代化进程,并逐步形成了机器人的产业链,使机器人的应用范围也日趋广泛。

    发展历程:现代机器人起源于20世纪40-50年代,美国许多国家实验室进行了机器人方面的初步探索。二战期间,在放射性材料的生产和处理过程中应用了一种简单的遥控操纵器,使得机械抓手代替操作人员的直接操作。1948年,主从式的遥控机械手正是诞生于此,开现代机器人制造之先河。20世纪50年代以后,机器人进行实用化阶段。1954年,美国的GeorgeC.Devol设计并制造了世界上第一台机器人实验装置,发表了《适用于重复作业的通用性工业机器人》一文,这种机器人可以经过编程,或者接受示教而完成简单任务。20世纪60年代,机器人产品正式问世,机器人技术开始形成。1960年,美国Consolidated Control公司研制出第一台机器人样机,同时,美国“机床与铸造公司”(AMF)设计制造了另一种可编程的机器人Versatran.这两种机器人作为商品开始在世界市场上销售,这一时期,可食用机械的机器人被称为工业机器人。1961年,美国麻省理工实验室发明了一台可以凭触觉决定物体的形态的机器人,1968年,斯坦福人工智能实验室研制除了带有手、眼、耳的计算机系统,智能机器人的研究形象逐渐丰满。20世纪70年代,机器人产业蓬勃兴起,1970年第一次国际工业机器人会议在美国举行,各种结构的机器人相继出现,而后的大规模集成电路的飞跃发展及微型计算机的普遍应用,使得机器人的控制性能得到提升而成本不断降低,进而导致了数百种机器人进入了实用化的普及阶段。进入80年代后,机器人技术在工业生产中开始逐步应用,并且向着越来越智能的方向发展,智能机器人发展主要经历了三个阶段:是可编程试教、再现型机器人,有感知能力和自适应能力的机器人,智能机器人。进入21世纪,机器人替代人的热潮高涨,服务机器人开始走进普通家庭的生活,机器人的特质与有机生命越来越接近。

    1. 数据库。

    数据库是按一定的结构和规则组织起来的相关数据的集合,是综合各用户数据形成的数据集合,是存放数据的仓库。目前,数据库技术已经成为当今信息社会中对大量数据进行组织与管理的重要技术手段,是网络信息化管理系统的基础。数据库技术与网络通信技术、人工智能技术、面向对象程序设计技术、并行计算技术等互相渗透和结合,是当前数据库技术应用的主要特征,当前具有此类特征的新型数据库系统包括如分布式数据库系统、知识库系统和主动数据库系统等。
    发展历程:数据库技术的发展根据数据模型或结构划分为三个时代:导航数据库时代、SQL/关系时代、后关系时代。数据最开始以一种原始与粗糙的方式进行管理,通过大量的分类、比较和表格绘制的机器运行数百万穿孔卡片来进行数据的处理,其运行结果在纸上打印出来或者制成新的穿孔卡片。而数据管理就是对这些穿孔卡片进行物理储存和处理。20世纪60年代,计算机开始广泛应用于数据管理,能够统一管理和共享数据的数据库管理系统(DBMS)应用而生。20世纪70年代,Codd实现了大型共享数据库的开创性关联数据模型。关系模型既可以表达层次结构模型,也可以表达导航模型、也可以表达其原生表格模型,可以根据应用程序的需要对这三种模型进行组合建模。20世纪70年代后期SQL标准化查询语言问世,它不要求用户指定对数据的存放方法,具有完全不同底层结构的数据库,结构化查询语句可以嵌套,具有极大的灵活性和强大的功能。20世纪90年代,数据库面临非字符数据的大量增加,于是面向对象的数据库应运而生,进入21世纪以后,NoSQL和NewSQL技术快速发展,NoSQL是为了解决大规模数据集合多重数据种类带来的挑战,NewSQL不仅具有NoSQL对海量数据的存储管理能力,还保持了传统数据库的特性。

    1. 可视化技术。

    可视化技术是把不同类型的数据转化为可视的表示形式,并获得对数据更深层次认识的过程。可视化将复杂的信息以图像的形式呈现出来,让这些信息更容易、更快速地被人理解,因此,它也是一种放大人类感知的图形化表示方法。目前,数据可视化可以进一步划分为科学数据可视化、信息可视化以及可视分析学三个子领域。科学可视化是针对科学数据的可视化展现技术,呈现的往往是三维场景下的时空信息。信息可视化是对各应用领域所产生数据的高层次概括,记录的是抽象化的信息。可视分析学是多领域技术结合的产物,旨在结合并利用信息可视化、人机交互、以及数据挖掘领域的相关技术,将人的判断与反馈作为数据分析中重要的一环,从而达到精准数据分析、推理及判断的目的。
    发展历程:19世纪前叶,因为受视觉表达方式创新的影响,统计图形及专题绘图领域应用得到快速发展。这一时期,数据的收集整理从科学技术和经济领域扩展到社会管理领域,对社会公共领域数据的收集标志着人们开始以科学手段进行社会研究。19世纪中叶,数据可视化领域发展进入加速期,统计学理论的建立是可视化发展的重要一步,此时数据由政府机构进行收集,数据的来源变得更加规范化。20世纪前叶,数据可视化成果在这一时期得到了推广,并开始被用于尝试解决天文学、物理学、生物学的理论成果。然而这一时期人类收集、展现数据的方式并没有得到根本的创新,统计学也没有大的发展,所以整个上半叶都是休眠期。从20世纪上半叶末到1974年这一时期被称为数据可视化领域的复苏期,在这一时期引起变革的最重要的因素就是计算机的发明,在现代统计学与计算机计算能力的共同推动下, 数据可视化开始复苏,20世纪60年代,各研究机构开始使用计算机程序取代手绘的图形,在这一时期,数据缩减图、多维标度法MD聚类图、树形图等更为新颖的数据可视化形式开始出现。数据和计算机的结合让数据可视化迎来了新的发展阶段。1975年到2011年这段时间,计算机成为数据处理的重要工具,数据可视化进入黄金时代,七十到八十年代,人们主要尝试用多维定量数据的静态图来表现静态数据,八十年代中期出现了动态统计图,后来两种方式开始合并,动态交互式的数据可视化方式成为新的发展对象。步入21世纪以来,互联网数据猛增,数据服务商开始需要从多个维度向用户提供服务,2012年进入数据驱动的时代,人们对数据可视化技术的依赖程度也不断加深,互联网的加入增加了数据更新的频率和获取的渠道,而实时数据的巨大价值只有通过有效的可视化处理才能体现,于是,如何建立一种有效的、可交互式的大数据可视化方法来表达大规模、不同类型的实时数据,成为了数据可视化这一学科的主要研究方向。

    在这里插入图片描述

    1. 数据挖掘。

    数据挖掘是指从大量的数据中自动搜索隐藏于其中的有着特殊关系性的数据和信息,并将其转化为计算机可处理的结构化表示,是知识发现的一个关键步骤。数据挖掘是一门综合的技术,涉及统计学、数据库技术和人工智能的综合,它的最重要的价值在于用数据挖掘技术改善预测模型。
    发展历程:数据搜集阶段(20世纪60年代):在这个阶段受到数据存储能力的限制,特别是当时还处在磁盘存储的阶段,因此主要解决的是数据搜集的问题,而且更多的是针对静态数据的搜集与展现,所解决的商业问题,也是基于历史结果的统计数据上的。数据分析访问阶段(20世纪80年代),关系性数据库与结构性查询语言的出现,使得动态的数据查询与展现成为可能,在这个阶段,KDD出现了,也正是在这个时期,出现了一些成熟的算法,能够“学习”数据间关系,相关领域的专家能够推测出各种数据关系的实际意义。数据仓库决策与支持阶段(20世纪90年代),OLAP与数据仓库技术的突飞猛进使得多层次的数据回溯与动态处理成为现实,人们可以用数据来获取知识,对经营进行决策,零售公司和金融团体使用数据挖掘分析数据和观察趋势以扩大客源,满足顾客需求。21世纪以来,大数据时代到来,数据挖掘已经越来越成熟,成为一门交叉学科。

    1. 信息检索与推荐。

    信息检索是计算机科学的一大领域,主要研究如何为用户访问他们感兴趣的信息提供各种便利的手段,比如对文档、网页、多媒体对象等信息的访问。信息检索的主要环节包括内容分析与编码、组成有序的信息几何以及用户提问处理和检索输出。其中信息提问与信息集合的匹配、选择是整个环节的重要部分。

    在这里插入图片描述
    发展历程数字图书馆/文档电子化时代:1954年,范内瓦·布什发表了名为“As We May Think"的文章,概括了信息检索在数字图书馆时代的特征,即对文档全文内容的快速检索。20世纪60年代,Gerard Salton创造了信息检索系统SMART,这个系统并非搜索引擎,但是具有文本索引、查询处理、结果排序等功能。在这个时代,信息检索技术主要用于封闭数据集合、单级模式或专网内的主机-终点模式。早期互联网时代:Tim Berners-Lee基于尚未被商用的互联网提出了万维网(Web)的原型建议,并于1991年建立了第一个网站http://nxoc01.cern.ch.之后谷歌、雅虎、百度等搜索业务公司快速崛起,这个时期信息检索的应用形态的特征是开放的、大规模的、实时的、多媒体的。Web2.0时代:信息搜索的发展开始更加关注用户需求,以实现内容与行为的精准web搜索,这个时期的信息检索实现了内容数据与社会各侧面的电子化数据的全面融合,这为信息推荐场景奠定了基础。信息推荐系统的演变始终伴随着网络的发展,第一代信息推荐系统使用传统网站从以下三个来源收集信息:来自购买或使用过的产品的基础内容数据;用户记录中收集的人口统计数据;以及从用户的项目偏好中收集的基于记忆的数据。第二代推荐系统通过收集社交信息,例如朋友、关注者、粉丝等。第三代推荐系统使用网上集成设备提供的信息。

    参考:《清华大学-2019人工智能发展报告》

    展开全文
  • 智能辅导系统发展历史和趋势概述.pdf
  • 人工智能发展历史概览

    千次阅读 2021-05-17 11:54:12
    在本文,我将带领大家领略一下人工智能历史上的发展历程,从宏观上对人工智能有一个大体的认识,跟上时代发展的步伐。 人工智能的提出 人工智能是在1956年作为一门新兴学科的名称正式提出的,自此之后,尽管有一些...

    进入新世纪以来,人工智能在经历了一次史上最长停滞期之后,终于又一次迎来了它的时代。一次真正属于它的时代。

    在本文,我将带领大家领略一下人工智能在历史上的发展历程,从宏观上对人工智能有一个大体的认识,跟上时代发展的步伐。

    人工智能的提出

    人工智能是在1956年作为一门新兴学科的名称正式提出的,自此之后,尽管有一些大起大落,但是到现在,它已经获得了迅速的发展,并且正在改变人类的社会的方方面面。

    1956-1969年是人工智能这个概念的提出和形成阶段。1956年夏季,由当时达特茅斯大学的年轻数学助教、现任斯坦福大学教授麦卡锡(J. MeCarthy)联合哈佛大学年轻数学和神经学家、麻省理工学院教授明斯基(M. L. Minsky),IBM公司信息研究中心负责人洛切斯特(N. Rochester),贝尔实验室信息部数学研究员香农(C. E. Shannon)共同发起,邀请普林斯顿大学的莫尔(T.Moore)和IBM公司的塞缪尔(A. L. Samuel)、麻省理工学院的塞尔夫里奇(O. Selfridge)和索罗莫夫(R. Solomonff)以及兰德(RAND)公司和卡内基梅隆大学的纽厄尔(A. Newell)、西蒙(H. A. Simon)等在美国达特茅斯大学召开了一次为时两个月的学术研讨会,讨论关于机器智能的问题。会上经麦卡锡提议正式采用了“人工智能”这一术语。麦卡锡因而被称为人工智能之父。这是一次具有历史意义的重要会议,它标志着人工智能作为一门新兴学科正式诞生了。此后,美国形成了多个人工智能研究组织,如纽厄尔和西蒙的Carnegie-RAND协作组,明斯基和麦卡锡的MIT研究组,塞缪尔的IBM工程研究组等。

    自这次会议之后的10多年间,人工智能的研究在机器学习、定理证明、模式识别、问题求解、专家系统及人工智能语言等方面都取得了许多引人注目的成就。

    人工智能在20世纪50年代的标志性事件

    1950年: Alan Turing发表了“计算机器和智能”,提出了模仿游戏的想法 - 一个考虑机器是否可以思考的问题。这一建议后来成为的 图灵测试,其测量机(人工)智能。图灵的发展测试了机器的思考能力。图灵测试成为人工智能哲学的重要组成部分,人工智能在机器中讨论智能,意识和能力。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DwDwmVCL-1621223626041)(en-resource://database/31285:1)]

    1952年:计算机科学家亚瑟·塞缪尔(Arthur Samuel)开发了一种跳棋计算机程序 - 第一个独立学习如何玩游戏的人。

    1955年:约翰麦卡锡和一群人创建了一个关于“人工智能”研讨会的提案。1956年,当研讨会举行时,这个词的正式诞生归功于麦卡锡。

    1955年: Allen Newell(研究员),Herbert Simon(经济学家)和Cliff Shaw(程序员)共同撰写了第一个人工智能计算机程序逻辑理论家。

    1958年: McCarthy开发了Lisp,这是人工智能研究中最受欢迎且最受青睐的编程语言。

    1959年:塞缪尔在谈到编程计算机以比编写程序的人更好地进行国际象棋游戏时创造了“机器学习”一词。

    人工智能在20世纪60年代的标志性事件

    1961年: 乔治·德沃尔(George Devol)在20世纪50年代发明的工业机器人Unimate成为第一个在新泽西州通用汽车装配线上工作的机器人。它的职责包括从装配线运输压铸件并将零件焊接到汽车上 - 这一任务对人类来说是危险的。

    1961年:计算机科学家兼教授James Slagle开发了SAINT(符号自动INTegrator),这是一个启发式问题解决方案,其重点是新生微积分中的符号整合。

    1964年:计算机科学家Daniel Bobrow创建了STUDENT,一个用Lisp编写的早期AI程序,解决了代数词问题。学生被认为是人工智能自然语言处理的早期里程碑。

    1965年:计算机科学家兼教授Joseph Weizenbaum开发了ELIZA,这是一个交互式计算机程序,可以用英语在功能上与英语交谈。Weizenbaum的目标是证明人工智能思维与人类思维之间的沟通是“肤浅的”,但发现许多人将拟人化特征归因于伊丽莎。

    1968年:由Stanley Kubrick执导的科幻电影2001:A Space Odyssey发行。它具有HAL(启发式编程的算法计算机),一个有感知的计算机。HAL控制航天器的系统并与船员交互,与他们交谈,好像HAL是人,直到故障以负面方式改变HAL的相互作用。

    1968年:计算机科学教授Terry Winograd创建了早期自然语言计算机程序SHRDLU。

    人工智能在20世纪70年代的标志性事件

    1970年: WABOT-1,第一个拟人机器人,在日本早稻田大学建造。它的功能包括可移动的肢体,能够看到和交谈的能力。

    1973年:应用数学家詹姆斯·莱特希尔向英国科学理事会报告了人工智能研究的状况,他说:“迄今为止,该领域的任何一部分都没有发现产生的重大影响,这将导致大幅减少”通过英国政府支持人工智能研究。

    人工智能在20世纪80年代的标志性事件

    1980年: WABOT-2在早稻田大学建成。WABOT的这一开始允许人形机器人与人交流以及阅读乐谱并在电子琴上播放音乐。

    1981年:日本国际贸易和工业部为第五代计算机项目拨款8.5亿美元,该项目的目标是开发可以交谈,翻译语言,解释图片和表达人性化推理的计算机。

    1984年:在人工智能促进协会(AAAI)上,Roger Schank(AI理论家)和Marvin Minsky(认知科学家)警告人工智能冬季,人工智能研究的兴趣和资金将首先减少。他们的警告在三年内实现了。

    1986年:梅赛德斯 - 奔驰在Ernst Dickmanns的指导下建造并发布了一辆配备摄像头和传感器的无人驾驶厢式货车。它能够在没有其他障碍物和人类驾驶员的道路上行驶高达55英里/小时。

    1988年:计算机科学家和哲学家Judea Pearl发表了“智能系统中的概率推理”.Pearl还发明了贝叶斯网络,这是一种“概率图形模型”,通过有向无环图(DAG)表示变量及其依赖关系。

    1988年:两位聊天机器人Jabberwacky和Cleverbot(20世纪90年代发布)的程序员和发明者Rollo Carpenter开发了Jabberwacky,以“以有趣,有趣和幽默的方式模拟自然人类聊天”。这是通过聊天机器人与人沟通的AI示例。

    人工智能在20世纪90年代的标志性事件

    1995年:计算机科学家理查德华莱士开发了聊天机器人ALICE(人工语言互联网计算机实体),灵感来自Weizenbaum的ELIZA。ALICE与ELIZA的区别在于增加了自然语言样本数据收集。

    1997年:计算机科学家Sepp Hochreiter和JürgenSchmidhuber开发了长短期记忆(LSTM),这是一种用于手写和语音识别的递归神经网络(RNN)架构。

    1997年:由IBM开发的国际象棋电脑Deep Blue成为第一个赢得国际象棋比赛并与卫冕世界冠军相匹敌的系统。

    人工智能在21世纪的标志性事件

    2004年: NASA的机器人探索漫游者精神和机遇在没有人为干预的情况下导航火星的表面。

    2006年: Oren Etzioni(计算机科学教授),Michele Banko和Michael Cafarella(计算机科学家)创造了“机器阅读”这一术语,将其定义为对文本的无监督自主理解。

    2007年:计算机科学教授Fei Fei Li及其同事组建了ImageNet,这是一个注释图像数据库,其目的是帮助进行物体识别软件研究。

    2009年:谷歌秘密开发了一款无人驾驶汽车。到2014年,它通过了内华达州的自驾车测试。
    2010年: ImageNet推出了他们年度AI对象识别竞赛的ImageNet大规模视觉识别挑战赛(ILSVRC)。

    2010年:微软推出了Kinect for Xbox 360,这是第一款使用3D摄像头和红外探测跟踪人体运动的游戏设备。

    2011年: Watson,一个回答IBM创建的计算机的自然语言问题,击败了两个前Jeopardy!冠军,肯詹宁斯和布拉德鲁特,在电视游戏中。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2eCt9EwG-1621223626045)(en-resource://database/31287:1)]

    2011年: Apple发布了Siri,Apple iOS操作系统的虚拟助手。Siri使用自然语言用户界面来向其人类用户推断,观察,回答和推荐事物。它适应语音命令,并为每个用户投射“个性化体验”。

    2012年: Jeff Dean和Andrew Ng(谷歌研究人员)通过向YouTube视频展示1000万张未标记图像,培训了一个拥有16,000个处理器的大型神经网络来识别猫的图像(尽管没有提供背景信息)。

    2013年:来自卡内基梅隆大学的研究团队发布了Never Ending Image Learner(NEIL),这是一种可以比较和分析图像关系的语义机器学习系统。

    2014年:微软发布了Cortana,他们的版本是类似于iOS上的Siri的虚拟助手。

    2014年:亚马逊创建了亚马逊Alexa,一个家庭助理,发展成智能扬声器,作为个人助理。

    2015年: Elon Musk,Stephen Hawking和Steve Wozniak等3,000人签署了一封公开信,禁止开发和使用自主武器(用于战争目的)。

    2015-2017:谷歌DeepMind的AlphaGo,一个玩棋盘游戏Go的计算机程序,击败了各种(人类)冠军。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-yaYds0FF-1621223626046)(en-resource://database/31289:1)]

    2016年:一个名为Sophia的人形机器人由Hanson Robotics创建。她被称为第一个“机器人公民”.Sophia与以前的类人生物的区别在于她与真实的人类相似,能够看到(图像识别),做出面部表情,并通过人工智能进行交流。

    2016年: Google发布了Google Home,这是一款智能扬声器,使用人工智能充当“个人助理”,帮助用户记住任务,创建约会,并通过语音搜索信息。

    2017年: Facebook人工智能研究实验室培训了两个“对话代理”(聊天机器人),以便相互沟通,以学习如何进行谈判。然而,随着聊天机器人的交谈,他们偏离了人类语言(用英语编程)并发明了自己的语言来相互交流 - 在很大程度上展示了人工智能。

    2018年:阿里巴巴(中国科技集团)语言处理AI在斯坦福大学的阅读和理解测试中超越了人类的智慧。阿里巴巴的语言处理在一组10万个问题中得分为“82.44,对82.30” - 这是一次狭隘的失败,但仍然是失败。

    2018年:谷歌开发了BERT,这是第一个“双向,无监督的语言表示,可以使用转移学习在各种自然语言任务中使用。”

    人工智能的发展图示

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sQAuxDQM-1621223626049)(en-resource://database/31291:1)]

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-AkSrfOh2-1621223626051)(en-resource://database/31293:1)]

    人工智能的大起大落

    起源:人工智能在五六十年代时正式提出,1950年,一位名叫马文·明斯基(后被人称为“人工智能之父”)的大四学生与他的同学邓恩·埃德蒙一起,建造了世界上第一台神经网络计算机。这也被看做是人工智能的一个起点。巧合的是,同样是在1950年,被称为“计算机之父”的阿兰·图灵提出了一个举世瞩目的想法——图灵测试。按照图灵的设想:如果一台机器能够与人类开展对话而不能被辨别出机器身份,那么这台机器就具有智能。而就在这一年,图灵还大胆预言了真正具备智能机器的可行性。1956年,在由达特茅斯学院举办的一次会议上,计算机专家约翰·麦卡锡提出了“人工智能”一词。后来,这被人们看做是人工智能正式诞生的标志。就在这次会议后不久,麦卡锡从达特茅斯搬到了MIT。同年,明斯基也搬到了这里,之后两人共同创建了世界上第一座人工智能实验室——MIT AI LAB实验室。值得追的是,茅斯会议正式确立了AI这一术语,并且开始从学术角度对AI展开了严肃而精专的研究。在那之后不久,最早的一批人工智能学者和技术开始涌现。达特茅斯会议被广泛认为是人工智能诞生的标志,从此人工智能走上了快速发展的道路。

    大起: 在1956年的这次会议之后,人工智能迎来了属于它的第一段Happy Time。在这段长达十余年的时间里,计算机被广泛应用于数学和自然语言领域,用来解决代数、几何和英语问题。这让很多研究学者看到了机器向人工智能发展的信心。甚至在当时,有很多学者认为:“二十年内,机器将能完成人能做到的一切。”

    大落:70年代,人工智能进入了一段痛苦而艰难岁月。由于科研人员在人工智能的研究中对项目难度预估不足,不仅导致与美国国防高级研究计划署的合作计划失败,还让大家对人工智能的前景蒙上了一层阴影。与此同时,社会舆论的压力也开始慢慢压向人工智能这边,导致很多研究经费被转移到了其他项目上。 
    在当时,人工智能面临的技术瓶颈主要是三个方面,第一,计算机性能不足,导致早期很多程序无法在人工智能领域得到应用;第二,问题的复杂性,早期人工智能程序主要是解决特定的问题,因为特定的问题对象少,复杂性低,可一旦问题上升维度,程序立马就不堪重负了;第三,数据量严重缺失,在当时不可能找到足够大的数据库来支撑程序进行深度学习,这很容易导致机器无法读取足够量的数据进行智能化。 
    因此,人工智能项目停滞不前,但却让一些人有机可乘,1973年Lighthill针对英国AI研究状况的报告。批评了AI在实现“宏伟目标”上的失败。由此,人工智能遭遇了长达6年的科研深渊。

    大起:1980年,卡内基梅隆大学为数字设备公司设计了一套名为XCON的“专家系统”。这是一种,采用人工智能程序的系统,可以简单的理解为“知识库+推理机”的组合,XCON是一套具有完整专业知识和经验的计算机智能系统。这套系统在1986年之前能为公司每年节省下来超过四千美元经费。有了这种商业模式后,衍生出了像Symbolics、Lisp Machines等和IntelliCorp、Aion等这样的硬件,软件公司。在这个时期,仅专家系统产业的价值就高达5亿美元。

    大落:可怜的是,命运的车轮再一次碾过人工智能,让其回到原点。仅仅在维持了7年之后,这个曾经轰动一时的人工智能系统就宣告结束历史进程。到1987年时,苹果和IBM公司生产的台式机性能都超过了Symbolics等厂商生产的通用计算机。从此,专家系统风光不再。

    大起:上世纪九十年代中期开始,随着AI技术尤其是神经网络技术的逐步发展,以及人们对AI开始抱有客观理性的认知,人工智能技术开始进入平稳发展时期。1997年5月11日,IBM的计算机系统“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫,又一次在公众领域引发了现象级的AI话题讨论。这是人工智能发展的一个重要里程。 
    2006年,Hinton在神经网络的深度学习领域取得突破,人类又一次看到机器赶超人类的希望,也是标志性的技术进步。

    改变历史的崛起:谷歌、微软、百度等互联网巨头,还有众多的初创科技公司,纷纷加入人工智能产品的战场,掀起又一轮的智能化狂潮,而且随着技术的日趋成熟和大众的广泛接受,这一次狂潮也许会架起一座现代文明与未来文明的桥梁。

    时至今日,大家对人工智能的发展有目共睹,这是一个伟大的时代。我们一步步见证了智能时代的来临。

    通过本文,相信大家对人工智能的发展有了一定的了解。

    展开全文
  • 本文从介绍人工智能及主要的思想派系,进一步系统地梳理了其发展历程、标志性成果并侧重其算法思想介绍,将这段 60余年几经沉浮的历史,以一个清晰的脉络呈现出来,以此展望人工智能AI)未来的趋势。

    人工智能将和电力一样具有颠覆性 。 --吴恩达


    如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能(AI)正赋能各个产业,推动着人类进入智能时代。

    本文从介绍人工智能及主要的思想派系,进一步系统地梳理了其发展历程、标志性成果并侧重其算法思想介绍,将这段 60余年几经沉浮的历史,以一个清晰的脉络呈现出来,以此展望人工智能(AI)未来的趋势。

    一、人工智能简介

    1.1 人工智能研究目的

    人工智能(Artificial Intelligence,AI)研究目的是通过探索智慧的实质,扩展人类智能——促使智能主体会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、专家系统等)、会学习(知识表示,机器学习等)、会行动(机器人、自动驾驶汽车等)。一个经典的AI定义是:“ 智能主体可以理解数据及从中学习,并利用知识实现特定目标和任务的能力。(A system’s ability to correctly interpret external data, to learn from such data, and to use those learnings to achieve specific goals and tasks through flexible adaptation)”

    1.2 人工智能的学派

    在人工智能的发展过程中,不同时代、学科背景的人对于智慧的理解及其实现方法有着不同的思想主张,并由此衍生了不同的学派,影响较大的学派及其代表方法如下:

    其中,符号主义及联结主义为主要的两大派系:

    • “符号主义”(Symbolicism),又称逻辑主义、计算机学派,认为认知就是通过对有意义的表示符号进行推导计算,并将学习视为逆向演绎,主张用显式的公理和逻辑体系搭建人工智能系统。如用决策树模型输入业务特征预测天气:

    • “联结主义”(Connectionism),又叫仿生学派,笃信大脑的逆向工程,主张是利用数学模型来研究人类认知的方法,用神经元的连接机制实现人工智能。如用神经网络模型输入雷达图像数据预测天气:

    二、人工智能发展史

    从始至此,人工智能(AI)便在充满未知的道路探索,曲折起伏,我们可将这段发展历程大致划分为5个阶段期:

    • 起步发展期:1943年—20世纪60年代
    • 反思发展期:20世纪70年代
    • 应用发展期:20世纪80年代
    • 平稳发展期:20世纪90年代—2010年
    • 蓬勃发展期:2011年至今

    2.1 起步发展期:1943年—20世纪60年代

    人工智能概念的提出后,发展出了符号主义、联结主义(神经网络),相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序、人机对话等,掀起人工智能发展的第一个高潮。

    • 1943年,美国神经科学家麦卡洛克(Warren McCulloch)和逻辑学家皮茨(Water Pitts)提出神经元的数学模型,这是现代人工智能学科的奠基石之一。

    • 1950年,艾伦·麦席森·图灵(Alan Mathison Turing)提出“图灵测试”(测试机器是否能表现出与人无法区分的智能),让机器产生智能这一想法开始进入人们的视野。

    • 1950年,克劳德·香农(Claude Shannon)提出计算机博弈。

    • 1956年,达特茅斯学院人工智能夏季研讨会上正式使用了人工智能(artificial intelligence,AI)这一术语。这是人类历史上第一次人工智能研讨,标志着人工智能学科的诞生。

    • 1957年,弗兰克·罗森布拉特(Frank Rosenblatt)在一台IBM-704计算机上模拟实现了一种他发明的叫做“感知机”(Perceptron)的神经网络模型。


    感知机可以被视为一种最简单形式的前馈式人工神经网络,是一种二分类的线性分类判别模型,其输入为实例的特征向量想(x1,x2…),神经元的激活函数f为sign,输出为实例的类别(+1或者-1),模型的目标是要将输入实例通过超平面将正负二类分离。

    • 1958年,David Cox提出了logistic regression。

    LR是类似于感知机结构的线性分类判别模型,主要不同在于神经元的激活函数f为sigmoid,模型的目标为(最大似然)极大化正确分类概率。

    • 1959年,Arthur Samuel给机器学习了一个明确概念:Field of study that gives computers the ability to learn without being explicitly programmed.(机器学习是研究如何让计算机不需要显式的程序也可以具备学习的能力)。

    • 1961年,Leonard Merrick Uhr 和 Charles M Vossler发表了题目为A Pattern Recognition Program That Generates, Evaluates and Adjusts its Own Operators 的模式识别论文,该文章描述了一种利用机器学习或自组织过程设计的模式识别程序的尝试。

    • 1965年,古德(I. J. Good)发表了一篇对人工智能未来可能对人类构成威胁的文章,可以算“AI威胁论”的先驱。他认为机器的超级智能和无法避免的智能爆炸最终将超出人类可控范畴。后来著名科学家霍金、发明家马斯克等人对人工智能的恐怖预言跟古德半个世界前的警告遥相呼应。

    • 1966 年,麻省理工学院科学家Joseph Weizenbaum 在 ACM 上发表了题为《ELIZA-a computer program for the study of natural language communication between man and machine》文章描述了ELIZA 的程序如何使人与计算机在一定程度上进行自然语言对话成为可能,ELIZA 的实现技术是通过关键词匹配规则对输入进行分解,而后根据分解规则所对应的重组规则来生成回复。

    • 1967年,Thomas等人提出K最近邻算法(The nearest neighbor algorithm)。

    KNN的核心思想,即给定一个训练数据集,对新的输入实例Xu,在训练数据集中找到与该实例最邻近的K个实例,以这K个实例的最多数所属类别作为新实例Xu的类别。

    • 1968年,爱德华·费根鲍姆(Edward Feigenbaum)提出首个专家系统DENDRAL,并对知识库给出了初步的定义,这也孕育了后来的第二次人工智能浪潮。该系统具有非常丰富的化学知识,可根据质谱数据帮助化学家推断分子结构。

    专家系统(Expert Systems)是AI的一个重要分支,同自然语言理解,机器人学并列为AI的三大研究方向。它的定义是使用人类专家推理的计算机模型来处理现实世界中需要专家作出解释的复杂问题,并得出与专家相同的结论,可视作“知识库(knowledge base)”和“推理机(inference machine)” 的结合。

    • 1969年,“符号主义”代表人物马文·明斯基(Marvin Minsky)的著作《感知器》提出对XOR线性不可分的问题:单层感知器无法划分XOR原数据,解决这问题需要引入更高维非线性网络(MLP, 至少需要两层),但多层网络并无有效的训练算法。这些论点给神经网络研究以沉重的打击,神经网络的研究走向长达10年的低潮时期。

    2.2 反思发展期:20世纪70年代

    人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,然而计算力及理论等的匮乏使得不切实际目标的落空,人工智能的发展走入低谷。

    • 1974年,哈佛大学沃伯斯(Paul Werbos)博士论文里,首次提出了通过误差的反向传播(BP)来训练人工神经网络,但在该时期未引起重视。

    BP算法的基本思想不是(如感知器那样)用误差本身去调整权重,而是用误差的导数(梯度)调整。通过误差的梯度做反向传播,更新模型权重, 以下降学习的误差,拟合学习目标,实现’网络的万能近似功能’的过程。

    • 1975年,马文·明斯基(Marvin Minsky)在论文《知识表示的框架》(A Framework for Representing Knowledge)中提出用于人工智能中的知识表示学习框架理论。

    • 1976年,兰德尔·戴维斯(Randall Davis)构建和维护的大规模的知识库,提出使用集成的面向对象模型可以提高知识库(KB)开发、维护和使用的完整性。

    • 1976年,斯坦福大学的肖特利夫(Edward H. Shortliffe)等人完成了第一个用于血液感染病的诊断、治疗和咨询服务的医疗专家系统MYCIN。

    • 1976年,斯坦福大学的博士勒纳特发表论文《数学中发现的人工智能方法——启发式搜索》,描述了一个名为“AM”的程序,在大量启发式规则的指导下开发新概念数学,最终重新发现了数百个常见的概念和定理。

    • 1977年,海斯·罗思(Hayes. Roth)等人的基于逻辑的机器学习系统取得较大的进展,但只能学习单一概念,也未能投入实际应用。

    • 1979年,汉斯·贝利纳(Hans Berliner)打造的计算机程序战胜双陆棋世界冠军成为标志性事件。(随后,基于行为的机器人学在罗德尼·布鲁克斯和萨顿等人的推动下快速发展,成为人工智能一个重要的发展分支。格瑞·特索罗等人打造的自我学习双陆棋程序又为后来的强化学习的发展奠定了基础。)

    2.3 应用发展期:20世纪80年代

    人工智能走入应用发展的新高潮。专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。而机器学习(特别是神经网络)探索不同的学习策略和各种学习方法,在大量的实际应用中也开始慢慢复苏。

    • 1980年,在美国的卡内基梅隆大学(CMU)召开了第一届机器学习国际研讨会,标志着机器学习研究已在全世界兴起。

    • 1980年,德鲁·麦狄蒙(Drew McDermott)和乔恩·多伊尔(Jon Doyle)提出非单调逻辑,以及后期的机器人系统。

    • 1980年,卡耐基梅隆大学为DEC公司开发了一个名为XCON的专家系统,每年为公司节省四千万美元,取得巨大成功。

    • 1981年,保罗(R.P.Paul)出版第一本机器人学课本,“Robot Manipulator:Mathematics,Programmings and Control”,标志着机器人学科走向成熟。

    • 1982年,马尔(David Marr)发表代表作《视觉计算理论》提出计算机视觉(Computer Vision)的概念,并构建系统的视觉理论,对认知科学(CognitiveScience)也产生了很深远的影响。

    • 1982年,约翰·霍普菲尔德(John Hopfield) 发明了霍普菲尔德网络,这是最早的RNN的雏形。霍普菲尔德神经网络模型是一种单层反馈神经网络(神经网络结构主要可分为前馈神经网络、反馈神经网络及图网络),从输出到输入有反馈连接。它的出现振奋了神经网络领域,在人工智能之机器学习、联想记忆、模式识别、优化计算、VLSI和光学设备的并行实现等方面有着广泛应用。

    • 1983年,Terrence Sejnowski, Hinton等人发明了玻尔兹曼机(Boltzmann Machines),也称为随机霍普菲尔德网络,它本质是一种无监督模型,用于对输入数据进行重构以提取数据特征做预测分析。

    • 1985年,朱迪亚·珀尔提出贝叶斯网络(Bayesian network),他以倡导人工智能的概率方法和发展贝叶斯网络而闻名,还因发展了一种基于结构模型的因果和反事实推理理论而受到赞誉。

    贝叶斯网络是一种模拟人类推理过程中因果关系的不确定性处理模型,如常见的朴素贝叶斯分类算法就是贝叶斯网络最基本的应用。
    贝叶斯网络拓朴结构是一个有向无环图(DAG),通过把某个研究系统中涉及的随机变量,根据是否条件独立绘制在一个有向图中,以描述随机变量之间的条件依赖,用圈表示随机变量(random variables),用箭头表示条件依赖(conditional dependencies)就形成了贝叶斯网络。
    对于任意的随机变量,其联合概率可由各自的局部条件概率分布相乘而得出。如图中b依赖于a(即:a->b),c依赖于a和b,a独立无依赖,根据贝叶斯定理有 P(a,b,c) = P(a)*P(b|a)*P(c|a,b)

    • 1986年,罗德尼·布鲁克斯(Brooks)发表论文《移动机器人鲁棒分层控制系统》,标志着基于行为的机器人学科的创立,机器人学界开始把注意力投向实际工程主题。

    • 1986年,辛顿(Geoffrey Hinton)等人先后提出了多层感知器(MLP)与反向传播(BP)训练相结合的理念(该方法在当时计算力上还是有很多挑战,基本上都是和链式求导的梯度算法相关的),这也解决了单层感知器不能做非线性分类的问题,开启了神经网络新一轮的高潮。

    • 1986年,昆兰(Ross Quinlan)提出ID3决策树算法。

    决策树模型可视为多个规则(if, then)的组合,与神经网络黑盒模型截然不同是,它拥有良好的模型解释性。
    ID3算法核心的思想是通过自顶向下的贪心策略构建决策树:根据信息增益来选择特征进行划分(信息增益的含义是 引入属性A的信息后,数据D的不确定性减少程度。也就是信息增益越大,区分D的能力就越强),依次递归地构建决策树。

    • 1989年,George Cybenko证明了“万能近似定理”(universal approximation theorem)。简单来说,多层前馈网络可以近似任意函数,其表达力和图灵机等价。这就从根本上消除了Minsky对神经网络表达力的质疑。

    “万能近似定理”可视为神经网络的基本理论:⼀个前馈神经⽹络如果具有线性层和⾄少⼀层具有 “挤压” 性质的激活函数(如 sigmoid 等),给定⽹络⾜够数量的隐藏单元,它可以以任意精度来近似任何从⼀个有限维空间到另⼀个有限维空间的 borel 可测函数。

    • 1989年,LeCun (CNN之父) 结合反向传播算法与权值共享的卷积神经层发明了卷积神经网络(Convolutional Neural Network,CNN),并首次将卷积神经网络成功应用到美国邮局的手写字符识别系统中。

    卷积神经网络通常由输入层、卷积层、池化(Pooling)层和全连接层组成。卷积层负责提取图像中的局部特征,池化层用来大幅降低参数量级(降维),全连接层类似传统神经网络的部分,用来输出想要的结果。

    2.4 平稳发展期:20世纪90年代—2010年

    由于互联网技术的迅速发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化,人工智能相关的各个领域都取得长足进步。在2000年代初,由于专家系统的项目都需要编码太多的显式规则,这降低了效率并增加了成本,人工智能研究的重心从基于知识系统转向了机器学习方向。

    • 1995年,Cortes和Vapnik提出联结主义经典的支持向量机(Support Vector Machine),它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。

    支持向量机(Support Vector Machine, SVM)可以视为在感知机基础上的改进,是建立在统计学习理论的VC维理论和结构风险最小原理基础上的广义线性分类器。与感知机主要差异在于:1、感知机目标是找到一个超平面将各样本尽可能分离正确(有无数个),SVM目标是找到一个超平面不仅将各样本尽可能分离正确,还要使各样本离超平面距离最远(只有一个最大边距超平面),SVM的泛化能力更强。2、对于线性不可分的问题,不同于感知机的增加非线性隐藏层,SVM利用核函数,本质上都是实现特征空间非线性变换,使可以被线性分类。

    • 1995年, Freund和schapire提出了 AdaBoost (Adaptive Boosting)算法。AdaBoost采用的是Boosting集成学习方法——串行组合弱学习器以达到更好的泛化性能。另外一种重要集成方法是以随机森林为代表的Bagging并行组合的方式。以“偏差-方差分解”分析,Boosting方法主要优化偏差,Bagging主要优化方差。

    Adaboost迭代算法基本思想主要是通过调节的每一轮各训练样本的权重(错误分类的样本权重更高),串行训练出不同分类器。最终以各分类器的准确率作为其组合的权重,一起加权组合成强分类器。

    • 1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫。深蓝是基于暴力穷举实现国际象棋领域的智能,通过生成所有可能的走法,然后执行尽可能深的搜索,并不断对局面进行评估,尝试找出最佳走法。

    • 1997年,Sepp Hochreiter 和 Jürgen Schmidhuber提出了长短期记忆神经网络(LSTM)。

    LSTM是一种复杂结构的循环神经网络(RNN),结构上引入了遗忘门、输入门及输出门:输入门决定当前时刻网络的输入数据有多少需要保存到单元状态,遗忘门决定上一时刻的单元状态有多少需要保留到当前时刻,输出门控制当前单元状态有多少需要输出到当前的输出值。这样的结构设计可以解决长序列训练过程中的梯度消失问题。

    • 1998年,万维网联盟的蒂姆·伯纳斯·李(Tim Berners-Lee)提出语义网(Semantic Web)的概念。其核心思想是:通过给万维网上的文档(如HTML)添加能够被计算机所理解的语义(Meta data),从而使整个互联网成为一个基于语义链接的通用信息交换媒介。换言之,就是构建一个能够实现人与电脑无障碍沟通的智能网络。

    • 2001年,John Lafferty首次提出条件随机场模型(Conditional random field,CRF)。
      CRF是基于贝叶斯理论框架的判别式概率图模型,在给定条件随机场P ( Y ∣ X ) 和输入序列x,求条件概率最大的输出序列y *。在许多自然语言处理任务中比如分词、命名实体识别等表现尤为出色。

    • 2001年,布雷曼博士提出随机森林(Random Forest)。
      随机森林是将多个有差异的弱学习器(决策树)Bagging并行组合,通过建立多个的拟合较好且有差异模型去组合决策,以优化泛化性能的一种集成学习方法。多样差异性可减少对某些特征噪声的依赖,降低方差(过拟合),组合决策可消除些学习器间的偏差。

    随机森林算法的基本思路是对于每一弱学习器(决策树)有放回的抽样构造其训练集,并随机抽取其可用特征子集,即以训练样本及特征空间的多样性训练出N个不同的弱学习器,最终结合N个弱学习器的预测(类别或者回归预测数值),取最多数类别或平均值作为最终结果。

    • 2003年,David Blei, Andrew Ng和 Michael I. Jordan于2003年提出LDA(Latent Dirichlet Allocation)。

    LDA是一种无监督方法,用来推测文档的主题分布,将文档集中每篇文档的主题以概率分布的形式给出,可以根据主题分布进行主题聚类或文本分类。

    • 2003年,Google公布了3篇大数据奠基性论文,为大数据存储及分布式处理的核心问题提供了思路:非结构化文件分布式存储(GFS)、分布式计算(MapReduce)及结构化数据存储(BigTable),并奠定了现代大数据技术的理论基础。

    • 2005 年,波士顿动力公司推出一款动力平衡四足机器狗,有较强的通用性,可适应较复杂的地形。

    • 2006年,杰弗里·辛顿以及他的学生鲁斯兰·萨拉赫丁诺夫正式提出了深度学习的概念(Deeping Learning),开启了深度学习在学术界和工业界的浪潮。2006年也被称为深度学习元年,杰弗里·辛顿也因此被称为深度学习之父。

    深度学习的概念源于人工神经网络的研究,它的本质是使用多个隐藏层网络结构,通过大量的向量计算,学习数据内在信息的高阶表示。

    • 2010年,Sinno Jialin Pan和 Qiang Yang发表文章《迁移学习的调查》。

    迁移学习(transfer learning)通俗来讲,就是运用已有的知识(如训练好的网络权重)来学习新的知识以适应特定目标任务,核心是找到已有知识和新知识之间的相似性。

    2.5 蓬勃发展期:2011年至今

    随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的技术鸿沟,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了重大的技术突破,迎来爆发式增长的新高潮。

    • 2011年,IBM Watson问答机器人参与Jeopardy回答测验比赛最终赢得了冠军。Waston是一个集自然语言处理、知识表示、自动推理及机器学习等技术实现的电脑问答(Q&A)系统。

    • 2012年,Hinton和他的学生Alex Krizhevsky设计的AlexNet神经网络模型在ImageNet竞赛大获全胜,这是史上第一次有模型在 ImageNet 数据集表现如此出色,并引爆了神经网络的研究热情。

    AlexNet是一个经典的CNN模型,在数据、算法及算力层面均有较大改进,创新地应用了Data Augmentation、ReLU、Dropout和LRN等方法,并使用GPU加速网络训练。

    • 2012年,谷歌正式发布谷歌知识图谱Google Knowledge Graph),它是Google的一个从多种信息来源汇集的知识库,通过Knowledge Graph来在普通的字串搜索上叠一层相互之间的关系,协助使用者更快找到所需的资料的同时,也可以知识为基础的搜索更近一步,以提高Google搜索的质量。

    知识图谱是结构化的语义知识库,是符号主义思想的代表方法,用于以符号形式描述物理世界中的概念及其相互关系。其通用的组成单位是RDF三元组(实体-关系-实体),实体间通过关系相互联结,构成网状的知识结构。

    • 2013年,Durk Kingma和Max Welling在ICLR上以文章《Auto-Encoding Variational Bayes》提出变分自编码器(Variational Auto-Encoder,VAE)。

    VAE基本思路是将真实样本通过编码器网络变换成一个理想的数据分布,然后把数据分布再传递给解码器网络,构造出生成样本,模型训练学习的过程是使生成样本与真实样本足够接近。

    • 2013年,Google的Tomas Mikolov 在《Efficient Estimation of Word Representation in Vector Space》提出经典的 Word2Vec模型用来学习单词分布式表示,因其简单高效引起了工业界和学术界极大的关注。

    Word2Vec基本的思想是学习每个单词与邻近词的关系,从而将单词表示成低维稠密向量。通过这样的分布式表示可以学习到单词的语义信息,直观来看,语义相似的单词的距离相近。

    Word2Vec网络结构是一个浅层神经网络(输入层-线性全连接隐藏层->输出层),按训练学习方式可分为CBOW模型(以一个词语作为输入,来预测它的邻近词)或Skip-gram模型 (以一个词语的邻近词作为输入,来预测这个词语)。

    • 2014年,聊天程序“尤金·古斯特曼”(Eugene Goostman)在英国皇家学会举行的“2014图灵测试”大会上,首次“通过”了图灵测试。

    • 2014年,Goodfellow及Bengio等人提出生成对抗网络(Generative Adversarial Network,GAN),被誉为近年来最酷炫的神经网络。

    GAN是基于强化学习(RL)思路设计的,由生成网络(Generator, G)和判别网络(Discriminator, D)两部分组成, 生成网络构成一个映射函数G: Z→X(输入噪声z, 输出生成的伪造数据x), 判别网络判别输入是来自真实数据还是生成网络生成的数据。在这样训练的博弈过程中,提高两个模型的生成能力和判别能力。

    • 2015年,为纪念人工智能概念提出60周年,深度学习三巨头LeCun、Bengio和Hinton(他们于2018年共同获得了图灵奖)推出了深度学习的联合综述《Deep learning》。

    《Deep learning》文中指出深度学习就是一种特征学习方法,把原始数据通过一些简单的但是非线性的模型转变成为更高层次及抽象的表达,能够强化输入数据的区分能力。通过足够多的转换的组合,非常复杂的函数也可以被学习。

    • 2015年,Microsoft Research的Kaiming He等人提出的残差网络(ResNet)在ImageNet大规模视觉识别竞赛中获得了图像分类和物体识别的优胜。

    残差网络的主要贡献是发现了网络不恒等变换导致的“退化现象(Degradation)”,并针对退化现象引入了 “快捷连接(Shortcut connection)”,缓解了在深度神经网络中增加深度带来的梯度消失问题。

    • 2015年,谷歌开源TensorFlow框架。它是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief。

    • 2015年,马斯克等人共同创建OpenAI。它是一个非营利的研究组织,使命是确保通用人工智能 (即一种高度自主且在大多数具有经济价值的工作上超越人类的系统)将为全人类带来福祉。其发布热门产品的如:OpenAI Gym,GPT等。

    • 2016年,谷歌提出联邦学习方法,它在多个持有本地数据样本的分散式边缘设备或服务器上训练算法,而不交换其数据样本。

    联邦学习保护隐私方面最重要的三大技术分别是: 差分隐私 ( Differential Privacy )、同态加密 ( Homomorphic Encryption )和 隐私保护集合交集 ( Private Set Intersection ),能够使多个参与者在不共享数据的情况下建立一个共同的、强大的机器学习模型,从而解决数据隐私、数据安全、数据访问权限和异构数据的访问等关键问题。

    • 2016年,AlphaGo与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜。

    AlphaGo是一款围棋人工智能程序,其主要工作原理是“深度学习”,由以下四个主要部分组成:策略网络(Policy Network)给定当前局面,预测并采样下一步的走棋;快速走子(Fast rollout)目标和策略网络一样,但在适当牺牲走棋质量的条件下,速度要比策略网络快1000倍;价值网络(Value Network)估算当前局面的胜率;蒙特卡洛树搜索(Monte Carlo Tree Search)树搜索估算每一种走法的胜率。
    在2017年更新的AlphaGo Zero,在此前的版本的基础上,结合了强化学习进行了自我训练。它在下棋和游戏前完全不知道游戏规则,完全是通过自己的试验和摸索,洞悉棋局和游戏的规则,形成自己的决策。随着自我博弈的增加,神经网络逐渐调整,提升下法胜率。更为厉害的是,随着训练的深入,AlphaGo Zero还独立发现了游戏规则,并走出了新策略,为围棋这项古老游戏带来了新的见解。

    • 2017年,中国香港的汉森机器人技术公司(Hanson Robotics)开发的类人机器人索菲亚,是历史上首个获得公民身份的一台机器人。索菲亚看起来就像人类女性,拥有橡胶皮肤,能够表现出超过62种自然的面部表情。其“大脑”中的算法能够理解语言、识别面部,并与人进行互动。

    • 2018年,Google提出论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》并发布Bert(Bidirectional Encoder Representation from Transformers)模型,成功在 11 项 NLP 任务中取得 state of the art 的结果。

    BERT是一个预训练的语言表征模型,可在海量的语料上用无监督学习方法学习单词的动态特征表示。它基于Transformer注意力机制的模型,对比RNN可以更加高效、能捕捉更长距离的依赖信息,且不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以致能生成深度的双向语言表征。

    • 2019年, IBM宣布推出Q System One,它是世界上第一个专为科学和商业用途设计的集成通用近似量子计算系统。

    • 2019年,香港 Insilico Medicine 公司和多伦多大学的研究团队实现了重大实验突破,通过深度学习和生成模型相关的技术发现了几种候选药物,证明了 AI 发现分子策略的有效性,很大程度解决了传统新药开发在分子鉴定困难且耗时的问题。

    • 2020年,Google与Facebook分别提出SimCLR与MoCo两个无监督学习算法,均能够在无标注数据上学习图像数据表征。两个算法背后的框架都是对比学习(contrastive learning),对比学习的核心训练信号是图片的“可区分性”。

    • 2020年,OpenAI开发的文字生成 (text generation) 人工智能GPT-3,它具有1,750亿个参数的自然语言深度学习模型,比以前的版本GPT-2高100倍,该模型经过了将近0.5万亿个单词的预训练,可以在多个NLP任务(答题、翻译、写文章)基准上达到最先进的性能。

    • 2020年,马斯克的脑机接口(brain–computer interface, BCI)公司Neuralink举行现场直播,展示了植入Neuralink设备的实验猪的脑部活动。

    • 2020年,谷歌旗下DeepMind的AlphaFold2人工智能系统有力地解决了蛋白质结构预测的里程碑式问题。它在国际蛋白质结构预测竞赛(CASP)上击败了其余的参会选手,精确预测了蛋白质的三维结构,准确性可与冷冻电子显微镜(cryo-EM)、核磁共振或 X 射线晶体学等实验技术相媲美。

    • 2020年,中国科学技术大学潘建伟等人成功构建76个光子的量子计算原型机“九章”,求解数学算法“高斯玻色取样”只需200秒,而目前世界最快的超级计算机要用6亿年。

    • 2021年,OpenAI提出两个连接文本与图像的神经网络:DALL·E 和 CLIP。DALL·E 可以基于文本直接生成图像,CLIP 则能够完成图像与文本类别的匹配。

    • 2021年,德国Eleuther人工智能公司于今年3月下旬推出开源的文本AI模型GPT-Neo。对比GPT-3的差异在于它是开源免费的。

    • 2021年,美国斯坦福大学的研究人员开发出一种用于打字的脑机接口(brain–computer interface, BCI),这套系统可以从运动皮层的神经活动中解码瘫痪患者想象中的手写动作,并利用递归神经网络(RNN)解码方法将这些手写动作实时转换为文本。相关研究结果发表在2021年5月13日的Nature期刊上,论文标题为“High-performance brain-to-text communication via handwriting”。

    三、AI 未来趋势

    人工智能有三个要素:数据、算力及算法,数据即是知识原料,算力及算法提供“计算智能”以学习知识并实现特定目标。

    人工智能60多年的技术发展,可以归根为算法、算力及数据层面的发展,那么在可以预见的未来,人工智能发展将会出现怎样的趋势呢?

    3.1 数据层面

    数据是现实世界映射构建虚拟世界的基本要素,随着数据量以指数形式增长,开拓的虚拟世界的疆土也不断扩张。不同于AI算法开源,关键数据往往是不开放的,数据隐私化、私域化是一种趋势,数据之于AI应用,如同流量是互联网的护城河,有核心数据才有关键的AI能力。

    3.2 算力层面

    推理就是计算(reason is nothing but reckoning) --托马斯.霍布斯

    计算是AI的关键,自2010年代以来的深度学习浪潮,很大程度上归功于计算能力的进步。

    • 量子计算发展

    在计算芯片按摩尔定律发展越发失效的今天,计算能力进步的放慢会限制未来的AI技,量子计算提供了一条新量级的增强计算能力的思路。随着量子计算机的量子比特数量以指数形式增长,而它的计算能力是量子比特数量的指数级,这个增长速度将远远大于数据量的增长,为数据爆发时代的人工智能带来了强大的硬件基础。

    • 边缘计算发展

    边缘计算作为云计算的一种补充和优化,一部分的人工智能正在加快速度从云端走向边缘,进入到越来越小的物联网设备中。而这些物联网设备往往体积很小,为此轻量机器学习(TinyML)受到青睐,以满足功耗、延时以及精度等问题。

    • 类脑计算发展

    以类脑计算芯片为核心的各种类脑计算系统,在处理某些智能问题以及低功耗智能计算方面正逐步展露出优势。类脑计算芯片设计将从现有处理器的设计方法论及其发展历史中汲取灵感,在计算完备性理论基础上结合应用需求实现完备的硬件功能。同时类脑计算基础软件将整合已有类脑计算编程语言与框架,实现类脑计算系统从“专用”向“通用”的逐步演进。

    • 人工智能计算中心成为智能化时代的关键基础设施

    人工智能计算中心基于最新人工智能理论,采用领先的人工智能计算架构,是融合公共算力服务、数据开放共享、智能生态建设、产业创新聚集的“四位一体”综合平台,可提供算力、数据和算法等人工智能全栈能力,是人工智能快速发展和应用所依托的新型算力基础设施。未来,随着智能化社会的不断发展,人工智能计算中心将成为关键的信息基础设施,推动数字经济与传统产业深度融合,加速产业转型升级,促进经济高质量发展。

    3.3 算法层面

    • 机器学习自动化(AutoML)发展

    自动化机器学习(AutoML)解决的核心问题是:在给定数据集上使用哪种机器学习算法、是否以及如何预处理其特征以及如何设置所有超参数。随着机器学习在许多应用领域取得了长足的进步,这促成了对机器学习系统的不断增长的需求,并希望机器学习应用可以自动化构建并使用。借助AutoMl、MLOps技术,将大大减少机器学习人工训练及部署过程,技术人员可以专注于核心解决方案。

    • 向分布式隐私保护方向演进

    当前全球多个国家和地区已出台数据监管法规,如HIPAA(美国健康保险便利和责任法案)、GDPR(欧盟通用数据保护条例)等,通过严格的法规限制多机构间隐私数据的交互。分布式隐私保护机器学习(联邦学习)通过加密、分布式存储等方式保护机器学习模型训练的输入数据,是打破数据孤岛、完成多机构联合训练建模的可行方案。

    • 数据和机理融合

    AI模型的发展是符合简单而美的定律的。从数据出发的建模从数据中总结规律,追求在实践中的应用效果。从机理出发的建模以基本物理规律为出发点进行演绎,追求简洁与美的表达。

    一个好的、主流的的模型,通常是高度总结了数据规律并切合机理的,是“优雅”的,因为它触及了问题的本质。就和科学理论一样,往往简洁的,没有太多补丁,而这同时解决了收敛速度问题和泛化问题。

    • 神经网络模型结构发展

    神经网络的演进一直沿着模块化+层次化的方向,不断把多个承担相对简单任务的模块组合起来。

    神经网络结构通过较低层级模块侦测基本的特征,并在较高层级侦测更高阶的特征,无论是多层前馈网络,还是卷积神经网络,都体现了这种模块性(近年Hinton提出的“胶囊”(capsule)网络就是进一步模块化发展)。因为我们处理的问题(图像、语音、文字)往往都有天然的模块性,学习网络的模块性若匹配了问题本身内在的模块性,就能取得较好的效果。

    层次化并不仅仅是网络的拓扑叠加,更重要的是学习算法的升级,仅仅简单地加深层次可能会导致BP网络的梯度消失等问题。

    • 多学派方法融合发展

    通过多学派方法交融发展,得以互补算法之间的优势和弱点。如 1)贝叶斯派与神经网络融合,Neil Lawrence组的Deep Gaussian process, 用简单的概率分布替换神经网络层。2)符号主义、集成学习与神经网络的融合,周志华老师的深度随机森林。3) 符号主义与神经网络的融合:将知识库(KG)融入进神经网络,如GNN、知识图谱表示学习。4) 神经网络与强化学习的融合,如谷歌基于DNN+强化学习实现的Alpha Go 让AI的复杂任务表现逼近人类。

    • 基于大规模无(自)监督预训练发展

    If intelligence is a cake, the bulk of the cake is unsupervised learning, the icing on the cake is supervised learning, and the cherry on the cake is reinforcement learning (RL) – Yann Lecun

    监督学习需要足够的带标签数据,然而人工标注大量数据既耗时又费力,在一些领域(如医学领域)上几乎不太可能获得足量的标注数据。通过大规模无(自)监督预训练方法利用现实中大量的无标签数据是一个研究的热点,如GPT-3的出现激发了对大规模自监督预训练方法继续开展探索和研究。未来,基于大规模图像、语音、视频等多模态数据的跨语言的自监督预训练模型将进一步发展,并不断提升模型的认知、推理能力。

    • 基于因果学习方法发展

    当前人工智能模型大多关注于数据特征间相关性,而相关性与更为本源的因果关系并不等价,可能导致预测结果的偏差,对抗攻击的能力不佳,且模型往往缺乏可解释性。另外,模型需要独立同分布(i.i.d.)假设(现实很多情况,i.i.d.的假设是不成立的),若测试数据与训练数据来自不同的分布,统计学习模型往往效果不佳,而因果推断所研究的正是这样的情形:如何学习一个可以在不同分布下工作、蕴含因果机制的因果模型(Causal Model),并使用因果模型进行干预或反事实推断。

    • 可解释性AI (XAI)发展

    可解释的人工智能有可能成为未来机器学习的核心,随着模型变得越来越复杂,确定简单的、可解释的规则就会变得越来越困难。一个可以解释的AI(Explainable AI, 简称XAI)意味着AI运作的透明,便于人类对于对AI监督及接纳,以保证算法的公平性、安全性及隐私性。

    后记

    随着数据、算力及算法取得不断的突破,人工智能可能进入一个永恒的春天。
    本文主要从技术角度看待AI趋势是比较片面的,虽然技术是“高大上”的第一生产力,有着自身的发展规律,但不可忽视的是技术是为需求市场所服务的。技术结合稳定的市场需求,才是技术发展的实际导向。


    文章首发于“算法进阶”,公众号阅读原文可访问Github博客

    展开全文
  • 人工智能模型与算法 人工智能概述 提纲 1可计算思想起源与发展 2 人工智能历史发展 3 人工智能研究基本内容 古代哲人对智能的思考 智能发谋 知 通智者不惑 恻隐之心仁之端也 信能赏罚 羞恶之心义之端也 仁能服众 ...
  • 人工智能发展简史

    千次阅读 2018-10-21 14:58:30
    人工智能的起源可以追溯到17世纪甚至更早,当时人们对于人工智能的定义是基于推理的。近代人工智能的讨论兴起于20世纪40年代,当时正值第二次世界大战爆发,越来越多的机械开始替代手工,人们也在幻想什么时候机器能...
  • 人工智能简单概述

    2021-04-07 12:28:50
    最近几年信息产业出现最多的字眼总缺不了人工智能。作为新近热门的学科,人工智能却并不是最近十年内才出现的事物。它的诞生最早可追溯到上个世纪50年代。 1950年艾伦·麦席森·图灵提出了图灵测试 图灵测试:指...
  • 人工智能 – Artificial intelligence | AI 何为人工智能 你可能理解成电影里面的机器人,或者人工智能可能会代替人类,从而威胁到人类的就业问题等 或者更有甚者,以为人工智能会威胁到人类的生存,它们会进化出...
  • 一、人工智能基本概念 1.1 基本概念 数据分析:对历史规律的展现、对未来数据的预测。 机器学习:机器学习是...人工智能:Artificial Intelligence, AI,亦称机器智能,是指利用计算机来对人的意识、思维信息过程、...
  • 人工智能--概述

    千次阅读 2019-08-15 19:23:35
    人工智能概述人工智能历史人工智能的分类人工智能的机器学习机器学习理性认识机器学习的算法公式思想训练数据机器学习概念人工智能的3大框架机器学习之商业机器学习、数据分析、数据挖掘区别与联系机器学习分类有...
  • 2015年3月,随着Google Deepmind开发的AlphaGo程序打败了韩国职业围棋高手李世石(Lee Se-dol),媒体在通稿中开始普遍使用“AI”“机器学习”和...然而,AI历史却远比AlphaGo悠久得多。通常,一项新技术的出现...
  • 全面概述什么是人工智能

    千次阅读 2020-05-04 23:17:29
    人工智能AI)是通过机器(尤其是计算机系统)对人类智能过程进行的模拟。AI的特定应用包括专家系统,自然语言处理(NLP),语音识别和机器视觉。 AI编程专注于三种认知技能:学习,推理和自我纠正。 学习过程。...
  • 人工智能--技术发展

    千次阅读 2018-12-11 13:31:23
    人工智能是利用智能学习算法,将大量数据中的经验来改善系统自身的性能,从而实现人类智慧所能作的事情。可以这么说,人工智能离不开数据分析和机器学习,研究智能数据分析的理论和方法已经成为人工智能的必要基础之...
  • 智能的定义、智能的特点、人工智能的定义、图灵测试、人工智能学派、人工智能主要研究内容、人工智能主要应用领域等
  • 人工智能简称AI。根据维基百科给出的定义,所谓AI,就是根据环境感知,做出合理的行动,并获取最大收益的计算机程序。 这个定义笼统的描述了AI的含义,可是却太过于空泛,不懂的人看了依旧不懂。那么下面呢,我就从...
  • 人工智能发展主要经历了五个阶段: (1)萌芽阶段,上世纪50年代,以申农为首的科学家共同研究了机器模拟的相关问题,人工智能正式诞生; (2)第一发展期,上世纪60年代是人工智能的第一个发展黄金阶段,该阶段的...
  • 人工智能发展史总结

    万次阅读 多人点赞 2017-06-09 17:56:52
    什么是人工智能人工智能(Aritificial Intelligence, AI)是一门融合了计算机科学、统计学、脑神经学和 社会科学的前沿综合性学科。它的目标是希望计算机拥有像人一样的智力能力,可以替代人 类实现识别、认知、...
  • 人工智能发展史(读书笔记)

    万次阅读 多人点赞 2019-05-29 13:29:37
    可以先看《科学的极致》搭起整个发展历史框架,再看《人工智能简史》了解更多细节问题。下面是我看了《科学的极致》中人工智能发展历史一章的读书笔记。基本就是一个简略的历史发展框架~ 有不对的地方还请大家多多...
  • 本文研究全球及中国市场网络安全中的人工智能AI)现状及未来发展趋势,侧重分析全球及中国市场的主要企业,同时对比北美、欧洲、日本、中国、东南亚、印度等地区的现状及未来发展趋势。 2020年全球网络安全中的...
  • 1.1 人工智能概述 1 人工智能应用场景 2 人工智能小案例 案例一: 参考链接:https://quickdraw.withgoogle.com 案例二: 参考链接:https://pjreddie.com/darknet/yolo/ 案例三: 查看更多:...
  • 人工智能方法概述

    2020-06-23 20:14:59
    二、人工智能方法 进化算法 进化计算是一种模拟自然界生物进化过程与机制进行问题求解的自组织、自适应的随机搜索技术。它以达尔文进化论的“物竟天择、适者生存”作为算法的进化准则,并结合孟德尔的遗传变异理论,...
  • 要深入了解一个技术,就要知道这个技术在历史上如何发展而来的。 知识图谱号称人工智能领域的一颗掌上明珠,知识图谱的历史,要先从人工智能的三大学派说起。
  • 概 述 一、 基本概念 1、什么是人工智能 人工智能的概念:机器模拟人的意识和思维 重要人物:艾伦·麦席森·图灵(Alan Mathison Turing) 人物简介:1912年6月23日-1954年6月7日,英国数学家、逻辑学家,被称为...
  • 人工智能之语音识别概述(一)

    千次阅读 2020-09-27 17:18:28
    语音识别发展历史 语音识别系统框架 2 语音识别的定义 语音识别的定义 语音识别在狭义上有称为自动语音识别(Automatic Speech Recognition,ASR),它本质上是一种人机交互方式,就是让计算机通过识别
  • - 第一部分:人工智能概述/Introduction and Agents(chapters 1,2) - 第二部分:问题求解/Search(chapters 3,4,5,6) - 第三部分:知识与推理/Logic(chapters 7,8,9,10) - 第四部分:不确定知识与推理/Uncertainty...
  • 人工智能概述

    千次阅读 2018-07-27 10:14:22
    人工智能(Artificial Intelligence),英文缩写为A.I.。是研究、开发用于模拟、延伸和扩展人智能的理论、方法、技术及应用系统的一门新的技术科学。 很多人 ...
  • 深度学习发展概述

    千次阅读 2020-05-04 23:39:10
    深度学习是机器学习(ML)和人工智能AI)的一种,它模仿人类获得某些类型的知识的方式。深度学习是数据科学的重要元素,其中包括统计和预测模型。对于负责收集,分析和解释大量数据的数据科学家而言,...
  • 信息爆炸 Facebook、亚马逊、美团、今日头条、滴滴 2 数据发展三个阶段 阶段 时间 内容 第一阶段:萌芽期 上世纪90年代至本世纪初 随着数据挖掘理论和数据库技术的逐步成熟,一批商业智能工具和知识管理技术开始被...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 8,433
精华内容 3,373
关键字:

人工智能发展历史概述200字

友情链接: Anderson_cfd_example.rar