精华内容
下载资源
问答
  • 张钹:人工智能技术已进入第三代

    万次阅读 多人点赞 2019-09-21 02:45:14
    原文编注:近日,中科院院士、清华大学人工智能研究院院长张钹教授接受记者采访时认为,目前基于深度学习的人工智能技术上已经触及天花板。从长远来看,必须得走人类智能这条路,最...

    原文编注:近日,中科院院士、清华大学人工智能研究院院长张钹教授接受记者采访时认为,目前基于深度学习的人工智能在技术上已经触及天花板。从长远来看,必须得走人类智能这条路,最终要发展人机协同,人类和机器和谐共处的世界。未来需要建立可解释、鲁棒性的人工智能理论和方法,发展安全、可靠和可信的人工智能技术。

    640?wx_fmt=jpeg

    张钹院士:AI奇迹短期难再现 深度学习技术潜力已近天花板

    在Alphago与韩国围棋选手李世石对战获胜三年过后,一些迹象逐渐显现,张钹院士认为到了一个合适的时点,并接受了此次的专访。

    深度学习目前人工智能最受关注的领域,但并不是人工智能研究的全部。张钹认为尽管产业层面还有空间,但目前基于深度学习的人工智能在技术上已经触及天花板,此前由这一技术路线带来的“奇迹”在Alphago获胜后未再出现,而且估计未来也很难继续大量出现。技术改良很难彻底解决目前阶段人工智能的根本性缺陷,而这些缺陷决定了其应用的空间被局限在特定的领域——大部分都集中在图像识别、语音识别两方面。

    同时,在张钹看来,目前全世界的企业界和部分学界对于深度学习技术的判断过于乐观,人工智能迫切需要推动到新的阶段,而这注定将会是一个漫长的过程,有赖于与数学、脑科学等结合实现底层理论的突破。

    作为中国少有的经历了两个人工智能技术阶段的研究者,张钹在过去数年鲜少接受采访,其中一个原因在于他对目前人工智能技术发展现状的估计持有部分不同看法,在时机未到之时,张钹谨慎的认为这些看法并不方便通过大众媒体进行传播,即使传播也很难获得认同。


    一、“奇迹并没有发生,按照我的估计,也不会继续大量发生”

    经济观察报:您是如何估计和评价目前人工智能发展的现状?

    张钹:这一轮人工智能热潮是本世纪初兴起的。首先是出现在学术界。学术界过去对人工智能是冷遇的,但是多层神经网络的出现带来了一些改变,神经网络的理论在上世纪50年代就有了,但是一直处于浅层的应用状态,人们没有想到多层会带来什么新的变化。

    真正引起大家注意的就是2012年斯坦福的实验(注:2012年谷歌和斯坦福利用多层神经网络和大量数据进行图像识别的实验),过去实验的图像样本数最多是“万”这个级别,斯坦福用了1000万,用多层神经网络来做,结果发现在人脸、人体、猫脸三个图像类别中,这个模型的识别率大概有7%-10%的提高。

    这给大家非常大的震动,因为通常识别率要提高1%要做好多努力,现在只是把层数增加了,竟然发生两大变化,一个是识别率提高这么多;第二个是能处理这么大数据。这两个变化给大家非常大的鼓舞,何况在2012年之前,人工智能没有解决过实际问题。

    经济观察报:这种突破的原因是什么?

    张钹:现在分析下来是三个原因,大家也都非常清楚了,一个大数据、一个是计算能力、一个是算法。认识到之后,一夜之间业内业外对深度学习都非常震动,然后就发生了三件历史性的事件。

    第一件事是2015年12月,微软通过152层的深度网络,将图像识别错误率降至3.57%,低于人类的误识率5.1%;第二件事,2016年微软做的语音识别,其词错率5.9%,和专业速记员水平一样;第三件事:Alphago打败韩国围棋选手李世石。

    通过人工智能,利用深度学习、大数据这两个工具,在一定条件下、一定领域内竟然能够超过人类,这三件事情给大家极大的鼓舞。

    特别是对于业外的人,都认为我只要掌握了大数据,利用深度学习说不定还能搞出奇迹来,于是大家做了很多很多预测,比如在多短时间内计算机会在什么事情上能超过人。

    但实际上,在这个之后,奇迹并没有发生,按照我的估计,今后也不会大量发生。准确一点说,今后或许会在个别领域取得进展,但是不会像之前预计的那样全面开花。特别是中国市场乐观的认为“中国市场大、数据多,运用又不受限制,所以将来奇迹一定会发生在中国”。

    结果很多企业在做的时候发现,不是那么回事。从目前的情况来看效果最好的事情还是这两件:图像识别、语音识别。我看了一下,中国人工智能领域20个独角兽30个准独角兽企业,近80%都跟图像识别或者语音识别有关系。

    经济观察报:为什么会出现这样的情况?或者说在这么长时间后,我们对人工智能目前能做什么有一个清晰的认识了吗?

    张钹:人工智能在围棋上战胜人类后产生了这种恐慌,“大师才能做的事,人工智能居然能做,我的工作这么平凡,肯定会被机器所替代”。这里需要考虑一下它的局限性,我一直在各种各样的会上谈到不要过于乐观。

    人工智能能做的那三件事(语音识别、图像识别、围棋)是因为它满足了五个条件,就是说只要满足了这五个条件,计算机就能做好,只要有任何一个或者多个条件不满足,计算机做起来就困难了。

    第一个是必须具备充足的数据,充足不仅仅是说数量大,还要多样性,不能残缺等。

    第二个是确定性。

    第三个是最重要的,需要完全的信息,围棋就是完全信息博弈,牌类是不完全信息博弈,围棋虽然复杂,但本质上只需要计算速度快,不要靠什么智能,可是在日常生活中,我们所有的决策都是在不完全信息下做的。

    第四个是静态,包括按确定性的规律演化,就是可预测性问题,在复杂路况下的自动驾驶就不满足这一条;实际上它既不满足确定性,也不满足完全信息。

    第五个就是特定领域,如果领域太宽他做不了。单任务,即下棋的人工智能软件就是下棋,做不了别的。

    经济观察报:就是说在满足这五个条件的前提下,目前的人工智能是胜任部分工作的?

    张钹:如果你的工作符合这五个条件,绝对会被计算机替代,符合这五个条件的工作特点很明显,就是四个字“照章办事”,不需要灵活性,比如出纳员、收银员。如果你的工作富有灵活性和创造性,计算机绝对不可能完全代替,当然部分代替是可能的,因为其中肯定也有一些简单和重复性的内容。如果认识到这一条就会认识到人工智能仍处于发展阶段的初期。不是像有些人估计的那样“人工智能技术已经完全成熟,而进入发展应用的阶段”。

    二、“深度学习技术,从应用角度已经接近天花板了”

    经济观察报:我们应该怎么去定义目前的深度学习技术路线,它是基于概率学的一个事物吗?

    张钹: 现在的深度学习本质是基于概率统计 ,什么叫做概率统计?没有那么玄,深度学习是寻找那些重复出现的模式,因此重复多了就被认为是规律(真理),因此谎言重复一千遍就被认为真理,所以为什么大数据有时会做出非常荒唐的结果,因为不管对不对,只要重复多了它就会按照这个规律走,就是谁说多了就是谁。

    我常常讲我们现在还没有进入人工智能的核心问题,其实人工智能的核心是知识表示、不确定性推理这些,因为人类智慧的源泉在哪? 在知识、经验、推理能力,这是人类理性的根本。 现在形成的人工智能系统都非常脆弱容易受攻击或者欺骗,需要大量的数据,而且不可解释,存在非常严重的缺陷,这个缺陷是本质的,由其方法本身引起的。

    经济观察报:就是说通过改良的方式无法彻底解决?比如我们再增加神经网络层数和复杂性或者再提升数据的量级,会解决它的缺陷吗?

    张钹: 改良是不行的,深度学习的本质就是利用没有加工处理过的数据用概率学习的“黑箱”处理方法来寻找它的规律,这个方法本身通常无法找到“有意义”的规律,它只能找到重复出现的模式,也就是说,你光靠数据,是无法达到真正的智能。

    此外,深度学习只是目前人工智能技术的一部分,人工智能还有更大更宽的领域需要去研究,知识表示、不确定性处理、人机交互,等等一大片地方,不能说深度学习就是人工智能,深度学习只是人工智能的一部分。一直到去年人工智能大会交流的论文还是三分之一是机器学习方面,三分之二是其他方面。

    经济观察报:学界在这上面还是有一个比较清晰的认识?

    张钹: 我可以这么说,全世界的学界大多数有清晰的认识; 全世界的企业界大多持过于乐观的估计。

    为什么出现这样的情况呢?因为从事过早期人工智能研究的人,大多已经故去或者年老,已经没有话语权。现在活跃在人工智能研究第一线的都是深度学习、大数据兴起以后加入的,他们对人工智能的了解不够全面。

    经济观察报:如果说每一个技术路线都有一个“技术潜力”,那么在深度学习方面,我们已经把这个潜力用了多少?

    张钹: 科学研究是很难精确估计的,但是深度学习如果从应用角度,不去改变它,我觉得已经接近天花板了,就是说你要想再出现奇迹的可能性比较小了。

    经济观察报:那基于此,目前商业公司在底层技术和产业应用上还是有很大的空间吗?

    张钹:只要选好合适的应用场景,利用成熟的人工智能技术去做应用,还有较大的空间。 目前在学术界围绕克服深度学习存在的问题,正展开深入的研究工作,希望企业界,特别是中小企业要密切注视研究工作的进展,及时地将新技术应用到自己的产品中。当然像谷歌、BAT这样规模的企业,他们都会去从事相关的研究工作,他们会把研究、开发与应用结合起来。

    经济观察报:有一种观点认为我们强调的“白盒”(可理解性)它实际上是从人的思维来强调的,但是通过大数据、概率统计工具离散到连续的投射,它实际上是机器的思维,你不一定需要它给你一个解释,只要正确的答案就可以了?

    张钹: 目前有两种意见,一种观点认为智能化的道路是多条的,不是只有一条路能通向智能,我们通过自然进化产生了自然智能,那么我们为什么不能通过机器产生机器智能?这个智能和自然智能不会是完全一样的,条条大路通罗马,我们通过自然进化获得的智能也不见得是最佳的。这个观点我赞成,机器智能与人类不相同,其实是有好处的,恰恰可以互补,发挥各自的长处。

    是从长远来看,必须得走人类智能这条路,为什么?因为我们最终是要发展人机协同,人类和机器和谐共处的世界。我们不是说将来什么事情都让机器去管去做,人类在一边享受。我们要走人机共生这条路,这样机器的智能就必须和人类一样,不然没法共处,机器做出来的事情,我们不能理解,我们的意图机器也不知道,二者怎么能合作?

    经济观察报:就是必须具有可解释性?

    张钹: 是,就是可解释性,你要它做决策,你不理解它,飞机就让它开,谁敢坐这架飞机?所以目前的阶段,车和飞机还是不能完全让机器开的。为什么司机坐在上面我们放心?因为我们和他同命运,要撞死一块撞死,机器和你可不是同一命运,它撞不死,你撞死了。

    有的人非常脱离实际的去想这个问题,这是不对头的,人类怎么会去那样发展机器呢(注:指把人类的命运全部交给机器)?人类不会去那么发展的,有些人在那边担忧什么机器人统治人类,我说这最多只能算远虑。

    经济观察报:所以图灵的论文中也说这种观点“不值一驳”。

    张钹: 是,那是远虑,我们目前还有很多近忧,发展人工智能必须要考虑安全问题,这已是现实问题。

    你看语音合成,利用现有的技术可以做到以假乱真,和真人基本没有差别。现在看来这种技术不能推广应用,因为一旦推广就全乱套了,只要搞一段用语音合成技术做成的假录音,就可以让任何一位名人身败名裂。这些都是非常危险的技术。人工智能的治理已经提到日程上了。

    三、“我们培养不出爱因斯坦、培养不出图灵”

    经济观察报:一种观点认为中国有更多的数据和更多的工程师,这种规模能倒推带来基础研究层面的突破或者决定技术的路线?

    张钹:这里混淆了好多概念,科学、技术、工程。科技水平需要三个标准来衡量,一个是科研水平、一个是技术水平、一个是工程实践能力,或者产业化能力。

    我们中国什么情况?从工程角度来看,在一些领域我们“接近世界水平”;技术水平我用的词是“较大差距”,因为不少东西还是外国会做我们不会做;科研究领域我用的词是“很大差距”,科学研究就是原创,实际上,所有人工智能领域的原创成果都是美国人做出来的,人工智能领域图灵奖得主共十一人,十个美国人,一个加拿大人。

    经济观察报:数据显示中国在人工智能领域的论文发表量和被引用次数都已经进入前列位置,这是否说明中国人工智能科学研究领域的突破?

    张钹:如果单从论文来看研究水平,基本反映在三个指标上:数量、平均引用率、单篇最高引用率。拿人工智能来讲,中国研究者论文的数量和平均引用率都还不错,但是单篇最高引用率和世界差距就很大,而这个指标恰恰是反映你的原创能力。

    也就是说深度学习这个领域,我们的平均水平达到世界水平了,但是最高水平和世界差距还是很大的。不过还是要肯定的,我们应用上发展比较快。

    经济观察报:清华在这方面有什么优势吗?

    张钹:在人工智能重要的会议杂志上,这十年期间论文数量、平均质量CMU(美国卡耐基梅隆大学)排第一,清华大学排第二。我们培养的人,在计算机这个领域,清华的本科、博士生都是世界一流的。

    目前我们的跟踪能力是比较强的,一旦有人起个头,我们能迅速跟上去。但是很可惜,我们缺乏顶尖人物,也培养不出顶尖的人才,如爱因斯坦、图灵等。

    我个人认为原因之一,可能与中国的文化有点关系,我们的从众心理很严重,比如在人工智能领域,深度学习很热,发表的论文作者中几乎70%是华人,但是其他非热门领域,包括不确定性推理、知识表示等几乎没有华人作者。这就是从众扎堆,不愿意去探索“无人区”。

    当然也不要着急,科学研究本来就是富人干的事情,是富国干的事情,我们还是发展中国家,科学研究起点比较低,暂时落后是难免的,我们会迎头赶上。


    四、“低潮会发生,但不会像过去那样”

    经济观察报:如果说深度学习已进天花板,那么人工智能未来的前进方向将会在哪?

    张钹:最近我们准备提出一个新的概念,就是第三代人工智能的概念,人工智能实际上经历过两代,第一代就是符号推理,第二代就是目前的概率学习(或深度学习),我们认为现在正在进入人工智能的第三代。原因很明显,第一代、第二代都有很大的局限性。

    经济观察报:你所说的第三代人工智能技术是有明确的实现方向或者特点吗?

    张钹:我们现在提出的是要建立可解释、鲁棒性(注: 可以理解为稳健性)的人工智能理论和方法,发展安全、可靠和可信的人工智能技术。

    经济观察报:这样的技术可能要等很久?

    张钹:是啊,很难预计,我们也很着急。

    经济观察报:是不是还得回归到数学等理论层面里再去找新的方法?

    张钹:这个目前我们有两条路,一个是和数学结合,一个是和脑科学结合。你想想如果没有新的数学工具,没有来自于脑科学启发下的新思路,哪来的新理论?另一方面是要把数据驱动和知识驱动结合起来,因为通过数学、脑科学上寻求突破是比较艰难的,前面这件事现在则完全能够做。

    经济观察报:这个结合是指之前几十年人工智能的经验统合到一块?

    张钹:是的,至少有一个方向就是要把第一代和第二代结合,利用各自的优势。但是这两个结合很困难,因为他们在不同空间中操作,一个是向量空间,一个是符号空间,也需要有新的数学工具的加入。

    经济观察报:看人工智能历史,每一代技术之间有很长的间隔期,第三代人工智能技术也会这样吗?

    张钹:我认为会更长,因为需要攻坚,因为遇到的问题更困难。

    经济观察报:会不会再过10年、20年,人工智能在学界或者公众心中,又变成一个“隐学”,就像70、80年代那样,大众又不会再经常提起来这个词?

    张钹:低潮会发生,但不会像过去那样,原因在哪?因为有大数据、互联网和强大的计算资源,这些都会支撑人工智能继续走下去,尽管有的时候还只是表面上的繁荣。

    640?wx_fmt=jpeg 附: 在2018 全球人工智能与机器人峰会上,清华大学人工智能研究院院长张钹院士做题为“走向真正的人工智能”(Towards A Real Artifitial Intelligence)的大会报告。以下为报告全文,供大家学习交流。

    张钹院士:走向真正的人工智能

    我今天要讲的中心思想就是:我们现在离真正的人工智能还有一段很长的路。为了讲清这个思想,我必须回答下面三个问题:

    第一,什么叫做真正的人工智能?我们的目标是什么?
    第二,为什么我们需要真正的人工智能?
    第三,我们如何走向真正的人工智能?

    我现在回答这三个问题。

    首先我们如何评价目前人工智能取得的成果,我们的评价很简单,针对这 5 件事:

    第一是深蓝打败人类国际象棋冠军;第二是 IBM 在电视知识竞赛中打败了美国的前两个冠军,这两件事是一种类型,后面的三件事是另外一种类型;即 2015 年微软在 ImageNet 上做图象识别,它的误识率略低于人类。还有百度、讯飞也都宣布在单句的中文语音识别上,它的误识率也略低于人类。还有一个是大家非常熟悉的 AlphaGo 打败了李世石。这 5 件事情都是机器在一定的范围内超过了人类,我们如何来评价这 5 件事?

    大家一致认为这 5 件事之所以成功,是由于前面三个因素,一是大数据,二是计算能力提高,第三是有非常好的人工智能算法。这三个因素大家都讨论得非常多了,没必要我再来说,我现在要说的最后一个因素是被大家所忽略的,这个因素是说,这所有的成果必须建立在一个合适的应用场景下。这 5 件事虽然领域很不一样,但是它们都满足完全一样的条件,或满足下面的 5 个限制,首先你必须有丰富的数据或者丰富的知识,如果这两件东西没有,或者很少,你不用来谈人工智能,因为你无法实现无米之炊。人工智能唯一的两个资源,一个是数据,一个是知识。还有确定性信息、完全信息、静态的、单任务和有限领域。这 5 个条件里面任何一个条件不满足,现在的人工智能做起来就非常困难了。

    大家想想这 5 个限制条件下的应用场景是什么样的应用场景?就是照章办事,不需要任何灵活性,这显然不是智能的核心。

    我们现在分析一下上述 5 个场景。下象棋是完全信息博弈,信息完全和确定,没有问题。其次,它遵循着完全确定的游戏规则演化,我们把这种情况也叫做静态。Watson 机器人也是这样,Watson 是什么样的对话问题呢?它为什么选择知识竞赛呢?我们知道知识竞赛提的问题都没有二义性,都是明确的,它的答案总是唯一性的。所以这样的问答对机器人来讲是非常容易的。它涉及的领域虽然比较宽,但也是有限的,包括大家觉得很玄乎的围棋,也完全符合上面 5 个条件,所以对计算机来说也是很容易的。目前计算机打麻将就不行,因为牌类是不完全信息博弈,所以比棋类要难。总之,我们对目前人工智能取得的成果要有一个正确的评价。

    目前的人工智能技术在以下领域都可以找到它的应用,它们是交通、服务、教育、娱乐等等,但我要强调是这些领域里面只有满足上述 5 个条件的事情,计算机做起来才会容易,如果不满足这些条件,计算机就做起来就困难了。大家常常关心什么样的工作会被机器所替代,我可以明确告诉大家,满足这 5 个条件的工作,总有一天会被计算机取代,就是那些照章办事,不需要任何灵活性的工作,比如说出纳员、收银员等等。在座的所有工作都不可能被计算机完全代替,但不排斥你的工作中有一部分会被计算机取代,老师、企业家等的工作不可能被计算机完全代替。

    为什么有这 5 个限制?原因在于我们现在的人工智能是没有理解的人工智能。

    我们先看符号模型,理性行为的模型,举 Watson 的例子,它是个对话系统,我们现在所有做的对话系统都跟这个差不多,但是 Watson 做得更好些,它里面有知识库,有推理机制。沃森除了专家知识之外,还有大量互联网上大众的知识,还运用了多推理机制。请看,这就是 Watson 系统的体系结构。它里面有哪些知识呢?有很多,包括百科全书、有线新闻、文学作品等等。所有的知识用纸质来表示有 2 亿页,用存储量表示达到了 4TB。它能回答什么问题呢?用它的例子来说明。第一个问题,1974 年 9 月 8 日谁被总统赦免?这对美国人来讲很好回答,同样对计算机来讲也很好回答,你用这几个关键字「1974 年 9 月 8 日」、「被总统赦免」,就能在文献里头查出来是谁,他就是尼克松。也就是说根据问题中的关键字,可以在已有的文献里头直接找到答案,这就是一般的网络检索方法。

    第二个问题,荧光粉受到电子撞击以后,它的电磁能以什么方式释放出来?我们用「荧光粉」、「电子撞击」、「释放电磁能」等关键词,也可以找到答案:「光或者光子」。这种方法就是平时网络搜索的原理,应该说没有什么智能。

    回答下面的问题就需要「智能」了,跟智利陆地边界最长的是哪个国家?跟智利有陆地边界的国家可以检索到,它们是阿根廷和玻利维亚,但是谁的边境长?通常查不到。Watson 具备一定的推理能力,它从边界间发生的事件、边界的地理位置等等,经过分析推理以后就可以找出答案,它就是阿根廷。下一个问题也属于这种性质,跟美国没有外交关系的国家中哪个最靠北,跟美国没有外交关系的国家有 4 个,只要检索就行了,但是哪个国家最靠北,没有直接答案,但可以从其它信息中推导出来,比如各个国家所处的纬度、气候寒冷的程度等等分析出来,答案是北朝鲜。

    智能体现在推理能力上。 但是很不幸,现在的对话系统推理能力都很差。Watson 系统好一些,但也很有限。换句话说,我们现在的对话系统离真正的智能还很远。

    我们通过索菲亚机器人就可以看出来,索菲亚的对话是面向开放领域,你可以随便提问,问题就暴露出来了。大家在电视上看到索菲亚侃侃而谈,问什么问题都能答得很好,这里面有玄机,如果你的问题是预先提出来的,因为里头有答案,因此回答得非常好,在电视上给大家演示的都是这种情况。

    如果我们临时提问题,问题就出来了。这是一个中国记者给索菲亚提的 4 个问题,它只答对了一个。「你几岁了」,这个问题很简单,它答不上来,它的回答是「你好,你看起来不错」,答非所问,因为它不理解你所问的问题。只有第二个问题它是有准备的,里面有答案,所以答得很好。「你的老板是谁」,这个肯定它有准备。第三个问题,「你能回答多少问题呢」?它说「请继续」,没听懂!。再问第四个问题,「你希望我问你什么问题呢」?它说「你经常在北京做户外活动吗」?这就告诉我们说,现代的问答系统基本上没有理解,只有少数有少量的理解,像 Watson 这样算是比较好的。

    为什么会这样?也就是说我们现在的人工智能基本方法有缺陷,我们必须走向具有理解的 AI,这才是真正的人工智能。我这里提出的概念跟强人工智能有什么区别?首先我们说它在这点上是相同的,我们都试图去准确地描述人类的智能行为,希望人工智能跟人类的智能相近,这也是强人工智能的一个目标,但是强人工智能只是从概念上提出来,并没有从方法上提出怎么解决。大家知道强人工智能提出了一个最主要的概念,就是通用人工智能。怎么个通用法?它没有回答。我们现在提出来的有理解的人工智能是可操作的,不只是概念,这是我们跟强人工智能的区别。

    人机对话的时候,机器为什么不能理解人们提的问题。我们看一个例子就知道了,我们在知识库里把「特朗普是美国总统」这个事实,用「特朗普-总统-美国」这三元组存在计算机里面,如果你提的问题是「谁是美国总统」?机器马上回答出来:「特朗普」。但是你如果问其它有关的问题,如「特朗普是一个人吗」?「特朗普是一个美国人吗」?「美国有没有总统」?它都回答不了。它太傻了,任何一个小学生,你只要告诉他特朗普是美国总统,后面这几个问题他们绝对回答得出来。机器为什么回答不了后面的三个问题呢?就是这个系统太笨了,没有常识,也没有常识推理。既然特朗普是美国的总统,美国当然有总统,但是它连这一点常识的推理能力都没有。所以要解决这个问题,必须在系统中加上常识库、常识推理,没有做到这一步,人机对话系统中机器不可能具有理解能力。但是大家知道,建立常识库是一项「AI 的曼哈顿工程」。大家想想常识库多么不好建,怎么告诉计算机,什么叫吃饭,怎么告诉计算机,什么叫睡觉,什么叫做睡不着觉,什么叫做梦,这些对人工智能来说都非常难,美国在 1984 年就搞了这样一个常识库的工程,做到现在还没完全做出来。可见,要走向真正的人工智能,有理解的人工智能,是一条很漫长的路。

    这里介绍一点我们现在做的工作,加入常识以后,对话的性能会不会有所改善。 我们的基本做法是建立一个常识图谱,用这个图谱帮助理解提出的「问题」,同时利用常识图谱帮助产生合适的答案。

    下面就涉及到具体怎么做了,我不详细说了,我就说结果,结果是有了常识以后,性能有了显著的改善,对话的质量提高了。这篇文章已经发表,有兴趣可以去阅读。

    另外是准符号模型,深度学习、神经网络主要用来模拟感性行为,感性行为是一般很难采用符号模型,因为感性(感觉)没法精确描述。比如「马」,怎么告诉计算机什么叫做马?你说马有四条腿,什么叫做腿?你说细长的叫做腿,什么叫细?什么叫做长?没法告诉机器,因此不能用符号模型。目前用的办法就是我们现在说的神经网络或者准符号模型,也就是用人类同样的办法,学习、训练。我不告诉机器什么叫做马,只是给不同的马的图片给它看,进行训练。训练完以后,然后再用没见过的马的图片给它看,说对了,就是识别正确了,说不对就是识别不正确,如果 90% 是对的,就说明它的识别率是 90%。后来从浅层的神经网络又发展到多层的神经网络,从浅层发展到多层有两个本质性的变化,一个本质性的变化就是输入,深层网络一般不用人工选择的特征,用原始数据就行。所以深度学习的应用门槛降低了,你不要有专业知识,把原始数据输进去就行了。第二个是它的性能提高很多,所以现在深度学习用得很多,原因就在这个地方。

    通过数据驱动建立的系统能不能算是有智能呢?必须打一个很大的问号,就是说你做出来的人脸识别系统甚至识别率会比人还高,但是我们还不能说它有智能,为什么呢?这种通过数据驱动做出来的系统,它的性能跟人类差别非常大,鲁棒性很差,很容易受干扰,会发生重大的错误,需要大量的训练样本。我们刚才已经说过,给定一个图像库我们可以做到机器的识别率比人还要高,也就是说它可以识别各种各样的物体,但是这样的系统,我如果用这个噪声输给它,我可以让它识别成为知更鸟,我用另外的噪声输给它,可以让它识别成为猎豹。换句话讲,这样的系统只是一个机械的分类器,根本不是感知系统。也就是说它尽管把各种各样动物分得很清楚,但是它不认识这个动物,它尽管可以把猎豹跟知更鸟分开,但是它本质上不认识知更鸟和猎豹,它只到达了感觉的水平,并没有达到感知的水平,它只是「感」,没有上升到「知」。我们的结论是,只依靠深度学习很难到达真正的智能。这是很严峻的结论,因为如果有这样的问题,在决策系统里头是不能用这样的系统,因为它会犯大错。我在很多场合讲过,人类的最大的优点是「小错不断、大错不犯」,机器最大的缺点是「小错不犯,一犯就犯大错」。这在决策系统里头是不允许的,这就显示人跟机器的截然不同,人非常聪明,所以他做什么事都很灵活,这就使得他很容易犯各种各样的小错。但是他很理性,很难发生大错。计算机很笨,但是很认真,小错误绝对不会犯,但是它一犯就是天大的错误。刚才把那个把噪声看成知更鸟,这不是大错吗?你把敌人的大炮看成一匹马,不是大错吗?但是人类不会发生这种错误,人类只会把骡看成驴,但是计算机的识别系统会把驴看成一块石头。原因在哪儿?原因还是 AI 的理解能力问题。

    我们看这个自动驾驶,过去讲得很多,而且讲得很乐观,我们看看问题在什么地方。我们现在是这样做,我们通过数据驱动的学习方法,学习不同场景下的图象分割,并判别是车辆还是行人、道路等,然后建立三维模型,在三维模型上规划行驶路径。现在用硬件已经可以做到实时,请问大家,这样能不能解决问题?如果路况比较简单,行人、车辆很少,勉强可以用。复杂的路况就用不了。什么原因?非常简单,好多人总结出这个经验,行人或者司机都会有意无意破坏交通规则,包括外国人也一样,中国人更严重一点。这就使得数据驱动方法失效,比如说我们可以用数据驱动方法来了解各种各样行人的行为,我们可以通过大量进行训练,都训练完以后,如果出现新的情况呢?计算机能理解这是人从底下钻过来,很危险吗?所以你不可能把所有情况都训练到。自动驾驶不可能对付突发事件,如果这个突发事件它没见过,它就解决不了。怎么来解决这个问题呢?实际上就是要解决从「Without」到「With」理解的问题。人工智能现在有两种基本方法,一种是用符号模型来模拟理性行为,符号模型可以表达信息的内容,所以它是在一个语义的符号空间里头,但是非常不幸,这个离散的符号表示,数学工具很难用,很多数学工具用不上去,所以它发展很慢。在模拟感性行为的时候,我们用的是特征空间的向量,向量就是数,可以把所有的数学工具都用上,优化的工具、概率统计的工具全部用上。所以数据驱动方法这几年发展非常快,再难的问题,下围棋非常难吧,计算机也可以「算」出来。但是它有一个非常大的缺陷,它是在特征空间里,缺乏语义。我们用数据去训练一个模型,所谓「黑箱学习法」,加上你的数据质量不高,很难学出有用的东西。什么叫概率统计?重复多了就是真理。如果数据质量差,充满了「谎言」。谎言重复多了,就变成真理了。

    我们现在想出的解决办法是这样的,就是把这两个空间投射到一个空间去,这个空间叫做语义的向量空间。 也就是说我们把符号变成向量,同时把特征空间的向量变成语义空间的向量。怎么做?一是通过 Embedding(嵌入)把符号变成向量,尽量保持语义不变,可惜现在的方法都会引起语义的丢失,我们只能在投射的过程中让语义丢失得少。第二方面做的工作比较少,就是 Raising(提升),把特征空间提升到语义空间去,这主要靠学科交叉,靠跟神经科学的结合。只有这些问题解决以后,我们才能够建立一个统一的理论,因为过去的感知和认知是不同的处理方法,大家说不到一块,如果我们能够投射到同一空间去,我们就可以建立一个统一的理论框架,这是我们的目标。在语义空间处理就可以解决理解问题,但是这项工作是非常艰巨的。

    介绍一项我们现在做的工作。人工神经网络为什么不能得到语义信息呢?人脑的神经网络为什么可以呢?差别就在这里,我们现在用的人工神经网络太简单了,我们正想办法把脑神经网络的许多结构与功能加进去,我们这里只用了「稀疏发电」这一性质,就可以看出一些效果,人脸、大象或者鸟的轮廓,神经网络可以把它提取出来。

    还有一个办法就是把数据驱动跟知识驱动结合起来。 刚才讲了,人的智能没法通过单纯的大数据学习把它学出来,那怎么办?很简单,加上知识,让它有推理的能力,做决策的能力,这样就能解决突发事件。我们现在做的工作就是把这些结合起来,这是我们的基本思路,知识也好,数据也好,都投射到同一空间,然后都用同样的数学方法进行处理,这方面我们已经做了不少工作。

    最后做一个总结,我们从这个坐标看人工智能,横轴代表领域的宽窄,从单领域到多领域、到开放领域。纵轴代表信息的确定性与完全性,从完全到不完全、从确定到不确定。在左下角代表最容易的,就是刚才讲的符合 5 个条件的,现在人工智能在这部分解决得非常好,我们用白色来表示它,AlphaGo 在这里,深蓝在这里,工业机器人在这里。现在我们正在向灰色地区去走,打牌,信息不完全,现在打德州扑克,一人对一人,计算机能战胜人类,多人对弈,计算机还不行,这是灰色地带,我们还可以做,为什么可以做?尽管打牌是不确定的,但是它在概率意义下是确定的,你拿的这副牌的概率,可以算出来,同花的概率是多少,排成顺的概率是多少,既然概率能算出来,最终人类肯定会被计算机打败。Watson 在右边,它的领域比较宽,但是它是确定性的,所以是在灰色的区域。往右上方去就比较难了,自动驾驶、服务机器人、大数据分析,它是一个大框,有的简单,有的困难,就自动驾驶来讲,专用道、行车很少,路况简单等,在白色或者灰色区,如果路况复杂就到了黄色区域,黄色区现在计算机还解决不好。最远的在哪儿呢?右上角,图灵测试。大家对图灵测试有很多误解,其实图灵测试是开领域问答,很难!索菲亚做得怎么样?很糟糕。自然语言理解也在这里,复杂环境下的决策在偏左一点的地方,这也是很难的。所以我们人工智能现在是从左下角往右上角走,我们现在处在出发点附近。有的人想把它用一些名词来区分人工智能的不同发展阶段,有专家问我,你的看法怎么样?我建议不要用新词,用新词往往说不清,很麻烦,有的人说现在是弱人工智能,以后是强人工智能,也有人说现在叫增强智能(Augmented Intelligence)也是 AI……概念太多说不清,还是简单一点,「我们正在通往真正 AI 的路上」,现在走得并不远,在出发点附近,人工智能永远在路上,大家要有思想准备,这就是人工智能的魅力。 大家为什么这么重视人工智能?因为我们永远在路上,这就吸引我们去解决这些问题,这些问题一旦解决了,人类的社会进步、人类的生活就会发生本质上的改变。

    最后我用中文写最后一段作为总结,可惜我翻译不了。
    周穆王西巡狩,路遇匠人名偃师。翌日偃师谒见王,偕来一个假人。「趋步俯仰,信人也」。「领其颅,则歌合律;捧其手,则舞应节。千变万化,惟意所适。王以为实人也,与盛姫内御并观之,技将终,倡者瞬其目而招王之左右侍妾。王大怒,要杀这个偃师。偃师大慑,立剖其倡者以示王,皆傅会革、木、胶、漆、白 、黑、丹、青之所为。穆王始悦,诏贰车载之以归。

    这是 3000 年前我们古人对机器人的想象,看看现在的人工智能做得怎么样呢?索菲亚是我们现在达到的水平,可是她不会唱歌、不会跳舞,只会说英文,周王也听不懂,肯定没有印象。现在我们假设索菲亚「瞬其目而招王之左右侍妾」,向周王的姨太太们送去秋波,王会如何呢?我认为没反应,因为索菲亚是女的,他用不着吃醋。但是我们假设索菲亚「瞬其目而招王」,向大王送去秋波,王会大悦,立即神魂颠倒,坠入爱河?我认为不会,因为索菲亚根本不像人,它最近才刚刚安上手脚,走路都不利索,怎么行呢?所以我的结论是,「索菲亚通不过穆王的测试,当然它更通不过图灵测试」。

    我们的结论是什么? 人工智能刚刚起步,离真正的 AI 还很遥远, 大家共同努力吧,我们任重道远。

    来源:经济观察报

    展开全文
  • 下一代欺骗技术

    2019-11-07 18:47:53
    来源:数据机器人回想起当许多与会者听到“欺骗”一词时,蜜罐仍然是我想到的第一件事。的确,当欺骗技术在多年前首次出现时,蜜罐是描述欺骗工作方式的最类似技术,因为蜜罐试图欺...

    640?wx_fmt=jpeg

    来源:数据机器人 

    回想起当许多与会者听到“欺骗”一词时,蜜罐仍然是我想到的第一件事。的确,当欺骗技术在多年前首次出现时,蜜罐是描述欺骗工作方式的最类似技术,因为蜜罐试图欺骗攻击者与其进行交互。但是,自20世纪90年代蜜罐问世并于21世纪首次商业化以来,欺骗已走了很长一段路。把新一代的欺骗技术叫做什么,只是不要叫它蜜罐。

    定义下一代欺骗技术首先要说明它不是什么:一种愚蠢的,易于指纹识别的,旨在引诱不幸的,毫无戒心的黑客们注定要灭亡。

    下一代欺骗技术——早期威胁检测

    当今的欺骗技术提供了最早和最有效的检测周边威胁的手段,使用了从端点数据到诱饵的一系列欺骗手段。根据Gartner的定义,欺骗平台包括用于实施,管理和监视诱饵的系统,用于创建和分发诱饵的工具,以及随后刷新或删除这些欺骗的方法。为了有效地进行检测,欺骗必须是不可检测的并且是不可避免的。

    随着市场的发展,出现了三种常见的欺骗类型。完全交互诱饵(蜜罐),部分或低交互仿真诱饵以及端点数据欺骗。让我们花一点时间将这些欺骗类别进一步细分。

    完全交互诱饵(néeHoneypots)

    完全交互式诱饵(FID)并不意味着早期检测到威胁,而且它们并没有——至少不是很好,而且根本无法始终如一。完全交互诱饵以主机的形式(物理的或虚拟的)存在于网络上,其目的是要被犯罪分子攻击和破坏。由于完全交互诱饵是在网络上部署的完全功能性的系统,因此完全交互诱饵很难广泛分布,并且维护和实施的资源非常繁琐,因此通常只部署有限的完全交互诱饵,这意味着不适用于检测用例。攻击者必须将其绊倒或引诱到完全交互诱饵中,以使它们不会上升到检测所需的“不可避免”或“无法避免”的水平。完全交互诱饵最初旨在让防御者观察正在进行的攻击,但仍可以在威胁研究中发挥作用。然而,越来越复杂的现成的工具,如蜜罐破坏者意味着今天的攻击者不太可能被一个完全交互的诱饵长期愚弄。

    部分或低交互仿真诱饵

    部分交互或低交互诱饵使用仿真来欺骗攻击者试图与设备进行交互。从概念上讲,这些欺骗就像舞台布景。攻击者在企图闯入时被“抓住”,但门的另一侧没有东西。这种诱饵的示例是设备或应用程序,它非常详细地模拟大型机管理员控制台的登录屏幕。当攻击者尝试使用被盗的凭据登录时,攻击者会收到一条错误消息,并且系统会触发警报。经常部署仿真来保护诸如医疗和物联网设备之类的“不可触摸”的系统,并且随着物联网技术的广泛普及,仿真在欺骗中扮演着更具战略性的角色。仿真诱饵通常更易于部署和支持, 因此更容易避免。

    但是请注意,试图通过他们在任何一天所支持的仿真数来判断欺骗商贩是一个愚蠢的差事。任何单一供应商都不太可能提供所设想的数百万个IoT设备所需的所有仿真,因此在这里,API以及合作伙伴和客户进行仿真的能力可能会迅速发展。

    端点数据欺骗

    端点数据欺骗仅包含静态数据组成。攻击者首次进入网络时,他们会落在端点上。从那里开始,他们在成为“离开陆地”的过程中,部署了攻击工具来调查环境并搜索合法的凭据,以提升其特权以及与其他端点和服务器的连接。一旦发现,该数据将用于恶意遍历网络。

    作为阻止攻击者的第一步,必须从网络中删除这些有效的凭据和连接。仅此一项“清理”操作就会减慢或阻止攻击者“在陆地上生存”的能力,从而以一种通常不在补丁程序侧重的漏洞管理解决方案所无法涵盖的方式来减少潜在的攻击面。欺骗供应商对这一重要过程的处理方法各不相同,因此不要被营销炒作所愚弄。在您自己的环境中执行测试。攻击风险评估,它提供有关“凭据和连接”环境当前状态的令人惊讶的数据。

    攻击检测过程的下一步是在攻击者一定会遇到的地方放置虚假信息;例如,将伪造的凭据和连接数据放在只有攻击者才能找到的端点的缓存中。领先的供应商提供了许多不同的端点欺骗系列,包括文件,文件系统,电子邮件,RDP连接等等。一旦攻击者与任何这些虚假数据进行交互,就会触发高保真警报,准确显示尝试了什么以及在何处进行了攻击。供应商在收集和分发此凭证信息的方法上有所不同。

    是什么使当今的欺骗技术成为下一代?

    如今,机器智能和自动化技术使欺骗平台能够发现网络系统,并知道攻击者与它们之间的关系。智能欺骗系统可以推荐并制作针对每个系统定制的真实网络,系统,应用程序,服务器和数据欺骗,并表现为环境的本机。人工智能驱动的自动化还可以使复杂的网络欺骗网络不断发展并与时俱进,即使威胁和业务发生变化,即使在最大的网络上也是如此。

    最后,下一代欺骗技术还可以与其他安全解决方案轻松集成,从而使其威胁检测功能可以增强其他技术的解决能力。例如,端点检测和响应(EDR)以及安全信息和事件管理(SIEM)系统可以在攻击生命周期的更早点从下一代欺骗工具接收高保真警报。这样,与下一代欺骗手段一道部署此类解决方案的组织可以在攻击者能够接近任何地方之前加快调查和缓解风险。

    640?wx_fmt=jpeg

    未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

    未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

      如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

    640?wx_fmt=jpeg

    展开全文
  • ai生成图片是什么技术by Thomas Simonini ... 人工智能如何学习生成猫的图片 (How AI can learn to generate pictures of cats) In 2014, the research paper Generative Adversarial Nets (GAN) by Goodfellow et...

    ai生成图片是什么技术

    by Thomas Simonini

    通过托马斯·西蒙尼(Thomas Simonini)

    人工智能如何学习生成猫的图片 (How AI can learn to generate pictures of cats)

    In 2014, the research paper Generative Adversarial Nets (GAN) by Goodfellow et al. was a breakthrough in the field of generative models.

    2014年,研究论文Generative Adversarial Nets (GAN)由Goodfellow等人撰写。 是生成模型领域的突破。

    Leading researcher Yann Lecun himself called adversarial nets “the coolest idea in machine learning in the last twenty years.”

    首席研究员Yann Lecun自己称对抗网络是“过去20年来机器学习中最酷的想法。”

    Today, thanks to this architecture, we’re going to build an AI that generates realistic pictures of cats. How awesome is that?!

    今天,由于有了这种架构,我们将构建一个可以生成逼真的猫照片的AI。 那太棒了!!

    To view the full working code, see my Github repository. It will help if you already have some experience in Python, Deep Learning and Tensorflow, and CNNs (Convolutional Neural Nets).

    要查看完整的工作代码,请参阅我的Github存储库 。 如果您已经对Python,深度学习和Tensorflow以及CNN(卷积神经网络)有一定的经验,它将对您有所帮助。

    If you new in Deep Learning, please check this excellent series of articles:

    如果您是深度学习的新手,请查看以下出色的系列文章:

    Machine Learning is Fun!The world’s easiest introduction to Machine Learningmedium.com

    机器学习很有趣! 全球最简单的Machine Learning medium.com简介

    什么是DCGAN? (What is DCGAN?)

    Deep Convolutional Generative Adverserial Networks (or DCGAN) are a deep learning architecture that generate outputs similar to the data in the training set.

    深度卷积生成对抗网络(DCGAN)是一种深度学习架构,其生成的输出类似于训练集中的数据。

    This model replaces the fully connected layers of the generative adversarial network model with convolution layers.

    该模型用卷积层替换了生成对抗网络模型的完全连接层。

    To explain how DCGAN works, let’s use the metaphor of the art expert and the counterfeiter.

    为了说明DCGAN的工作原理,让我们使用 艺术专家和伪造者的隐喻。

    The counterfeiter (a.k.a. “the generator”) tries to produce fake Van Gogh paintings and pass them off as real.

    伪造者(又名“生成者”)试图制作伪造的梵高画作,并将其作为真实作品传播出去。

    On the other hand, the art expert (a.k.a., “the discriminator”) tries to catch the counterfeiter by using their knowledge of real Van Gogh paintings.

    另一方面,艺术专家(又名“辨别者”)试图利用对梵高真实绘画的了解来发现假冒者。

    Over time, the art expert gets better at detecting counterfeit paintings, and the counterfeiter gets better at faking them.

    随着时间的流逝,艺术专家在检测伪造画上会变得更好,而伪造品在伪造画上也会变得更好。

    As we see, DCGANs are composed of two separate deep neural networks competing against each other.

    如我们所见,DCGAN由相互竞争的两个独立的深度神经网络组成。

    • The generator is a counterfeiter trying to produce seemingly real data. It has no idea of what the real data is, but it learns to adjust from the feedback of the other model.

      生成器是一个伪造者,试图产生看似真实的数据。 它不知道实际数据是什么,但会从其他模型的反馈中学习进行调整。
    • The discriminator is a inspector trying to determine what the fake counterfeit data is (by comparing it with real data), while trying to not raise false positives on the real data. The output results of this model will serve for the backpropagation of the generator.

      鉴别器 是一名检查员,试图确定伪造的伪造数据是什么(通过将其与真实数据进行比较),同时尝试不对真实数据造成误报。 该模型的输出结果将用于生成器的反向传播。

    • The generator takes a random noise vector and generates a picture.

      生成器获取随机噪声矢量并生成图片。
    • This picture is fed into the discriminator, which compares the training set against the generated image.

      该图片被馈送到鉴别器,鉴别器将训练集与生成的图像进行比较。
    • The discriminator returns a number between 0 (fake image) and 1 (real image).

      鉴别器返回介于0(伪图像)和1(真实图像)之间的数字。

    让我们创建一个DCGAN! (Let’s create a DCGAN!)

    Now, we’re ready to create our AI.

    现在,我们准备创建我们的AI。

    In this part, we will focus on the main elements of our model. If you want to check out the whole code, use the notebook here.

    在这一部分中,我们将专注于模型的主要元素。 如果您想查看整个代码,请在此处使用笔记本。

    输入项 (Inputs)

    Here, we create the inputs placeholders: inputs_real for the discriminator and inputs_z for the generator.

    在这里,我们创建输入占位符:鉴别符的inputs_real和生成器的inputs_z。

    Note that we use two learning rates, one for the generator and one for the discriminator.

    请注意,我们使用两种学习率,一种用于生成器,另一种用于鉴别器。

    DCGANs are very sensitive to hyperparameters, so it’s very important to tune them precisely.

    DCGAN对超参数非常敏感,因此精确调整它们非常重要。

    鉴别器和生成器 (The discriminator and the generator)

    We use tf.variable_scope for two reasons.

    我们使用tf.variable_scope有两个原因。

    First, we want to make sure that all variables names start with generator / discriminator. This will help out later when we train the two networks.

    首先,我们要确保所有变量名称都以generator / discriminator开头。 这将在以后训练两个网络时提供帮助。

    Second, we want to reuse these networks with different inputs:

    其次,我们想以不同的输入重用这些网络:

    • For the generator: we’re going to train it, but also sample fake images from it after training.

      对于生成器:我们将对其进行训练,但还要在训练后从中采样伪造的图像。
    • For the discriminator: we need to share variables between the fake and real input images.

      对于鉴别器:我们需要在假输入图像和真实输入图像之间共享变量。

    Now let’s create the discriminator. Remember, it takes as an input a real or fake image and outputs a score.

    现在让我们创建鉴别器。 请记住,它以真实或伪造图像作为输入 并输出分数。

    Some technical remarks:

    一些技术说明:

    • The principle is to double the filter size at each convolution layer.

      原理是 在每个卷积层将滤镜大小加倍。

    • It’s not recommended to use downsampling. Instead, we use only strided convolutional layers.

      不建议使用下采样。 相反,我们仅使用跨步卷积层。
    • We use batch normalization at each layer (except for the input layer), because it reduces the covariance shift. For more information, check this great article.

      我们在每一层(输入层除外)使用批处理归一化,因为它可以减少协方差漂移。 有关更多信息,请查看这篇出色的文章

    • We utilize Leaky ReLU as an activation function, because it helps to avoid the vanishing gradient effect.

      我们利用Leaky ReLU作为激活功能,因为它有助于避免消失的梯度效应。

    Then, we create the generator. Remember, it takes as an input a random noise vector (z) and outputs a fake image, thanks to transposed convolution layers.

    然后,我们创建生成器。 请记住,它将随机噪声矢量(z)作为输入并输出 伪造的图像,这要归功于转置的卷积层。

    The idea is that at each layer we halve the filter size, and double the size of the picture.

    想法是在每一层我们将滤镜大小减半,并将图片大小加倍。

    The generator has been found to perform best using tanh as the output activation function.

    使用tanh作为输出激活功能时,已发现该发生器的性能最佳。

    鉴别器和发电机损耗 (Discriminator and generator losses)

    Because we train the generator and discriminator at the same time, we need to calculate losses for both networks.

    因为我们同时训练生成器和鉴别器,所以我们需要计算两个网络的损耗

    We want the discriminator to output 1 when it “thinks” an image is real, and 0 for fake images. Therefore, we need to set up the losses to reflect that.

    我们希望鉴别器在“认为”图像是真实图像时输出1,对于伪图像则输出0。 因此,我们需要设置损失以反映这一点。

    The discriminator loss is the sum of loss for real and fake images:

    鉴别符损失是真实和伪造图像损失的总和:

    d_loss = d_loss_real + d_loss_fake

    d_loss_real is the loss when the discriminator predicts an image is fake, when in fact it was a real image. It is calculated as follows:

    d_loss_real是辨别器预测图像是假的(实际上是真实图像)时的损失。 计算公式如下:

    • Use d_logits_real and labels are all 1 (since all real data is real)

      使用d_logits_real和标签 都是1(因为所有真实数据都是真实的)

    • labels = tf.ones_like(tensor) * (1 - smooth) We use label smoothing: it means reducing the labels a bit from 1.0 to 0.9 in order to help the discriminator generalize better.

      labels = tf.ones_like(tensor) * (1 - smooth)我们使用标签平滑:这意味着将标签从1.0减少到0.9 为了帮助鉴别者更好地概括。

    d_loss_fake is the loss when the discriminator predict an image is real, when in fact is was a fake image.

    d_loss_fake是鉴别者预测图像是真实的,而实际上是假图像时的损失。

    • Use d_logits_fakeand labels are all 0.

      使用d_logits_fake和标签 都是0。

    The generator loss again uses the d_logits_fake from the discriminator. This time the labels are all 1, because the generator wants to fool the discriminator.

    生成器损耗再次使用鉴别器的d_logits_fake 。 这次标签全为1,因为生成器要欺骗鉴别器。

    优化器 (Optimizers)

    After calculating the losses, we need to update the generator and discriminator separately.

    计算损失后,我们需要分别更新发生器和鉴别器。

    To do this, we need to get the variables for each part by using tf.trainable_variables(). This creates a list of all the variables we’ve defined in our graph.

    为此,我们需要使用tf.trainable_variables()获得每个零件的变量。 这将创建我们在图形中定义的所有变量的列表。

    训练 (Training)

    Here, we’re implementing the training function.

    在这里,我们正在实现训练功能。

    The idea is relatively simple:

    这个想法相对简单:

    • We’re saving the model each five epochs.

      我们每五个时期保存一次模型。
    • We’re saving a picture in images folder each ten batches trained.

      每训练十批,我们就会将图片保存在images文件夹中。
    • We’re displaying the g_loss , d_loss and the image generated each 15 epochs. This is for a simple reason: Jupyter notebook can bug if too many pictures are displayed.

      我们正在显示g_loss , d_loss和每15个时代生成的图像。 原因很简单:如果显示过多图片,Jupyter笔记本可能会出错。

    • Or, we can directly generate real images by loading the saved model (this will save you 20 hours of training).

      或者,我们可以通过加载保存的模型直接生成真实图像(这将为您节省20个小时的培训)。

    如何运行 (How to run it)

    You can’t run this on your personal computer — unless you have your own GPUs or are ready to wait maybe 10 years!

    您不能在个人计算机上运行它-除非您拥有自己的GPU或准备等待大约10年!

    Instead, you must use cloud GPU services, such as AWS or FloydHub.

    相反,您必须使用云GPU服务,例如AWS或FloydHub。

    Personally, I trained this DCGAN for 20 hours with Microsoft Azure and their Deep Learning Virtual Machine.

    我个人使用Microsoft Azure及其深度学习虚拟机对该DCGAN进行了20小时的培训。

    Disclaimer: I don’t have any business relations with Azure. I just loved their excellent customer service!

    免责声明:我与Azure没有任何业务关系。 我只是喜欢他们的优质客户服务!

    If you have trouble running it on a virtual machine, follow this excellent article here.

    如果您无法在虚拟机上运行它,请在此处关注这篇出色的文章。

    That’s all, I hope that this tutorial has been helpful!

    就这样,我希望本教程对您有所帮助!

    If you’ve improved the model, don’t hesitate to make a pull request.

    如果您改进了模型,请随时提出请求。

    If you have any thoughts, comments, or want to show me your results, feel free to comment below or send me an email: hello@simoninithomas.com, or tweet me @ThomasSimonini.

    如果您有任何想法,意见, 或想向我展示您的结果,请在下面发表评论,或给我发送电子邮件:hello@simoninithomas.com,或向我发送@ThomasSimonini

    And if you liked my article, please click the ? below so other people will see this here on Medium. And don’t forget to follow me!

    如果您喜欢我的文章,请单击“?”。 下面,以便其他人可以在Medium上看到。 并且不要忘记跟随我!

    Cheers!

    干杯!

    翻译自: https://www.freecodecamp.org/news/how-ai-can-learn-to-generate-pictures-of-cats-ba692cb6eae4/

    ai生成图片是什么技术

    展开全文
  • 写在前面的话: 因为我之前一直有关注各种IT行业的技术交流会,也曾推荐...2017年12月1日,以“技术开放,智慧聚力”为主题的中国银联第一期技术开放日在上海举行,银联携手合作伙伴共同亮相,分享展示在人工智能、...

    写在前面的话:
    因为我之前一直有关注各种IT行业的技术交流会,也曾看到过过一篇名为“科技驱动 开放赋能 ”的开放日干货分享文章,所以我想接着上次借鉴“银联技术”公众号的内容,继续分享开放日的各种精彩专场,也供自己日后回顾。
    以下是有关移动人工智能和技术服务的专场。

    2017年12月1日,以“技术开放,智慧聚力”为主题的中国银联第一期技术开放日在上海举行,银联携手合作伙伴共同亮相,分享展示在人工智能、大数据、云服务、移动支付、数字化业务等领域的最新科技成果,探讨数字化时代下产业生态跨界合作的可能。同时,宣告银联技术开放平台全面上线,300余名行业专家、合作伙伴、开发者与媒体共同参与见证。
    在这里插入图片描述近年来,银联提出“大智云移”技术发展战略,积极布局大数据、人工智能、云计算、移动支付等多个领域,加快向科技公司与数据公司的转型发展。目前已拥有银联大数据开放平台、银联金融云、刷脸支付、VR支付、U聊、数字信用卡、开源中间件、大数据风控等多项业界领先技术,通过输出产品与服务、共建场景与应用,携手生态伙伴,引领万物互联,为广大持卡人及产业各方提供更加优质精准服务,助力智能社会建设。
    (陈卓)
    (陈卓)

    中国银联科技事业部陈卓高级主管作“企业安全移动协作解决方案”主题演讲,传统PC时代的业务系统,无法满足移动办公的需要,而移动设备的智能化使得移动协作具备条件,通讯信息安全问题越来越突出,因此企业亟需提出安全移动协作解决方案。银联提出的U聊从各个方面保证了企业办公信息的安全性,首先是基于私有部署和消息加密策略从根本上保障了数据的安全性,远程擦除和设备锁使得个人可以维护消息的存储。此外在用户体验、整合办公流程、一键办公方面有着独特的优势。随后,来自浦发银行的技术专家王晓龙分享了U聊在浦发的成功落地实践,“Call浦系统”集成数十个办公和业务系统,大大提高协作效率和业务流畅度。
    在这里插入图片描述
    (王晓龙)

    在活动现场的科技展台,刷脸支付和VR支付吸引了许多嘉宾的驻足尝试。如刷脸支付,用户只需要将脸对准智能摄像头,系统就能自动识别用户,扣除相应账户金额,完成支付,若用户采用其他人的照片来欺骗系统,系统能够准确判断识别,并且拒绝交易。另外,处于实验阶段的VR支付同样引起了来访嘉宾的兴趣,用户只需要带上VR设备,在沉浸式的场景中,可直接完成支付,整个支付流程快捷且安全。在本次开放日活动中,来自银联科技事业部的沈玺高级主管就该话题发表了“银联支付创新探索–刷脸支付与VR支付”的主题演讲。另外,来自银联数据的技术专家陈效生从数字信用卡的业务背景和数字信用卡应用关键技术两个方面,阐述了对“数字信用卡”的未来设想。

    在这里插入图片描述
    (沈玺)

    来自银联科技事业部的技术专家宋伟男分享了银联在图像识别领域的实践,就该话题发表了有关人工智能的主题演讲。
    在这里插入图片描述
    (宋伟男)

    中国银联科技事业部李伟主管就“高效的差错业务处理解决方案”做了演讲,他认为摆脱了传统差错处理模式在业务操作层面、数据共享层面的问题,银联探索出高效的差错处理方案——从技术层面和管理层面进行差错对接,解决了系统开发层面、业务运维层面的问题,提供多层次全方位差错服务支持,其中包括基础服务、UPEC开发包支持、开发咨询服务、系统承建服务,目前已经对接工农交建等多家服务合作伙伴。

    在这里插入图片描述
    (李伟)

    中国银联科技事业部钟国业主管作题为“金融软件测试方法探讨”的演讲,银联在长期测试过程中积累了丰富的经验,并逐步形成了自己的测试体系,其中包括直联终端侧测试、卡片侧测试、银联移动支付测试、银联二维码测试、银联宝箱、中国银联交易查询工具、加密机仿真等,解决了测试过程中的诸多痛点,大大提供了测试效率。

    在这里插入图片描述
    (钟国业)

    文章转自:“银联技术“公众号https://mp.weixin.qq.com/s/_IqFArF5NepVq0VJGnvMmw

    展开全文
  • 点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达 本文转自:AI算法与图像处理由于计算机科学和电子技术的迅速发展,如今,就市场份额而言,人脸识别正成...
  • 11月18日,在第三届世界互联网大会期间,人工智能公司出门问问创始人李志飞接受了科技专访。李志飞认为,人工智能目前面临很好的发展机遇,与此同时,大众对人工智能到底能够做什么,未来的发展能够有多快,这方面的...
  • 面部识别:攻击类型和反欺骗技术

    千次阅读 2020-11-07 20:58:18
    多亏了计算机科学和电子技术的迅速发展,如今,就市场份额而言,面部识别正成为仅次于指纹的全球第二大生物特征认证方法。 每天,越来越多的制造商在他们的产品中加入面部识别功能,例如苹果公司采用了人脸识别技术...
  • 从siri谈人工智能技术的应用

    千次阅读 2012-12-08 22:47:59
    从Siri谈人工智能技术的应用  秦元培 摘要:随着苹果iphone5的发布,其中的Siri语音助理无疑成为了其中的一大亮点。作为人工智能技术的一种现实应用,
  • 我们(OpenAI)提出了一种人工智能安全技术,它可以训练智能体相互辩论话题,用人做法官来判断谁赢了。我们相信,这种或类似的方法最终可以帮助我们训练AI系统执行比人类能力更高的高级认知任务,同时保持与人类的...
  • 人工智能】语音识别技术

    千次阅读 2019-04-22 11:36:22
    了解关于语音识别技术的内容:人工智能智能语音交互技术与应用 (课程主要讲解人工智能 智能语音相关技术,包括语音识别、人机交互、语音合成等) 语音识别技术,也被称为自动语音识别Automatic Speech ...
  • 人工智能军事对抗技术发展趋势

    千次阅读 2019-12-19 19:13:06
    来源:战略前沿技术人工智能军事对抗技术人工智能AI)作为新一代科技革命的典型代表性技术,目前已在世界各国的工业、金融、娱乐和公共安全等领域广泛应用,而其在军事领域的应用也正在快速发展。...
  • 来源:经济观察报近日,中科院院士、清华大学人工智能研究院院长张钹教授接受记者采访时认为,目前基于深度学习的人工智能技术上已经触及天花板。从长远来看,必须得走人类智能这条...
  • 事实上,研究团队更希望以此表明的是,人工智能并非是天然正确的理性产物,在接触到大量黑暗信息时,它们也会分分钟被带偏。 刚刚结束的十一小长假,谷歌还没重返大陆,Google AI 体验展却先它一步去到了“魔都”上...
  • 伴随移动互联网,大数据、云计算、人工智能等新一代信息技术的快速发展,围绕网络和数据的服务与应用呈现爆发式增长,智能设备将无所不在,智能家居、无人车、物联网将渗透到人类社会的各个角落,丰富的应用场景下...
  • 文末有干货“Python高校”,马上关注真爱,请置顶或星标量子位 编辑 | 公众号 QbitAI随着人工智能技术的发展,人工智能在很多场景里正逐渐替代或协作着人类的各种劳动,它们可以成...
  • Bill Vorhies不久前写了一篇文章《AI背后的数据科学》,他分享的观点很新颖,经作者授权,InfoQ翻译并发布。点击“阅读原文”查看英文链接。 对于那些对AI感兴趣但还没有深入研究的传统数据科学家,下面是对数据科学...
  • 虚拟智能一体机被用来在机场和边境口岸测试旅客,它可以检测欺骗行为来标记人类安全代理。美国,加拿大和欧盟已经对这项技术进行了测试,一位研究人员说,它的测谎检测成功率高达80%,比人类测试人表现好。该技术...
  • 欢迎人工智能相关的技术投稿、约稿、行业分析、热点新闻、编译等,请发送邮件至baiyan@csdn.net,期待大家投稿。 资讯加入人工智能大战 三星正式发布AI助手Bixby在人工智能( AI )助手方面,苹果为用户提供了Siri ,...
  • 第一部分:人工智能和测试的介绍 第二部分:人工智能系统的特性和验收标准 第三部分:机器学习的性能指标和基准 第四部分:测试机器学习工作流程 第五部分:人工智能系统测试简介 第六部分:人工智能系统的黑盒测试 ...
  • 攻击混淆+欺骗技术,就是这家安全公司的防御战术! 谈到自己企业的安全问题,很多人会问: ◆我们已经被黑了吗?是谁黑的?目的是什么? ◆有人想要黑我们吗?他们是谁?用什么方法? ◆我们存在未知的安全威胁吗?这些威胁...
  • 来源:经济观察报近日,中科院院士、清华大学人工智能研究院院长张钹教授接受记者采访时认为,目前基于深度学习的人工智能技术上已经触及天花板。从长远来看,必须得走人类智能这条...
  • 文章来源:ATYUN AI平台 虽然机器学习系统的能力很强,但他们并不聪明,因为他们缺乏常识。研究人员利用这一点对图像识别系统进行了一次精彩的攻击。他们对系统使用特殊印制的贴纸,这个贴纸会吸引AI的注意力,以...
  • 人工智能ai算法On the business blog of the Federal Trade Commission there is a piece written the 8th of April 2020 by: Andrew Smith, Director, FTC Bureau of Consumer Protection. The article was called:...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,353
精华内容 2,941
关键字:

人工智能欺骗技术