精华内容
下载资源
问答
  • 10位女性大咖谈AI安全人工智能需要尽快制定规则 2014年,特斯拉创始人Elon-Musk发布了一个Twitter——“人工智能可能比核武器更危险”,顿时引发行业热议,扎克伯格为此特意请他到家里吃饭,并约上Yann LeCun一起...

    10位女性大咖谈AI安全:人工智能需要尽快制定规则



    2014年,特斯拉创始人Elon-Musk发布了一个Twitter——“人工智能可能比核武器更危险”,顿时引发行业热议,扎克伯格为此特意请他到家里吃饭,并约上Yann LeCun一起讨论这个话题。如今,人工智能虽已深入应用于各个行业,但关于人工智能安全威胁的讨论从未间断。例如,2018年4月,包括几十名高级工程师在内的数千名谷歌员工签署联名信,抗议公司参与一项美国五角大楼项目,利用人工智能帮助识别无人机镜头中捕获的人和物体。今年以来,国内关于AI数据隐私安全的舆论也此起彼伏。众所周知,汽车刚诞生时,出台了一系列的安全、伦理道德和技术应用方面的法律法规,AI也亟需完善。到底如何看待人工智能之于人类安全的影响?可以采取什么措施来防止这种担忧的发生?可以采取什么措施向公众保证没有什么可担心的呢?近日,美国Authority杂志采访了来自英特尔、Adobe、微软、爱立信等公司人工智能领域的女性领导者,探讨AI带来的安全挑战。(根据标准普尔指数,在福布斯500强科技公司中,女性在高级和管理职位中占比约四分之一)

     

     

    Anna Bethke (英特尔AI负责人)


    我认为,使用AI对人类的危害比AI本身更危险。就像锤子或者其他工具可以用来帮助建造鸟窝,但也可以用来砸花瓶,AI也如此。虽然人工智能有可能通过自我学习,拥有自我意识甚至恶意,但这非常难做到。讨论的关键是遇到恶意创建的AI时,减轻或者阻止这些负面结果的方法,并告知公众如何以及何时使用该系统。我认为,应该加大技术开发和应用的透明度,公众有发言权提出任何问题。要使得人为判断处于系统的设计,测试和应用的闭环,并实时纠正任何有害的行为,这一点很重要。
     

    Carolina Barcenas(Visa高级副总裁)


    我认为技术是我们的合作伙伴。技术当然会带来变化,但我相信我们社会的固有适应能力。尽管一些工作可能会消失(那些重复性的,可能带来很少满足感的工作),但也将创造新的工作。当前的技术创新时代并非史无前例,比如工业革命。我相信正确使用该技术最终将使我们的生活受益,而我们正处于一场重大变革的开端。 但是,我也认识到,如果技术被恶意使用可能具有毁灭性,围绕道德标准使用人工智能,进行有效监管至关重要。全球目前已经出台了非常重视数据的使用和隐私保护的政策和法规,欧洲在这方面处于领先地位,其他国家也在紧随其后。然而,我们仍处于起步阶段,我认为对人们进行“AI真正是什么”和“我们面临的AI挑战”的教育非常重要。
     

    Tatiana Mejia(Adobe AI负责人)


    人工智能是我们开发的一种工具,Adobe作为一个社区,我们有责任指导如何创建和使用它。技术本身并不存在好坏,在Adobe,我们的AI服务于开发者并尊重消费者。我们正在仔细研究这个问题,并实施有关数据隐私,数据治理,数据多样性等方面的流程和准则,并主导透明和持续的对话。我们有时还会引入实验性的“秘密”AI技术,但我们会为用户共享潜在的功能(其中一些功能永远不会运用于产品中),以便从我们的客户和社区获得真实、即时的反馈,包括这些创新对他们意味着什么,有什么作用,有什么可以改进的,什么可以对创意和营销人员产生更大的影响和意义。
     

    Marie Hagman(Zillow人工智能总监)

     

     

    在整个历史中,人们一直在使用新技术来完成令人惊奇的事情,并给他人带来痛苦。比如社交媒体在Arab Spring期间传播核能和原子弹发挥的作用是帮助人们进行政治组织,但今天它在传播错误信息方面发挥了作用。我是一个乐观主义者,认为AI收益将远大于风险。我们需要保持技术先进性,同时采取安全措施,并采取更快的行动来创建和更新公共政策以帮助减少风险。我认为我们不能或不应尝试向人们保证没有什么可担心的。人们应该被告知风险并保持警惕。我们应该建立保护社会免受不良行为影响的体系,包括执法,司法系统和公共政策,并且我们应该在那些领域中设立负责人,他们应被告知并优先考虑防范AI构成的威胁。公共政策通常太慢而赶不上技术变化。
     

    MadelaineDaianu博士(Intuit数据科学高级经理)

     

     

    我预计,随着我们技术的进步,这些辩论只会越来越激烈。有人认为这些争论为时过早,主要是因为当今的AI系统非常有限。我们尚未发现建立超级智能的意义,因此,我们尚无所有正确的信息来确定如何最好地减轻任何潜在的危害。我认为科技界应该从短期和长期来考虑AI端到端的影响。作为这项技术的贡献者,我们有责任计划AI可能带来的潜在影响。
     

    Doris Yang(BlackBerry Cylance高级总监)

     

     

    AI的当前状态取决于人类如何定义我们正在寻找的问题和答案的边界以及处理这些问题所需的数据。机器人明天不会占领世界,也就是说,不管自我意识机器人多长时间能够实现,负责任地谈论AI的使用和应用对社会绝对重要。我们目前仍然存在隐私和透明性的问题,比如关于收集个人数据,用途是什么以及谁可以访问它。AI驱动的解决方案有许多直接的好处,但是我们也应该积极考虑负责任的治理,以便我们可以继续从中受益,而不会放弃更多的自由。我不想说绝对没有什么可担心的,因为那会促进自满。我们需要开始设定我们的基本界限,并保持警惕,并不容侵犯。有意识的机器人并不是唯一令人担忧的,首先,人们应该考虑隐私和安全性。比如一些简单的事情,AI能够预测一个人喜欢什么,他们倾向于做什么,以及他们将如何回应,这些在购物推荐,营销活动等方面都有很好的应用。但是,当不法分子获得这些信息时会发生什么呢?银行是否可以根据你可能做的事情拒绝你的贷款?政府是否应该能够创建和维护公民的个人资料,并根据概率或可能的结果对其进行排名?
     

    Marina Arnaout(Microsoft经理)

     

     

    历史表明,每当一项伟大的发明落入坏人之手,邪恶就会盛行。目前,我们正处于AI的早期阶段,目前正在探索可以很好地利用AI的许多潜在好处,AI可以帮助预防自然灾害,或者为盲人以及更多种形式的业务提供更大的帮助。人工智能能为社会和企业带来许多好处,但超智能的AI可能会带来各种不利影响。通过以人类无法跟上的步伐大幅改变劳动力,可能会对经济产生重大影响,并带来许多道德挑战。这是一个全球性的问题,它需要世界各地的政治和商业领袖坐在一起讨论,来自不同政治体系的全球领导人需要协调一致,以确保道德,数据保护和准则具有对称性,并且对公众完全透明。


     

    Elena Fersman(爱立信AI研究负责人)

     

     

    每一项新技术都会带来威胁。AI是特殊的,它能够自我学习,所以我们应为其发展设定条件或界限。我们需要承担责任,并规定这些算法永远都不能打破的“游戏规则”。这些规则与人类必须遵守的法律,法规,道德框架和社会规范没有什么不同。为避免此类担忧,应该以AI系统所理解的语言来实施“生存规则”。也就是说,我们需要将这些规则数字化,确保框架和软件架构具有灵活性并允许修改,并且算法可以保证它们遵守这些框架。
     

    韩超(Lucidworks副总裁)


     

    人工智能可以应用于许多有益于社会的应用,例如医疗保健和自动驾驶汽车。但是,在武器开发或基因编辑领域,危险团体(例如恐怖分子)滥用AI是令人担忧的。当前,人工智能不具备自我学习的能力来故意伤害他人或通过互联网相互连接以进行大规模破坏,但是,如果在未来进行精心控制,这些行为是可能的。当前没有任何集中化的组织来规范AI行业和研究。我们高度依赖大型IT公司的良好意愿,并遵循标准的模型构建流程,以防止AI偏见或滥用。我希望能尽快成立这样的组织,以赢得更多的公众信任。
     

    TrisalaChandaria(Temboo首席执行官)

     

     

    新技术带来了机遇,但也有可能给人类带来危险,这就是技术的本质。汽车刚刚诞生时,我们必须建立基础设施,安全措施和其他技术来适应它们。道路,驾照,安全带和安全气囊等所有东西都需要确保公众能够安全有效地使用汽车。在开发AI技术时,我们需要考虑安全、基础设施、法律等因素。只要我们把那些事情考虑进去,我们就可以很好使用人工智能。我们不应该试图阻止人们有顾虑。人们可以询问他们的数据是如何被使用的,哪些技术正在影响他们的生活,人工智能是如何影响社会。担忧和恐惧是有区别的,我们不想吓走人们对新技术的兴趣,但确实应该确保他们在影响他们日常生活的技术方面有所选择。AI时代的领导者有责任确保公众知道有权力来做出这些选择。

    展开全文
  • 人工智能时代,AI安全防御“不容小觑”.pdf
  • 从研究的角度,就人工智能安全的三个方面进行简要梳理,涵盖了人工智能安全领域的主要研究工作!从人工智能的发展历史讲起,深入分析三方面安全的研究工作及其主要联系,最后总结了极具潜力的几个研究问题。
  • 蚂蚁金服2020人工智能安全白皮书
  • 作为世界人工智能大会唯一的安全分论坛,本届高端对话以“安全赋能、智创未来”为主题,由赛博研究院承办,腾讯、观安信息、上海社科院互联网研究中心、中国电科网络空间安全研究院、中国欧盟商会协办,平安科技、...

    8月30日,2019世界人工智能安全高端对话在上海世博中心重磅开启。作为世界人工智能大会唯一的安全分论坛,本届高端对话以“安全赋能、智创未来”为主题,由赛博研究院承办,腾讯、观安信息、上海社科院互联网研究中心、中国电科网络空间安全研究院、中国欧盟商会协办,平安科技、UCloud优刻得、安恒信息、依图科技、亚信安全、上海控安、翼盾智能、众人科技、斗象科技、碁震KEEN、机器之心等支持。

    点击添加图片描述(最多60个字)

    安全高端对话凝聚决策界、产业界、学术界共识,打通产学研深度合作路径,共商共治、群策群力,共商人工智能的机遇、挑战及应对之策。中国科学院院士何积丰、中国工程院院士倪光南等嘉宾出席会议,中国互联网发展基金会理事长马利、上海市经济和信息化委员会副主任傅新华、上海市委网络安全和信息化委员会办公室总工程师杨海军、腾讯公司安全管理部总经理朱劲松发表致辞。

    点击添加图片描述(最多60个字)

    马利理事长指出中国是全球人工智能安全治理的重要参与者,加快发展新一代人工智能是推动我国建成创新型国家和世界科技强国的重要战略规划,也是我们赢得全球科技竞争主动权的重要战略抓手。

    傅新华副主任表示我国是世界人工智能安全与治理的重要贡献者,上海作为国家人工智能产业发展的先行者,高度重视人工智能安全发展,积极倡导加强人工智能安全与治理的前瞻性研究,避免无序发展对国家安全、社会安全、个体安全等带来系统性风险。

    杨海军总工程师提出人工智能、5G等技术将推动新一轮革命,也带来全新的治理挑战。我们必须全面认识人工智能安全问题,统筹协调网络安全与信息化的关系,通过法律、政策、标准等综合施策,引导人工智能健康、安全发展,全面支撑科技、经济、社会发展和国家安全。

    朱劲松总经理作为产业界代表提出,人工智能引领新一代信息技术发展,为各行各业带来了新的生命力,也为网络安全带来新的解决方式,能够更先进、更有效、更智能的消除不安全状态。腾讯历来重视安全问题,积极布局人工智能在安全领域的应用,让新技术成为人们美好生活的助力。

    国内首个AI安全与法治导则发布

    2019世界人工智能安全高端对话联合2019世界人工智能大会法治论坛发布《人工智能安全与法治导则(2019)》。该导则从算法安全、数据安全、知识产权、社会就业和法律责任等五大方面,对人工智能发展的安全风险作出科学预判,提出安全与法治应对策略,守卫人工智能发展的“安全基因”。

    点击添加图片描述(最多60个字)

    公布十大创新实践和十佳优秀论文

    此前,在上海市经济信息化委和市委网信办等部门指导下,上海市人工智能产业安全专家咨询委员会发起2019世界人工智能大会产业安全创新实践和“中国网安杯”人工智能产业安全优秀论文征集两大活动,经过公开征集、多方推荐、专家评选等环节,在论坛现场由上海社科院互联网研究中心主任惠志斌研究员公布2019世界人工智能产业安全十大创新实践和十佳优秀论文,并在现场进行颁奖仪式。

    其中十大创新实践获奖名单如下:

    点击添加图片描述(最多60个字)

    十佳优秀论文名单如下:

    点击添加图片描述(最多60个字)

    论坛现场同时举行三大项目合作签约。中国法学会警察法学研究会秘书长邢捷、观安信息CTO胡绍勇进行人工智能助力公共安全项目签约,联合国工业发展组织上海国际智能制造促进中心主任吴玉刚、观安信息CTO胡绍勇进行数据安全护航智能制造项目签约,格力电器工艺部部长钟明生、上海控安COO刘毅、科士恩科技CEO胡东明进行多模态协同人工智能工业检测签约。

    点击添加图片描述(最多60个字)

    三大报告公布 助力人工智能安全研究

    安全高端对话现场发布三大重磅报告:《人工智能时代数字内容治理的机遇与挑战》《人工智能数据安全风险与治理》《智能网联汽车产业趋势与安全挑战》,深耕人工智能安全内容、数据安全、行业场景等关键领域。

    点击添加图片描述(最多60个字)

    人工智能安全前沿探索与创新实践

    在主旨演讲和圆桌分享环节,安全高端对话围绕“人工智能安全前沿探索”与“人工智能安全创新实践”两大议题,分享最新的研究成果与技术实践,探索人工智能安全发展之道,促进人工智能产业健康发展。

    其中,在“人工智能安全前沿探索”的主题演讲上,中国科学院院士何积丰强调,人工智能系统不可信原因是基于机器学习理论,而非传统软件理论,并提出可信人工智能应该具备与人类智能类似的特质,表现为鲁棒性、自我反省、自适应、透明性和可解释性、以及公平性。中国工程院院士倪光南指出,我国整体技术和产业水平已居世界第二,我国企业在全球ICT企业前10名中占据3席,对此,我们既不要夜郎自大,也不要妄自菲薄。当下必须认清中国网信领域的总态势,找出“短板”和“长板”,制订相应对策,以增强抗风险能力。他呼吁,应加快推进国产自主可控替代计划,推动网络核心技术创新,实行包括自主可控测评在内的多维度测评。牛津大学人类未来研究所AI治理中心主任Allan Dafoe、观安信息首席技术官胡绍勇、平安科技首席信息安全官陈建分别发表主旨演讲,围绕人工智能安全前沿探索主题各抒己见。

    点击添加图片描述(最多60个字)

    在该主题的圆桌分享环节,清华大学战略与安全研究中心秘书长陈琪担任主持人。中国法学会警察法学研究会会长程琳、欧盟委员会人工智能高级专家组成员Jaan Tallinn、剑桥大学利弗休姆未来智能研究中心研究员Danit Gal、中国电科网络空间安全研究院基础先进研究所副所长陈剑锋围绕人工智能的发展趋势以及对国家安全、产业安全、社会治理等带来的挑战与机遇等问题深入交流。

    在人工智能安全创新实践主题演讲上,腾讯安全战略研究中心高级研究员韩李云、微软亚太研发集团法律事务总经理罗立凡、UCloud优刻得高级副总裁陈晓建、安恒信息首席科学家刘博、普华永道全球人工智能主管合伙人Anand Rao发表主旨演讲。

    在随后的圆桌分享环节,北京师范大学互联网发展研究院院长助理吴沈括主持讨论,中国欧盟商会副主席代开乐、上海人工智能学会理事长/同济大学教授张浩、腾讯安全产品总监/专家工程师王翔、翼盾智能CEO朱易翔,围绕人工智能产业安全领域的标准规范、研发成果、产品/服务、解决方案等内容,就交通、金融、智能制造、网络安全、云计算、智能客服等各行业AI应用展开讨论。

    擎安全之帆,引未来之路,AI安全号角已经吹响!2019世界人工智能安全高端对话秉承AI安全使命,敞开共享合作的大门,前瞻人工智能的发展趋势,蓄能满格、强势发声,助力我国抢占未来全球人工智能竞争的战略高地,力争为全球人工智能创新发展作出新的有益探索。

    展开全文
  • 政企应用中的人工智能 安全 吴鹤意 南京网络空间安全技术研究院副院长 目录 目录 AI对抗样本简介 对抗样本安全案例 AI安全解决之道 AI对抗样本简介 Beginning 2014 Explaining and Harnessing Adversarial Examples ...
  • 阿里人工智能安全白皮书2020.pdf
  • 以下内容摘自《人工智能安全白皮书(2018)》 http://www.caict.ac.cn/kxyj/qwfb/bps/index_1.htm 《人工智能发展白皮书-技术架构篇(2018年)》 《人工智能安全白皮书(2018)》 《2018世界人工智能产业发展蓝皮...

                               以下内容摘自《人工智能安全白皮书(2018)

     

    http://www.caict.ac.cn/kxyj/qwfb/bps/index_1.htm

    《人工智能发展白皮书-技术架构篇(2018年)》

    《人工智能安全白皮书(2018)》

    《2018世界人工智能产业发展蓝皮书》

    《电信网络人工智能应用白皮书(2018 年)》

    《 深度学习技术选型白皮书(2018 年)》

     

    目录

                               以下内容摘自《人工智能安全白皮书(2018)》

    第一章、 人工智能安全内涵与体系架构 

    (一) 人工智能基本概念与发展历程

    1、人工智能基本概念

    2、人工智能发展历程

    (二) 人工智能安全内涵

    (三) 人工智能安全体系架构

    1、人工智能安全风险

    2、人工智能安全应用

    3、人工智能安全管理

    第二章、 人工智能安全风险分析

    (一) 网络安全风险

    (二) 数据安全风险

    1、逆向攻击可导致算法模型内部的数据泄露。

    2、人工智能技术可加强数据挖掘分析能力,加大隐私泄露风险。

    (三) 算法安全风险

    1、算法设计或实施有误可产生与预期不符甚至伤害性结果。

    2、算法潜藏偏见和歧视,导致决策结果可能存在不公。

    3、算法黑箱导致人工智能决策不可解释,引发监督审查困境。

    4、含有噪声或偏差的训练数据可影响算法模型准确性。

    5、对抗样本攻击可诱使算法识别出现误判漏判,产生错误结果。

    (四) 信息安全风险

    1、智能推荐算法可加速不良信息的传播。

    2、人工智能技术可制作虚假信息内容,用以实施诈骗等不法活动。

    (五) 社会安全风险

    1、人工智能产业化推进将使部分现有就业岗位减少甚至消失,导致 结构性失业。

    2、人工智能特别是高度自治系统的安全风险可危及人身安全。

    3、人工智能产品和应用会对现有社会伦理道德体系造成冲击。

    (六) 国家安全风险

    1、人工智能可用于影响公众政治意识形态,间接威胁国家安全

    2、人工智能可用于构建新型军事打击力量,直接威胁国家安全。

    第三章、 人工智能安全应用情况

    (一) 网络信息安全应用

    1、网络安全防护应用

    2、信息内容安全审查应用

    3、数据安全管理应用

    (二) 社会公共安全应用

    1、智能安防应用

    2、金融风控应用

    第四章、 人工智能安全管理现状

    (一) 主要国家人工智能安全关注重点

    1、美国:关注人工智能技术对国家安全的影响。

    2、欧盟和英国:关注人工智能对隐私、就业及伦理影响

    3、俄罗斯、以色列、印度:重点关注人工智能国防领域应用以 及对军事安全影响

    4、加拿大、日本、韩国、新加坡:侧重人工智能人才培养、技 术研发和产业推进等,对人工智能安全关注较少

    (二) 主要国家人工智能安全法规政策制定情况

    (三) 国内外人工智能安全标准规范制定情况

    1、IEEE正在开发人工智能伦理道德标准,规范人工智能安全设计。

    2、ISO/IEC成立人工智能可信研究组,开展人工智能安全标准研究。

    3、我国成立国家人工智能标准化总体组与专家咨询组,加强人工智能安全标准研制工作。

    (四) 国内外人工智能安全技术手段建设情况

    (五) 国内外人工智能重点应用的安全评估情况

    1、自动驾驶的安全测试验证受到各国高度重视,但未形成统一安全 标准和评价体系。

    2、工业机器人相关安全标准较为完备,但智能服务机器人安全标准体系和评估能力尚待完善。

    (六) 国内外人工智能人才队伍建设情况

    (七) 国内外人工智能产业生态培育情况

    五、 人工智能安全发展建议

    (一) 加强自主创新,突破共性关键技术

    (二) 完善法律法规,制定伦理道德规范

    (三) 健全监管体系,引导产业健康发展

    (四) 强化标准引领,构建安全评估体系

    (五) 促进行业协作,推动技术安全应用

    (六) 加大人才培养,提升人员就业技能

    (七) 加强国际交流,应对共有安全风险

    (八) 加大社会宣传,科学处理安全问题


     

    第一章、 人工智能安全内涵与体系架构 

    (一) 人工智能基本概念与发展历程

    1、人工智能基本概念

             结合业界专 家观点,项目组研究认为,人工智能是利用人为制造来实现智能机器 或者机器上的智能系统,模拟、延伸和扩展人类智能,感知环境,获 取知识并使用知识获得最佳结果的理论、方法和技术。

    2、人工智能发展历程

          \large {\color{Red} }\Delta{{\color{Green} }\color{Red} }人工智能 自 1956 年诞生。

          \large {\color{Red} }\Delta{{\color{Green} }\color{Red} }以 2006 年深度学习模型的提出为标志,人工智能核心 算法取得重大突破并不断优化。

          \large {\color{Red} }\Delta{{\color{Green} }\color{Red} }当前人工智能仍处于弱人工智能阶段,主要是面向特定领域的专 用智能。

          人工智能可划分为弱人工智能、强人工 智能和超人工智能三个阶段。弱人工智能擅长于在特定领域、有限规 则内模拟和延伸人的智能;强人工智能具有意识、自我和创新思维, 能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学 习和从经验中学习等人类级别智能的工作;超人工智能是在所有领域 都大幅超越人类智能的机器智能。

    (二) 人工智能安全内涵

    人工智能安全内涵包含:

    一、降低 人工智能不成熟性以及恶意应用给网络空间和国家社会带来的安全 风险;

    二、推动人工智能在网络安全和公共安全领域深度应用;

    三、构建人工智能安全管理体系,保障人工智能安全稳步发展。

    (三) 人工智能安全体系架构

            基于对人工智能安全内涵的理解,项目组提出覆盖安全风险、安 全应用、安全管理三个维度的人工智能安全体系架构。

    1、人工智能安全风险

           人工智能作为战略性与变革性信息技术,给网络空间安全增加了 新的不确定性,人工智能网络空间安全风险包括:网络安全风险、数 据安全风险、算法安全风险和信息安全风险。

             网络安全风险涉及网络设施和学习框架的漏洞、后门安全问题, 以及人工智能技术恶意应用导致的系统网络安全风险(破坏网络)。

             数据安全风险包括人工智能系统中的训练数据偏差、非授权篡改 以及人工智能引发的隐私数据泄露等安全风险(盗用数据)。

             算法安全风险对应技术层中算法设计、决策相关的安全问题,涉 及算法黑箱、算法模型缺陷等安全风险(每个算法都可能存在安全隐患,只是现在没有发现而已)。

             信息安全风险主要包括人工智能技术应用于信息传播以及人工 智能产品和应用输出的信息内容安全问题(散播不良信息)。

            社会安全风险是指人工智能产业化应用带来的结构性失业、对社 会伦理道德的冲击以及可能给个人人身安全带来损害(大部分人失业导致社会不稳定)。

            国家安全风险是指人工智能在军事作战、社会舆情等领域应用给 国家军事安全和政体安全带来的风险隐患。

    2、人工智能安全应用

           网络防护应用是指利用人工智能算法开展入侵检测、恶意软件检 测、安全态势感知、威胁预警等技术和产品的研发。

           数据管理应用是指利用人工智能技术实现对数据分级分类、防泄 漏、泄露溯源等数据安全保护目标。

           信息审查应用是指利用人工智能技术辅助人类对表现形式多样, 数量庞大的网络不良内容进行快速审查。

           智能安防应用是指利用人工智能技术推动安防领域从被动防御 向主动判断、及时预警的智能化方向发展。

           金融风控应用是指利用人工智能技术提升信用评估、风险控制等 工作效率和准确度,并协助政府部门进行金融交易监管。

           舆情监测应用是指利用人工智能技术加强国家网络舆情监控能 力,提升社会治理能力,保障国家安全。

    3、人工智能安全管理

    法规政策方面,针对人工智能重点应用领域和突出的安全风险, 建立健全相应的安全管理法律法规和管理政策。

    标准规范方面,加强人工智能安全要求、安全评估评测等方面的 国际、国内和行业标准的制定完善工作。

    技术手段方面,建设人工智能安全风险监测预警、态势感知、应 急处置等安全管理的技术支撑能力。

    安全评估方面,加快人工智能安全评估评测指标、方法、工具和 平台的研发,构建第三方安全评估评测能力。

    人才队伍方面,加大人工智能人才教育与培养,形成稳定的人才 供给和合理的人才梯队,促进人工智能安全持续发展。

    可控生态方面,加强人工智能产业生态中薄弱环节的研究与投入, 提升产业生态的自我主导能力,保障人工智能安全可控发展。

           以下的第二章、第三章、第四章,分别对第一章的安全风险、安 全应用、安全管理三大部分观点,又分别进行叙述。最后,本文提出人工智能的发展建议,相当于对人工智能的总结。因此,文本采用了总分总的结构来阐述人工智能。

    第二章、 人工智能安全风险分析

    (一) 网络安全风险

    1、目前,国内人工智能产品和应用的研发主要是基于谷歌、微软、 亚马逊、脸书、百度等科技巨头发布的人工智能学习框架和组件。但 是,由于这些开源框架和组件缺乏严格的测试管理和安全认证,可能 存在漏洞和后门等安全风险。

    2、过去恶意软件的创建 在很大程度上由网络犯罪分子人工完成,通过手动编写脚本以组成计 算机病毒和木马,并利用 rootkit、密码抓取器和其他工具帮助分发 和执行。但人工智能技术可使这些流程自动化,通过插入一部分对抗 性样本,绕过安全产品的检测,甚至根据安全产品的检测逻辑,实现 恶意软件自动化地在每次迭代中自发更改代码和签名形式,在自动修 改代码逃避反病毒产品检测的同时,保证其功能不受影响。

    3、2017 年 3 月,首个用机器学习创建恶意软件的案例出现在《为基于 GAN 的黑盒 测试产生敌对恶意软件样本》的论文报告中,基于生成性对抗网络 (GAN)的算法来产生对抗恶意软件样本,这些样本能绕过基于机器学 习的检测系统。

    4、Fortinet 在其发布的 2018 年全球威胁态势预测中表示,人工 智能技术未来将被大量应用在蜂巢网络(Hivenet)和机器人集群 (Swarmbots)中,利用自我学习能力以前所未有的规模自主攻击脆弱 系统。

    (二) 数据安全风险

    1、逆向攻击可导致算法模型内部的数据泄露。

            逆向攻击是利用机器学 习系统提供的一些应用程序编程接口(API)来获取系统模型的初步 信息,进而通过这些初步信息对模型进行逆向分析,从而获取模型内 部的训练数据和运行时采集的数据。例如,Fredrikson 等人在仅能黑 盒式访问用于个人药物剂量预测的人工智能算法的情况下,通过某病 人的药物剂量就可恢复病人的基因信息。

    2、人工智能技术可加强数据挖掘分析能力,加大隐私泄露风险。

           Facebook 数据泄露事件的主角剑桥分析公司通过关联分 析的方式获得了海量的美国公民用户信息,包括肤色、性取向、智力 水平、性格特征、宗教信仰、政治观点以及酒精、烟草和毒品的使用 情况,借此实施各种政治宣传和非法牟利活动。

    (三) 算法安全风险

    1、算法设计或实施有误可产生与预期不符甚至伤害性结果。

        2018 年 3 月,Uber 自动驾驶汽车因机器 视觉系统未及时识别出路上突然出现的行人,导致与行人相撞致人死 亡。

        谷歌、斯坦福大学、伯克利大学和 OpenAI 研究机构的学者根据 错误产生的阶段将算法模型设计和实施中的安全问题分为三类。第一 类是设计者为算法定义了错误的目标函数例如,设计者在设计目标 函数时没有充分考虑运行环境的常识性限制条件,导致算法在执行任 务时对周围环境造成不良影响。第二类是设计者定义了计算成本非常 高的目标函数,使得算法在训练和使用阶段无法完全按照目标函数执行,只能在运行时执行某种低计算成本的替代目标函数,从而无法达 到预期的效果或对周围环境造成不良影响。第三类是选用的算法模型 表达能力有限,不能完全表达实际情况,导致算法在实际使用时面对 不同于训练阶段的全新情况可能产生错误的结果。

    2、算法潜藏偏见和歧视,导致决策结果可能存在不公。

            比如Northpointe 公司开发的犯罪风险评估算法 COMPAS 时,黑人被错误地评估为具有 高犯罪风险的概率两倍于白人。本质原因由两方面原因造成,一、设计者和开发者的主观偏见。二是数据是社会现 实的反应,训练数据本身带有歧视性,用这样的数据训练得出的算法 模型天然潜藏歧视和偏见。

    3、算法黑箱导致人工智能决策不可解释,引发监督审查困境

    4、含有噪声或偏差的训练数据可影响算法模型准确性

          例 如,主流人脸识别系统大多用白种人和黄种人面部图像作为训练数据, 在识别黑种人时准确率会有很大下降。MIT 研究员与微软科学家对微 软、IBM 和旷世科技三家的人脸识别系统进行测试,发现其针对白人 男性的错误率低于 1%,而针对黑人女性的错误率则高达 21%-35%。

    5、对抗样本攻击可诱使算法识别出现误判漏判,产生错误结果

            例如,Biggio 研究团队利用梯度法来产生最优化的逃避对抗 样本,成功实现对垃圾邮件检测系统和 PDF 文件中的恶意程序检测 系统的攻击。再例如,Nguyen 等人利用改进的遗传 算法产生多个类别图片进化后的最优对抗样本,对谷歌的 AlexNet 和 基于 Caffe 架构的 LeNet5 网络进行模仿攻击,从而欺骗 DNN 实现误 分类。

    (四) 信息安全风险

    1、智能推荐算法可加速不良信息的传播。

    McAfee 公司表示,犯罪分子将越来越多地 利用机器学习来分析大量隐私记录,以识别潜在的易攻击目标人群, 通过智能推荐算法投放定制化钓鱼邮件,提升社会工程攻击的精准性。

    2、人工智能技术可制作虚假信息内容,用以实施诈骗等不法活动。

           2017 年,我国浙江、湖北等地发生多起犯罪分子利用语音合 成技术假扮受害人亲属实施诈骗的案件,造成恶劣社会影响。         2018 年 2 月英国剑桥大学等发布的《人工智能的恶意使用:预测、预防和 缓解》研究报告预测,未来通过合成语音和视频及多轮次对话的诈骗 技术成为可能,基于人工智能的精准诈骗将使人们防不胜防。

           2018 年 5 月 8 日,谷歌在 I/O 开发者大会上展示的聊天机器人,在与人进 行电话互动时对话自然流畅、富有条理,已经完全骗过了人类

    (五) 社会安全风险

    1、人工智能产业化推进将使部分现有就业岗位减少甚至消失,导致 结构性失业

    据 Forrester Research 预测统计,人工智能技术将在 2025 年之前取代美国 7%的 工作岗位,其中16%的美国工人将被人工智能系统取代。《未来简史》 作者尤瓦尔·赫拉利预言,二三十年内超过 50%工作会被人工智能取 代。

    2、人工智能特别是高度自治系统的安全风险可危及人身安全。

    例如,2016 年 5 月,开启自动驾驶功能的特斯拉汽车无法识别蓝天背景下的白色 货车,在美国发生车祸致驾驶员死亡;2017 年年初,我国发生多起 无人机干扰致航班紧急迫降事件。

    3、人工智能产品和应用会对现有社会伦理道德体系造成冲击

         体现在4个方面:

    3.1、智能系统的决策算法会影响社会公平正义。

           Kronos 公司的人工智能雇佣辅助系统让少数族裔、女性 或者有心理疾病史的人更难找到工作。

    3.2、人工智能应用缺乏道德规 范约束,资本逐利本性会导致公众权益受到侵害。

            例如:携程、滴滴等基于用户行为数 据分析,实现对客户的价格歧视;Facebook 利用人工智能有针对性 地向用户投放游戏、瘾品甚至虚假交友网站的广告,从中获取巨大利 益。

    3.3、人工智能会让人类产生严重依赖,冲击现有人际观念。

           智能伴侣机器人依托个人数据分析,能够更加了解个体心理,贴近用 户需求,对人类极度体贴和恭顺,这就会让人类放弃正常的异性交往, 严重冲击传统家庭观念。

    3.4、人工智能产品和系统安全事件导致的财 产损失、人身伤害等面临无法追责的困境。

    (六) 国家安全风险

    1、人工智能可用于影响公众政治意识形态,间接威胁国家安全

           美国伊隆大学数据科 学家奥尔布赖特指出,通过行为追踪识别技术采集海量数据,识别出 潜在的投票人,进行虚假新闻的点对点的推送,可有效影响美国大选 结果。

    2、人工智能可用于构建新型军事打击力量,直接威胁国家安全。

         例如,美国国防部明确 把人工智能作为第三次“抵消战略”的重要技术支柱。俄罗斯军队于 2017 年开始大量列装机器人,计划到 2025 年,无人系统在俄军装备 结构中的比例将达到 30%

     

    第三章、 人工智能安全应用情况

    (一) 网络信息安全应用

    1、网络安全防护应用

    1.1、从应用深度看,人工智能在网 络安全的应用程度仍处于前期积累阶段。

           例如,在入侵检测方面, 以色列 Hexadite 公司利用人工智能来自动分析威胁,迅速识别和解 决网络攻击,帮助企业内部安全团队管理和优先处理潜在威胁;我国 山石网科公司研发智能防火墙,可基于行为分析技术,帮助客户发现 未知网络威胁,能够在攻击的全过程提供防护和检测。

    1.2、从应用范围看,人工智 能在网络安全的应用场景日益广泛。

          如英国 DarkTrace 公司 基于剑桥大学的机器学习和人工智能算法仿生人类免疫系统,致力于 实现网络自动自主防御潜在威胁,能够帮助企业快速识别并应对人为 制造的网络攻击,同时还能预防基于机器学习的网络攻击。

    2、信息内容安全审查应用

         美国互联网巨头 Facebook 不仅利用人工智能技术 对互联网内容进行标记,而且利用机器学习开发了一款对用户的视频 直播内容进行实时监控识别的工具,自动对直播中涉黄、涉暴或者自 杀类别的视频内容进行标记。

    3、数据安全管理应用

         德国的 Neokami 公司利用人工智能技术帮助客 户保护云端、本地或物理资产上的敏感数据,该公司所研发的数据分 类引擎适用于多种业务场景,已被众多合作伙伴厂商所采用,在多家 财富 500 强公司中创造价值。

    (二) 社会公共安全应用

    1、智能安防应用

     1.1、基于人工智能技术的智能安防呈现全球高速发展的良好态势。

          与传统安防不同,基于人工智能的智能安防依 托对海量视频数据的学习,可完成行为模式的推断和预测,已经从被 动防御向主动判断、及时预警的智能化方向发展,目前已经应用于人 脸识别、车辆识别等系统中,进行目标属性提取,实现对目标的智能 检测、跟踪及排查。

    1.2、国外芯片巨头把握行业发展良机,加紧在智能安防产业链上游布 局。

         美国芯片巨头英特尔早在 2016 年就收购了具有领先技术的计算 机视觉公司 Movidius,之后陆续推出多款植入独立神经运算引擎、 支持边缘深度学习推断的视觉运算芯片以及神经计算 SDK 开发包,形 成平台化设计,为世界范围内各大安防公司提供个性化的解决方案。

    1.3、国内智能安防产业发展空间巨大。

        预计到 2020 年, 安防企业总收入达到 8000 亿元左右,年增长率达到 10%以上

    1.4、国 内智能安防行业创新能力不断加强,但仍需向产业链上游努力迈进。

          目前看,国内安防市场竞争格局以人工智能创新型企业和传统安防巨 头两类企业为主。其中,基于人工智能的初创企业如云从科技、商汤 科技和旷视科技等,依托在计算机视觉、数据深度分析等方面的技术 积累,推出智能安防产品,进行产业布局;传统安防巨头海康威视、 大华股份等近年来不断加大研发投入,加强技术创新能力,并且对初 创企业进行投资收购,逐步提升安防产品智能化水平

    2、金融风控应用

    2.1、人工智能技术可用于提升金融风控工作效率和准确度。

    2.2、国外发展相对成熟,已应用于金融交易监管。

         2016 年 底,纳斯达克和伦敦证券交易所启用人工智能投入市场监管;2017 上半年,华尔街两家交易所推出智能监管系统。

    2.3、国内处于起步阶段,仍需长时间的市场验证。

         国内融 360、好贷 网、资信客等金融企业借助对企业市场影响力、产品口碑评价等广泛 的数据采集和有效筛选,依托人工智能技术实现了对历史经营数据和 实时市场信息的量化建模,进而实现了对各类资产风险的预测评估。

     

    第四章、 人工智能安全管理现状

    (一) 主要国家人工智能安全关注重点

    1、美国:关注人工智能技术对国家安全的影响。

         2017 年 7 月,哈佛大学肯尼迪政治学院发 布《人工智能与国家安全》报告。

         2018 年 3 月 20 日,美国国 会发起提案,建议成立“国家人工智能安全委员会”,并将制定 “2018 年国家安全委员会人工智能法”。

    2、欧盟和英国:关注人工智能对隐私、就业及伦理影响

       2018 年 3 月 27 日,欧洲政治战略中心发布《人工智能时代:确立以人为本的欧 洲战略》

    3、俄罗斯、以色列、印度:重点关注人工智能国防领域应用以 及对军事安全影响

    4、加拿大、日本、韩国、新加坡:侧重人工智能人才培养、技 术研发和产业推进等,对人工智能安全关注较少

           加拿大政府 2017 年 3 月推出了《泛加拿大人工智能战略》。

          日本政府在 2016 年 1 月颁布了《第 5 期科学技术基本计划》。

          韩国在 2005 年 1 月至 2017 年第三季度期 间,与人工智能相关的专利数量全球排名第三,仅次于美国和日本。

          新加坡在 2017 年 5 月发布《新加坡人工智能战略》

    (二) 主要国家人工智能安全法规政策制定情况

         省略

    (三) 国内外人工智能安全标准规范制定情况

    1、IEEE正在开发人工智能伦理道德标准,规范人工智能安全设计。

          2017 年 3 月,IEEE 在《IEEE 机器人与自动化》杂志发表 了名为“旨在推进人工智能和自治系统的伦理设计的 IEEE 全球倡议 书”。

          目前,IEEE 工作组正在开发 IEEE P7000 系列中涉及道德规范的伦理标准。

    2、ISO/IEC成立人工智能可信研究组,开展人工智能安全标准研究。

    3、我国成立国家人工智能标准化总体组与专家咨询组,加强人工智能安全标准研制工作。

    (四) 国内外人工智能安全技术手段建设情况

    1、2016 年 10 月,英国下议院科学和技术委 员会发布《机器人技术和人工智能》报告,呼吁政府应该对人工智能 进行监管。

    2、大疆科技 通过事前环节的实名登记,实现所有无人机的实名使用,确保使用者 有据可查。

    (五) 国内外人工智能重点应用的安全评估情况

    1、自动驾驶的安全测试验证受到各国高度重视,但未形成统一安全 标准和评价体系。

      2016 年 9 月 20 日,美国交通运输部颁布《联邦自 动驾驶汽车政策》。

      2018 年 4 月 12 日,我国工信部、公安部、交通部联合发布《智能网联汽车道 路测试管理规范(试行)》

    2、工业机器人相关安全标准较为完备,但智能服务机器人安全标准体系和评估能力尚待完善。

          ISO/TC299/WG2 完成了服务机器人领域第一个安全标准——ISO 13482:2014 《个人护理机器人的安全要求》。

         2017 年 1 月,国家发改委、工信部、国标委、认监委等部门联合发布了《家用/商用服务机器人安全及 EMC 认证实施 规则》。

    (六) 国内外人工智能人才队伍建设情况

          1、清华、 南开等多所 985 高校成立人工智能研究院。 

          2 、2018 年 7 月,清华、南 大、西交大等 26 所高校联合签署《关于设置人工智能专业建议书》, 申请设立人工智能本科专业。

          3、目前,人工智能领域学术能力排在世界前 20 的学校中,美国占据 14 所,排名前八个席位的都为美国所占据。

          4、截止 2017 年 6 月,美国产业人才总量约是中国的两 倍,美国 1078 家人工智能企业约有 78000 名员工,中国 592 家公司 中约有 39000 位员工。

          5、我国 深人工智能从业者占比与美国差距明显(十年以上从业者占比 38.7%,而美国是 71.5%20)。

    (七) 国内外人工智能产业生态培育情况

    1、国内人工智能产业投资和技术研究主要集中在应用层环节,在 自动驾驶、计算机视觉、语音识别等应用领域形成一定优势,甚至部 分产业处于国际领先水平。

    2、我国人工智能基础层发展相对缓慢,缺少重大原创成果, 在基础理论、核心算法以及关键设备、高端芯片等方面差距较大,尽 管涌现出寒武纪、地平线等优秀创业公司,并已形成成熟产品,但同 国外英伟达、谷歌等巨头相比差距明显,尚难以取得市场竞争主导权。

    3、牛津 大学研究报告提出“国家人工智能潜力指数(AIPI)”,中国产业生态 位居世界第二,但得分仅为美国的四分之一。

     

    五、 人工智能安全发展建议

    (一) 加强自主创新,突破共性关键技术

            因此,需要从云计 算、大数据和机器学习等关键通用技术研究入手,破解基础安全风险。一方面,立足自主,以传感器、智能芯片、基础算法等重点技术安全 可控发展为目标,实施重大技术攻关工程;另一方面,加大技术引进, 以开放务实的态度开展对外技术合作,实现技术消化吸收和再创新。

    (二) 完善法律法规,制定伦理道德规范

    (三) 健全监管体系,引导产业健康发展

    (四) 强化标准引领,构建安全评估体系

    (五) 促进行业协作,推动技术安全应用

    (六) 加大人才培养,提升人员就业技能

    (七) 加强国际交流,应对共有安全风险

    (八) 加大社会宣传,科学处理安全问题

     

     

     

     

    展开全文
  • 人们不禁会想,AI的超强大脑最终会不会战胜人类?在面对机器人中的“坏人”时,谁才会成为网络安全的终极守护者? 这并不是骇人听闻,最近几年,网络勒索病毒来势汹汹,使“网络安全”一词再次出现在大家的视线中。...

    人工智能专家细数AI安全隐患

    在AlphaGo打败了世界围棋冠军之后,越来越多的机器人成为了我们的同事。人们不禁会想,AI的超强大脑最终会不会战胜人类?在面对机器人中的“坏人”时,谁才会成为网络安全的终极守护者?

    这并不是骇人听闻,最近几年,网络勒索病毒来势汹汹,使“网络安全”一词再次出现在大家的视线中。2016年初发现的Petya勒索病毒,最初只是利用E-mail传播,然后不断地加强攻击的能力。到2017年时,已经波及了60个国家和地区的大约30万用户,使得数家企业被迫中断业务或者停止生产。因为网络的飞速发展使得全世界的联系更加紧密,这也令每个终端的安全变得十分的脆弱。

    “在AI领域,我们有很大的风险,越来越多的系统是人工智能,受到更多攻击的可能也在增大。”7月8日在上海举行的一期“理解未来”讲座上,美国加州大学伯克利分校计算机系教授Dawn Song分享了她在计算机深度学习和安全领域的研究成果时称,AI与网络安全的结合还属于新兴产业,计算机安全领域还有许多没有解决并且十分具有挑战性的问题需要人们不断地追寻和探索答案。

    在美国生活了20多年的Dawn Song,作为当今全球顶级的AI研究专家,尽管能够顺利的使用中文交流,但是在分享学术成果的时候还是习惯使用英文。Dawn Song说,用英文表达是为了让一些科学术语在用词时能够“更清楚”。

    Dawn Song对AI的巨大发展十分感叹,她说:“AlphaGo最近打败了人类,ImageNet现在也是非常领先,这是一个计算机识别系统;另外还有深度学习,它已经是促进了我们生活的方方面面的发展,包括产品的研究、医学研究等,比如深度学习可以用来识别乳腺癌细胞中的游丝分裂,同时可以研究基因突变预防疾病,还可以用来改善安全方面的能力,包括人脸识别、欺诈检测以及恶意软件的检测等。”

    在这次讲座上,Dawn Song教授显然不是想要详细的描述“人工智能的发展”,现如今,她最担忧的是深度学习和人工智能的另外一面——人工智能与安全。

    当AI遇到黑客袭击的时候是什么样的?之所以要谈论这个问题,是因为Dawn Song通过研究发现,互联网技术的每一次提升,都会伴随着网络攻击的增加。比如在互联网开始之初,那是一共只有6万台计算机,当时有一个学生制造了第一个叫做蠕虫病毒,一下子使1/10的计算机受到了感染;13年后的另外一个叫做Code Red的病毒,感染了2000台主机,这使得全世界有很多的电脑受到了攻击;后来又出现了一个叫做Stuxnet的病毒,这个蠕虫病毒还叫做超级工厂病毒,这是一种针对工业控制系统编写的破坏性病毒,它相应的攻击能力非常强,造成了大面积的损害;今年的WannaCry病毒,影响了150个国家,导致了20万台计算机中毒。

    Dawn Song教授说:“互联网还在不断发展,它已经成为我们日常生活中很重要的一部分;同时,互联网的攻击也在不断增加,可以看到,有许多病毒的攻击变得越来越多样化,也越来越严重。”

    另外,Dawn Song研究还发现,网络上的攻击者不仅不断地追随新技术的发展脚步,甚至有时会领先于我们的技术发展,人工智能领域不可避免的存在着极大的风险。再加上AI系统越来越强,这也就意味着十分有可能被攻击者利用,结果也将更加严重。

    Dawn Song以目前风靡全球的无人驾驶汽车为例进行了分析,称无人驾驶汽车在道路上行驶时,需要识别路边的路牌才能决定用什么速度、向什么方式行驶。如果我们在AI系统中做一个小小的修改,那么识别出来的结果将会完全不一样。“作为人眼我们能够识别一些区别,但如果是深度学习系统,可能就会犯一些错误,会进行一些错误的分类。”

    目前,AI仍然存在着无法预料到的漏洞,而微小对抗性的攻击将会把漏洞无限放大。但是,正如互联网进步有很多都输在打补丁是才跃升的一样,Dawn Song认为,目前已经发现的问题将会随着AI技术的进步逐步得到解决。然而在AI系统里,将会继续有新的漏洞出现。

    本文转载自ATYUN人工智能媒体平台,原文链接:人工智能专家细数AI安全隐患

    更多推荐

    世界反兴奋剂机构使用人工智能来识别兴奋剂作弊

    不懂神经网络?不怕,一文教你用JavaScript构建神经网络

    挑战亚马逊 IBM的沃森助手让任何公司都能构建类似于Alexa的语音接口

    两位科技大神凭借RISC技术获得图灵奖 谷歌成最大赢家

    帮化学家偷个懒,利用量子计算来模拟化学反应

    欢迎关注ATYUN官方公众号,商务合作及内容投稿请联系邮箱:bd@atyun.com
    欢迎关注ATYUN官方公众号,商务合作及内容投稿请联系邮箱:bd@atyun.com

     

    展开全文
  • 人工智能安全、伦理、隐私保护等的安全相关 标准,大多仍处于研究阶段。 1.国外 IEEE正在开发人工智能伦理道德标准,规范人工智能安全设计 。2017 年 3 月, IEEE 在《IEEE 机器人与自动化》杂志发表了名为...
  • 0x00背景 近期 全国信息安全标准化技术委员会 大数据安全标准特别工作组发布了人工智能安全标准化白皮书(2019版),针对人工智能...人工智能(Artificial Intelligence,简称AI),阿尔法狗对战中国的围棋高手,...
  • 点击左上方蓝字关注我们随着“新基建”大幕的拉开和智能经济时代的到来,人工智能技术正在成为全球范围内各国竞争的焦点。12月23日,第二届中国人工智能大赛及高峰论坛在厦门正式举行。基于在飞桨深...
  • 人工智能安全性测试

    2020-06-02 02:03:04
    现在的人工智能安全吗?未来的人工智能安全吗?是否会存在某一天人工智能强大到伤害人类?这些问题值得我们去思考,现在的人工智能安全性有一定的测试吗?安全性有标准吗? 我们可以研发一套设备,人工智能安全性...
  • 从数据层面看,现在人工智能应用效果很大程度上依赖数据质量,但由此会带来隐私泄漏、数据确权等问题。在应用层面,人工智能技术已经逐渐对人们的生活造成冲击,比如售楼处看房戴头盔、困在算法里的外卖骑手等等。...
  • 大数据、云计算、人工智能等新一代信息技术的快速发展,围绕网络和数据的服务与应用呈现爆发式增长,智能设备将无所不在,智能家居、无人车、物联网将渗透到人类社会的各个角落,丰富的应用场景下暴露出越来越多的...
  • 2016年,AlphaGo战胜李世石,人工智能开始为大众所知。而在计算机视觉领域有个著名的数据集ImageNet,是一个用于测试计算机视觉系统识别能力的“题库”,这些题目...
  • 华为AI安全白皮书.pdf

    2019-09-10 10:05:41
    近年来,随着海量数据的积累、计算能力的发展、机器学习方 法与系统的持续创新与演进,诸如图像识别、语音识别、自然 语言翻译等人工智能技术得到普遍部署和广泛应用,人工智 能正朝着历史性时刻迈进。与此同时,AI...
  • 整理| 伍杏玲出品 |AI 科技大本营(ID:rgznai100)回顾人工智能 60 多年的发展历程,我们经历了第一代以知识驱动的人工智能,第二代以数据驱动的人工智能,如今来到第三代以...
  • 这本白皮书中的内容,跟之前了解到的AI安全的讲解有些不一样,个人感觉应该是切入的视角不一样。之前的一些文章或者白皮书,都从攻击者是否对模型了解分为白盒、灰盒等类别,这里并没有按照这种分类方法,而是直接...
  • AI安全之投毒攻击

    千次阅读 2020-08-08 08:21:58
    AI安全之投毒攻击数据投毒定义适应场景:一般解决办法: 数据投毒 你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本...
  • 近年来,人工智能迅猛发展,与家居、金融、交通、医疗等各个领域深度融合,让人们的生活更为便利。但与此同时,基于人工智能的系统一旦存在风险也将带来更为严重的后果。如何确保人工智能在不同的应用...
  • 2020年的网络安全处于一个发展转折点。人工智能和机器学习的进步正在为网络安全的技术进步提供助力,实时数据和分析也使得建立更强大的业务案例成为可能。网络安全支出过去很少与增收入或降成本挂...
  • 如同一些出生免疫力就有缺陷的人一样,AI也存在免疫力缺陷。基于从源头打造安全免疫力的新一代安全架构理念,最近,阿里安全研究发布了一项核心技术“AI安全诊断大师”,可对AI模型全面体检,“...
  • 我们知道,AI 技术将在很长一段时间占据互联网技术时代的风口。但是,有代码的地方就有缺陷,提到技术很难不讲安全,那么AI会不会碰到安全问题呢? AI安全 试想一下,未来的某个早晨...人工智能技术给生活带来便利...
  • 感谢阅读腾讯AI Lab微信号第105篇文章。本文将介绍业内首个AI安全攻击矩阵。近年来,人工智能迅猛发展,与家居、金融、交通、医疗等各个领域深度融合,让人们的生活更为便利。但与此同时,...
  • 想知道近期有什么最新活动?大数点为你整理的近期活动信息在此:AI Time”science debate论道AI安全与伦理2019年5月31日如今,人工智能的社会角色不断...
  • 文末有干货“Python高校”,马上关注真爱,请置顶或星标量子位 编辑 | 公众号 QbitAI随着人工智能技术的发展,人工智能在很多场景里正逐渐替代或协作着人类的各种劳动,它们可以成...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 182,317
精华内容 72,926
关键字:

人工智能安全