精华内容
下载资源
问答
  • 2019-09-18 07:00:44

    其实AI技术被区分为弱人工智能、通用人工智能、超级人工智能三种模式,弱人工智能也被称为狭义人工智能,是专攻某一领域的人工智能,比如一种AI能在国际象棋比赛中打败世界冠军,例如在围棋上大放异彩的AlphaGo都属于弱人工智能。

    通用人工智能(Artificial General Intelligence, AGI)也叫强人工智能,或人类级人工智能,通用人工智能指的是一台像人类一样拥有全面智能的计算机,人类能解决的智力问题他都能解决。创建通用人工智能比创建弱人工智能难多了,现在社会上尚未由成熟的案例,在建设目标上,人们希望通用人工智能具备为“通用的思考能力,包括但不限于推理、计划、解决问题、抽象思考、理解复杂概念、快速学习和从经验中学习的能力。”

    牛津大学哲学家、人工智能思想家尼克·博斯特罗姆(Nick Bostrom)将超级智能定义为“在几乎所有领域,包括科学创造力、一般智慧和社交技能,都比最优秀的人类大脑聪明得多的智力。

    AI技术中弱人工智能、通用人工智能、超级人工智能的区别!
    但是目前来说,我们所讨论的AI技术,主要集中在弱人工智能上,例如人脸识别,语音识别,目前市场主流的各大智能手机配备的语音机器人、人脸识别都是AI技术的落地应用的场景之一。此外在线上支付、门禁安全、安防等领域,AI技术的应用相对成熟,不过这类应用场景多与城市安防,公安监控相结合,其对设备和技术要求高,业务门槛也相对较高,在我国政务信息化建设中,AI贴合垂直行业需求,满足其定制化功能,在安防领域发挥了巨大作用。

    弱人工智能在个人智能终端和安防领域的应用相对成熟,不过在很多细分垂直领域上,人工智能的应用场景还待开发。例如在会议场景中加入人脸识别,语音唤醒等功能,构建智能化的会议场景,但是这类产品建设成本过高,一般的企业难以承受这样的成本价格,此外在需求上,智能化会议室更多是一个升级产物,而并非一个刚需。

    更多相关内容
  • 从专用人工智能迈向通用人工智能.pdf
  • 通用人工智能(“AGI”)——一种能够实现任何目标的人工智能(“AI”)——是人类面临的最大的生存威胁。 事实上,围绕 AGI 监管的问题是千禧一代将回答的最重要的问题。 当前人工智能系统的能力正在加速发展。 ...
  • 这是一个技术DEMO,目的是展示一项无监督训练的通用人工智能模拟技术,理论上可以模拟任意类型的智能,支持各种自然语言和非自然语言的训练。
  • 关注公众号,发现CV技术之美本文转载自新智元。来源:Google编辑:好困 LRS【导读】通用人工智能(AGI)的目标是训练的模型具有和人类相当的智慧,却惹得无数研究人员竞折腰。最近Jef...

    关注公众号,发现CV技术之美

    本文转载自新智元。

    来源:Google

    编辑:好困 LRS

    【导读】通用人工智能(AGI)的目标是训练的模型具有和人类相当的智慧,却惹得无数研究人员竞折腰。最近Jeff Dean发文,称他们正在研究下一代AI框架Pathways,目标直指AGI。这次凭借谷歌的「钞」能力,Jeff Dean能否再掀起一场AI革命?

    前脚专攻通用人工智能(AGI)的DeepMind想脱离谷歌,后脚谷歌就提出了一种潜在的AGI架构。

    abf8f7682832d62a9efe45f123ed4522.png

    前段时间Jeff Dean在TED表示他们正在开发一种超级智能的AI模型,目前只剩下道德相关的问题没有解决。

    56169bef813505e4beba4945b9627b9d.png

    近日,Jeff Dean则亲自撰文,介绍了这个全新的机器学习架构——Pathways。

    298da4cebb3f30d3c6266fc54bf97d50.gif

    回顾过去20年计算机科学的研究中,或许没有哪个领域比AI 研究取得的进展更快。

    在机器学习技术还没有那么惊艳的的2001, 谷歌的20号员工Jeff Dean就已经开始训练模型对谷歌搜索的错误查询进行纠正。

    267b1b22b8fd241a76cdde24697f07ad.png

    在后续的20年中,谷歌始终秉承AI first,为业界贡献了无数经典模型,word2vec,Transformer,BERT都极大促进了AI的发展。

    Jeff Dean也成为了美国工程院院士,创建了Google Brain、开发谷歌机器学习开源框架TensorFlow,还是谷歌广告系统、谷歌搜索系统等技术的重要创始人之一,可以说是谷歌的技术奠基人。

    但机器学习模型始终还处在一个固定的开发模式中,对于每个任务开发一个特定的模型,创建benchmark 来互相比拼,最后活下来的模型成为新sota。

    e07fc40bb7a7f94d177163f3feb51730.png

    这种研究方式虽然可以促进模型的研究,提升特定任务的性能,但离通用人工智能似乎已经越来越远了。

    当一个任务需要变换输入数据时,现有的模型通常需要重新收集、标注数据,重新研究模型的架构,对于复杂环境的应变能力可以说是十分拉胯了。

    Jeff Dean将这个新的模型架构Pathways,称为「下一代AI 架构」——只训练一个模型,就可以处理数以万计的任务类型。

    25a419536a4023a5880e6b3bbd3bf306.gif

    下一代AI架构:Pathways

    简单来说就是,Pathways能够让AI模型像人类一样思考。

    问题1:传统AI模型训练后只能完成一个任务。

    Pathways:训练一个模型可以做千上万个任务。

    通常来说,每当处理一个新的问题时都需要训练一个新的AI模型,而这些数学模型的参数实际上是用随机的权重进行初始化,然后使用标注数据进行训练的。

    但人类每次学习新技能的时候并不是这样。

    这就好像说,你在学习跳绳时,又要忘记曾经所学过的一切技能,包括如何平衡、如何跳跃、如何协调双手的运动,直接从「爬」开始学习跳绳。

    35fbe78846c4efc387a4a1968e483ad7.png

    这或多或少就是如今训练大多数机器学习模型的方式:从无到有地训练每一个新的模型来做一件事,而且只做一件事(或者把一个通用模型用于一个特定的任务),而不是扩展现有的模型来学习新的任务。

    直接导致的结果就是,数以千计的任务带来了成千上万的模型。这不仅让学习每个新任务的时间更长,而且还需要更多的数据来学习每个新任务,因为每次学习都需要从零开始学习关于世界的一切以及该任务的具体细节。

    df6aa7752b0adcbff3f74432602c147d.gif

    Google则希望训练一个模型,不仅可以处理许多独立的任务,而且可以借鉴和结合其现有的技能,从而更快、更有效地学习新任务。

    举个例子,当一个模型学会了如何从航拍图像中预测地形和建筑的高度之后,它在学习一个新的任务,比如预测洪水带来的影响时,之前学到的那个知识在这时就会作为一个常识来辅助新的训练。

    87ff0169d4da9c4b3a2223d41a04ef8a.gif

    此外,模型也会有不同的能力,可以根据需要调用,并且还可以将多个模型拼接起来,进而执行新的、更复杂的任务。

    368571c3f7263f706ca02ef7e324f8a8.gif

    问题2:AI模型只能实现一种感知。

    Pathways:能够使用多种感官数据。

    人类依靠多种感官来感知世界,这与当代AI模型系统处理信息的方式非常不同,现在的大多数模型一次只处理一种模式的信息。

    模型的输入可以是文本、图像或语音,但通常无法同时处理所有的三种数据。

    Pathways 也是一个多模态模型,能够包含视觉、听觉和语言理解。无论模型是在处理「豹子」这个词,还是豹子的「声音」,或是看到豹子奔跑的「视频」,内部都会激活相同的反应,从而理解豹子的「概念」。

    1cb890c075b48f2d61bbf968b06127f3.png

    训练产生的结果是一个更有洞察力、更不容易出错和产生偏见的模型。

    当然,AI模型不需要局限于这些熟悉的感觉;Pathways可以处理更多抽象形式的数据,帮助找到人类科学家在复杂系统(如气候动力学)中难以发现的有用模式。

    问题3:AI模型是密集且低效的。

    Pathways:让模型变得稀疏且高效。

    今天的大多数模型都是「密集型」的,这也就意味着,在完成一个不管是简单还是复杂的任务时,整个神经网络都会被激活。

    而人类就不一样了,即便大脑中有近千亿个神经元,并且拥有许多不同的区域用于处理各种的任务,但我们只会在特定情况下调用其中一小部分来使用。

    经过Pathways训练的AI也可以模拟人类大脑的行为,通过建立一个「稀疏」激活的单一模型,只有在特定任务需求的时候才会激活特定部分的神经元。

    cbdec2adebe6bfd81853d72188206c6e.png

    模型能够动态地学习网络的哪些部分擅长哪些任务,可以学习到如何找到模型的最相关部分来处理任务。

    这种架构的另一大好处是,它不仅有更强大的能力来学习各种任务,因为不需要为每项任务激活整个网络,所以运行速度更快,并且更省电。

    之前Google 也发表过类似的研究,GShard和Switch Transformer是两个参数量巨大的机器学习模型,但由于两个模型都使用了稀疏激活,在实际运行时消耗的能量不到类似规模的密集型模型的1/10,并且准确率还与密集型模型相当。

    6b6b36c827078ca186a1da357c2767db.png

    总结一下?

    现阶段的机器学习模型,本可以出色地完成很多不同的任务,却只能选取其中一个过专业化;本可以综合各种不同类型的输入,却只能依赖其中的一种形式;本可以像专家一样熟练操作,却只能付诸于暴力计算。

    这就是Pathways诞生的原因——让一个AI能够跨越数以万计的的任务,理解不同类型的数据,并同时以极高的效率实现。

    9087586968c5a0f4769a9ab298c92296.png

    不知道各位看完Jeff Dean的文章之后是怎样的一种感受,反正这位网友表示:「太肤浅了,以至于毫无用处」。

    53dca45e7b2054e6119c20d2a92a1aa1.png

    「虽然有很多远大的目标,却完全没有提到他们将如何去实现。」

    当然了,也有网友对此表示十分期待。

    13e4bb2ef59d1838673fdbb4d407642c.png

    「看起来非常令人兴奋。稀疏可扩展的深度学习可以向一个模型中依次添加任务。我也非常期待之后谷歌的开源代码和样本。」

    但不要忘了,这想搞事的是谷歌,「钞」能力了解一下?

    446f4746da22f8baf7985aa33894c312.png

    参考资料:

    https://blog.google/technology/ai/introducing-pathways-next-generation-ai-architecture/

    https://www.ted.com/talks/jeff_dean_ai_isn_t_as_smart_as_you_think_but_it_could_be/footnotes?utm_content=2021-10-28&utm_source=t.co&utm_medium=social&utm_campaign=social#t-13177

    END,入群👇备注:CV

    5f6435c7d870837d4c0bbce7c88b4bd8.png

    展开全文
  • 通用人工智能游戏Demo

    2018-08-16 10:37:42
    接入XAIAGI通用人工智能技术的一个unity3d游戏Demo,通过用户操作来学习完成游戏NPC的AI构建
  • 柳下解答李德毅院士通用人工智能十疑问.pdf
  • 统计前向规划(statistical forward planning,SFP)算法使用仿真模型(也称为前向模型)自适应地搜索有效的动作序列,此类算法提供了一种简单通用的方法,为各种游戏提供快速自适应的 AI 控制。介绍了两种常用的 ...
  • 我们今天所知道的通用人工智能的想法始于百老汇的互联网泡沫。 二十年前——在 Shane Legg 与神经科学研究生 Demis Hassabis 就对智力的共同迷恋产生共鸣之前;在这对搭档与哈萨比斯儿时的朋友穆斯塔法苏莱曼(一位...

    一台可以像人一样思考的机器从一开始就一直是人工智能研究的指导愿景——并且仍然是其最具分歧性的想法。

    图片

    我们今天所知道的通用人工智能的想法始于百老汇的互联网泡沫。 

    二十年前——在 Shane Legg 与神经科学研究生 Demis Hassabis 就对智力的共同迷恋产生共鸣之前;在这对搭档与哈萨比斯儿时的朋友穆斯塔法苏莱曼(一位激进的激进主义者)联系起来,将这种迷恋融入一家名为 DeepMind 的公司之前;四年后,在谷歌以超过 50 亿美元的价格收购这家公司之前,Legg 在纽约一家名为 Webmind 的初创公司工作,该公司由人工智能研究员 Ben Goertzel 创立。今天,这两个人代表了人工智能未来的两个截然不同的分支,但他们的根源又回到了共同点。

    即使在互联网泡沫的令人兴奋的日子里,Webmind 的目标也是雄心勃勃的。Goertzel 想创建一个 数字婴儿大脑 并将其发布到互联网上,他相信在那里他会成长为完全有自我意识并且比人类聪明得多。他 在 1998 年告诉 基督教科学箴言报: “我们正处于与智能的出现或语言的出现同等程度的转变的边缘。”

    Webmind 试图通过构建一个预测金融市场行为的工具来为自己提供资金,但更大的梦想从未实现。在烧掉 2000 万美元后,Webmind 被赶出位于曼哈顿南端的办公室,并停止支付员工工资。它于2001年申请破产。

    但莱格和格策尔保持联系。 几年后,当 Goertzel 正在整理一本 关于超人 AI的论文集时,正是 Legg 提出了这个标题。“我和 Ben 交谈时,我想,'好吧,如果是关于 AI 系统还没有的通用性,我们应该称之为 人工通用智能,'”Legg 说,他现在是 DeepMind 的首席科学家。“而且 AGI 有点像它的首字母缩写词。”

    图片

    这个词卡住了。Goertzel 的书和他在 2008 年发起的年度AGI 大会使 AGI 成为类人或超人 AI 的流行词。但它也成为了一个主要的问题。“我不喜欢 AGI 这个词,”Facebook 人工智能主管 Jerome Pesenti 说。“我不知道这是什么意思。”

    他并不孤单。部分问题在于,AGI 是围绕整个技术的希望和恐惧的统称。与流行的看法相反,这与机器意识或思考机器人无关(尽管许多 AGI 人也梦想着这一点)。但这是关于从大处着眼。我们今天面临的许多挑战,从气候变化到民主国家的失败,再到公共卫生危机,都非常复杂。如果我们拥有能够像我们一样思考或更好的机器——更快、更不累——那么也许我们就有更好的机会解决这些问题。正如计算机科学家 IJ Good 在 1965 年所说:“第一台超智能机器是人类需要做出的最后一项发明。”

    埃隆马斯克早期投资了 DeepMind,并与包括彼得泰尔和山姆奥特曼在内的一小群大型投资者合作,向 OpenAI 投入了 10 亿美元,他凭着疯狂的预测打造了个人品牌。但当他说话时,数百万人会倾听。几个月前,他告诉《纽约时报》, 超人 AI 距离我们还有不到五年的时间。“它很快就会降临到我们 头上,”他在Lex Fridman 播客上说。“然后我们需要弄清楚我们应该做什么,如果我们有那个选择的话。” 

    五月,佩森蒂 回击。“埃隆马斯克不知道他在说什么,”他在推特上写道。“没有 AGI 这样的东西,我们远不及人类智能。” 马斯克回答说:“Facebook 很烂。”

    这样的突发事件并不少见。百度前人工智能负责人、谷歌大脑联合创始人 吴恩达(Andrew Ng)表示:“让我们摒弃 AGI 的废话,把更多的时间花在紧迫的问题上。”

    和 朱利安·托杰利斯,纽约大学的研究人员AI:“信仰在AGI就像魔术的信念。这是一种放弃理性思考,对无法理解的事物表达希望/恐惧的方式。” 在 Twitter 上浏览 #noAGI 主题标签,你会看到许多人工智能的重量级人物,包括Facebook 的首席人工智能科学家 Yann LeCun,他在 2018 年获得了图灵奖。

    但随着 AI 最近取得的成功,从棋盘游戏冠军 AlphaZero 到令人信服的假文本生成器 GPT-3,关于 AGI 的讨论激增。尽管这些工具离代表“通用”智能还很远——AlphaZero 不能写故事,GPT-3 不能下棋,更不用说理解为什么故事和国际象棋对人们很重要了——建立一个曾经被认为很疯狂的 AGI 的目标是再次变得可以接受。 

    世界上一些最大、最受尊敬的人工智能实验室非常重视这个目标。OpenAI 曾表示,它希望成为 第一个构建具有类似人类推理能力的机器的人。DeepMind 的非官方但被广泛重复的使命宣言是“解决智能问题”。两家公司的高层都乐于从 AGI 的角度讨论这些目标。

    半个世纪以来,我们仍然远未制造出具有人类甚至昆虫的多任务处理能力的 AI。

    “在 2000 年代初期谈论 AGI 会让你处于疯狂边缘,”Legg 说。“即使当我们在 2010 年创立 DeepMind 时,我们在会议上也获得了惊人的眼球。” 但事情正在发生变化。“有些人对它不舒服,但它是从寒冷中进来的,”他说。

    那么为什么 AGI 会引起争议呢?为什么这有关系?这是一个鲁莽的、误导性的梦想——还是最终目标? 

    什么是 AGI?

    这个术语已经流行了十多年,但它所包含的思想已经存在了一生。 

    1956 年夏天,十多位科学家聚集在新罕布什尔州达特茅斯学院,从事他们认为规模不大的研究项目。人工智能先驱约翰·麦卡锡、马文·明斯基、纳特·罗切斯特和克劳德·香农在事先推介研讨会时 写道:“这项研究是基于以下猜想进行的:学习的每个方面或智能的任何其他特征原则上都可以如此精确描述了可以制造一台机器来模拟它。将尝试找到如何让机器使用语言,形成抽象和概念,解决现在留给人类的各种问题,并改进自己。” 他们认为这需要 10 个人两个月的时间。

    时间快进到 1970 年,明斯基再次无所畏惧:“在三到八年内,我们将拥有一台具有普通人一般智能的机器。我的意思是一台能够阅读莎士比亚、给汽车加油、玩办公室政治、讲笑话、打架的机器。届时,机器将开始以惊人的速度进行自我教育。再过几个月,它就是天才级别,再过几个月,它的威力将不可估量。”

    在人工智能的这些愿景中,有三点突出:类似于人类的概括能力、以指数速度自我提升的超人能力,以及一厢情愿的超大规模部分。半个世纪以来,我们仍然远未制造出具有人类甚至昆虫的多任务处理能力的 AI。

    图片

    这并不是说没有取得巨大的成功。早期遗愿清单上的许多项目都已被勾选:我们拥有可以使用语言、查看并解决我们许多问题的机器。但是我们今天拥有的人工智能并不像先驱者想象的那样像人类。深度学习是推动 AI 热潮的技术,它训练机器成为大量事情的大师——比如写假故事和下棋——但一次只能做一个。 

    当 Legg 在他 2007 年的书中向 Goertzel 建议使用 AGI 一词时,他将通用人工智能与这种狭隘的主流 AI 思想相对立。人们一直在使用几个相关的术语,例如“强人工智能”和“真正的人工智能”,来区分明斯基的愿景和已经到来的人工智能。 

    柏林赫蒂学院的人工智能研究员乔安娜·布赖森 (Joanna Bryson) 说,谈论 AGI 通常意味着暗示人工智能失败了:“人们认为人们只是在做这种无聊的事情,比如机器视觉,但我们在这里——当时我就是他们中的一员——仍在努力了解人类的智慧,”她说。“强人工智能、认知科学、AGI——这些是我们表达的不同方式,‘你们搞砸了;我们正在前进。'”

    这种认为 AGI 是 AI 研究真正目标的想法仍然存在。一个有效的人工智能系统很快就会变成一个软件——布赖森的“无聊的东西”。与此同时,AGI 成为任何我们还没有弄清楚如何构建的 AI 的替代品,总是遥不可及。

    有时,Legg 将 AGI 称为一种多功能工具——一种可以解决许多不同问题的机器,而不必为每个额外的挑战设计新的机器。从这个角度来看,它不会比 AlphaGo 或 GPT-3 更聪明。它只会有更多的功能。这将是一个通用的人工智能,而不是一个成熟的智能。但他也谈到了一种你可以与之互动的机器,就好像它是另一个人一样。他描述了一种终极玩伴:“与机器互动并向它展示一个新的纸牌游戏,让它理解并问你问题并和你一起玩游戏会很棒,”他说。“这将是一个梦想成真。”

    当人们谈论 AGI 时,他们通常想到的是这些类似人类的能力。 DeepMind 的 Legg 的同事 Thore Graepel喜欢引用科幻作家罗伯特·海因莱因 (Robert Heinlein) 的一句话,这似乎反映了明斯基的话:“人类应该能够换尿布,计划入侵,屠宰一头猪,conn一艘船,设计一栋建筑,写一首十四行诗,平衡账目,筑一堵墙,固定一根骨头,安慰垂死的人,接受命令,下达命令,合作,独自行动,解方程,分析一个新问题,施肥,编程电脑,做一顿可口的饭菜,有效地战斗,英勇地死去。专门针对昆虫。”

    然而,有趣的事实是:Graepel 的首选描述是由 Heinlein 1973 年的小说《Time Enough for Love》中的Lazarus Long 讲述的 。Long 是某种超人,是一项让他活了数百年的基因实验的结果。在那段漫长的时间里,龙活了许多生命,掌握了许多技能。换句话说,明斯基描述了一个典型人类的能力;格雷佩尔没有。 

    寻找 AGI 的目标一直在以这种方式转移。当人们谈论类似人类的人工智能——像你我这样的人类,或者像 Lazarus Long 这样的人类时,他们是什么意思?对于 Pesenti 来说,这种歧义是一个问题。“我认为没有人知道它是什么,”他说。“人类不能做所有事情。他们无法解决所有问题,也无法让自己变得更好。”

    那么,什么可能的AGI是这样的做法?称其为“类人”既含糊又过于具体。人类是我们拥有的通用智能的最好例子,但人类也是高度专业化的。快速浏览一下动物智慧的各种世界——从蚂蚁的集体认知到乌鸦或章鱼的解决问题的能力,再到黑猩猩的更容易识别但仍然是外星智慧——表明有很多方法可以建立一般智力.

    图片

    即使我们确实构建了 AGI,我们也可能无法完全理解它。今天的机器学习模型通常是“黑匣子”,这意味着它们通过人类无法理解的计算路径得出准确的结果。将自我改进的超级智能添加到组合中,很明显为什么科幻小说经常提供最简单的类比。

    有些人还会将意识或知觉套索到 AGI 的要求中。但如果智力难以确定,意识就更糟。哲学家和科学家们并不清楚它在我们自己身上是什么,更不用说它在计算机中是什么了。智力可能需要一定程度的自我意识,反思你对世界的看法的能力,但不一定是一回事意识是什么 感觉 就像体验世界或反映在您的这观点。即使是 AGI 最忠实的人也不知道机器意识。 

    我们如何制作 AGI?

    Legg 的整个职业生涯都在追求情报。在 Webmind 之后,他与瑞士卢加诺大学的 Marcus Hutter 合作完成了一篇名为“机器超级智能”的博士论文。Hutter(现在也在 DeepMind 工作)正在研究智能的数学定义,该定义仅受物理定律的限制——终极通用智能。

    两人发表了他们所谓的 普遍智能的方程式,莱格将其描述为衡量在各种环境中实现目标的能力。他们表明,他们的数学定义与心理学中发现的许多智力理论相似,心理学也根据一般性来定义智力。

    在 DeepMind,Legg 正在将他的理论工作转化为实际演示,从在特定环境中实现特定目标的 AI 开始,从游戏到蛋白质折叠。

    接下来是棘手的部分:将多种能力结合在一起。深度学习是我们拥有的最通用的方法,因为一种深度学习算法可用于学习多个任务。AlphaZero 使用相同的算法来学习围棋、将棋(一种来自日本的类似国际象棋的游戏)和国际象棋。DeepMind 的Atari57 系统使用相同的算法来掌握每个 Atari 视频游戏。但是 AI 仍然一次只能学习一件事。掌握了国际象棋的 AlphaZero 不得不抹去记忆,从头开始学习将棋。

    Legg 将这种通用性称为“单一算法”,而不是人类拥有的“单脑”通用性。一种算法的通用性非常有用,但不如单脑算法有趣,他说:“你和我不需要切换大脑;我们不会把我们的国际象棋大脑用于下棋。”

    从单一算法到单一大脑是人工智能面临的最大开放挑战之一。单脑人工智能仍然不是真正的智能,只是更好的通用人工智能——莱格的多功能工具。但无论他们是否为 AGI 拍摄,研究人员一致认为,今天的系统需要变得更加通用,对于那些确实以 AGI 为目标的人来说,通用 AI 是必要的第一步。有一长串方法可能会有所帮助。它们的范围从已经存在的新兴技术到更激进的实验(见方框)。大致按照成熟的顺序,它们是:

    • 无监督或自监督学习。 标记数据集(例如,用“猫”标记所有猫的图片)以告诉人工智能他们在训练期间正在看什么是所谓的监督学习的关键。它仍然主要是手工完成的,是一个主要的瓶颈。AI 需要能够在没有人类指导的情况下自学——例如,查看猫和狗的图片并学习在没有帮助的情况下区分它们,或者在 没有人类标记的先前示例的情况下发现 金融交易中的异常情况。这被称为无监督学习,现在变得越来越普遍。

    • 迁移学习,包括小样本学习。 今天的大多数深度学习模型都可以训练为一次只做一件事。迁移学习旨在让 AI 将其训练的某些部分(例如下棋)转移到另一项任务(例如下围棋)上。这就是人类学习的方式。

    • 常识和因果推理。 如果 AI 具有常识的基础,那么在任务之间转移训练会更容易。常识的一个关键部分是理解因果关系。为 AI赋予 常识 是目前的热门研究课题,其方法范围从将简单规则编码到神经网络中到 限制 AI 可以做出的可能预测。但工作仍处于早期阶段。 

    • 学习优化器。这些工具可用于塑造 AI 的学习方式,指导他们更有效地进行训练。最近的工作表明,这些工具可以自行 训练——实际上,这意味着使用一个 AI 来训练其他工具。这可能是朝着 AGI 目标自我改进 AI 迈出的一小步。 

    所有这些研究领域都建立在深度学习之上,深度学习仍然是目前构建人工智能最有前途的方式。深度学习依赖于神经网络,神经网络通常被描述为类似于大脑,因为它们的数字神经元受到生物神经元的启发。人类的智慧是我们拥有的一般智慧的最好例子,所以从我们自己身上寻找灵感是有意义的。 

    但大脑不仅仅是一大堆神经元。它们具有相互协作的独立组件。 

    例如,当哈萨比斯和莱格相遇时,他正在研究处理记忆的海马体。哈萨比斯认为人类大脑的一般智力部分来自 海马体和皮层之间的相互作用。这个想法催生了 DeepMind 的 Atari 游戏 AI,它使用一种受海马体启发的 算法,称为 DNC(差分神经计算机),将神经网络与专用内存组件相结合。 

    诸如 DNC 之类的人工大脑组件有时被称为认知架构。它们在其他 DeepMind AI 中发挥作用,例如 AlphaGo 和 AlphaZero,它们将两个独立的专用神经网络与搜索树相结合,这是一种旧形式的算法,有点像决策流程图。GPT-3 等语言模型将神经网络与称为转换器的更专业的网络相结合,该转换器处理文本等数据序列。

    最终,实现 AGI 的所有方法都归结为两大思想流派。一是如果你的算法正确,你可以将它们安排在你喜欢的任何认知架构中。像 OpenAI 这样的实验室似乎支持这种方法,构建越来越大的机器学习模型,可以通过蛮力实现AGI。 

    另一所学校说,对深度学习的执着让我们望而却步。如果 AGI 的关键是弄清楚人工大脑的组件应该如何协同工作,那么过分关注组件本身——深度学习算法——就是只见树木不见森林。获得正确的认知架构,您几乎可以事后添加算法。这是 Goertzel 喜欢的方法,他的 OpenCog 项目试图构建一个开源平台,将拼图的不同部分整合到一个 AGI 整体中。这也是 DeepMind 在为 AlphaGo 结合神经网络和搜索树时探索的一条路径。 

    图片

    “我个人的感觉是它介于两者之间,”Legg 说。“我怀疑有相对较少数量的精心设计的算法,我们将能够将它们组合在一起以变得非常强大。”

    Goertzel 并不反对。“谷歌和 DeepMind 对 AGI 的深入思考让我印象深刻,”他说(两家公司现在都归 Alphabet 所有)。“如果有任何大公司会得到它,那就是他们。”

    但是,不要屏住呼吸。由于几十年来低估了挑战,除了马斯克之外,很少有人愿意冒险猜测 AGI 何时(如果有的话)到来。即使是 Goertzel 也不会冒险将他的目标固定在特定的时间表上,尽管他会说宜早不宜迟。毫无疑问,深度学习的快速进步——尤其是 GPT-3——通过模仿某些人类能力提高了人们的期望。但模仿不是智能。前面的道路上还有很大的坑,研究人员还没有测出它们的深度,更不用说想办法填补它们了。 

    “但如果我们继续快速行动,谁知道呢?” 莱格说。“在几十年的时间里,我们可能会拥有一些非常、非常有能力的系统。”

    为什么 AGI 有争议?

    没有人知道如何构建 AGI 的部分原因是很少有人同意它是什么。不同的方法反映了我们对目标的不同想法,从多工具到超人 AI。正在朝着使 AI 更具通用性的方向迈出微小的步伐,但在可以解决多种不同问题的通用工具与可以解决人类无法解决的问题(Good 的“最后一项发明”)之间存在巨大鸿沟。“人工智能有很多进步,但这并不意味着 AGI 有任何进步,”吴恩达说。

    没有任何一方关于 AGI 是否可以实现的证据,这个问题就变成了一个信仰问题。“这感觉就像中世纪哲学中关于是否可以在大头针上放置无限数量的天使的争论,”托格利乌斯说。“这个不成立; 这些都只是说说而已。”

    Goertzel 对争议的讨论轻描淡写。“两边都有极端的人,”他说,“但中间也有很多人,中间的人不太会喋喋不休。”

    Goertzel 将像 Ng 这样的 AGI 怀疑论者放在一端,将他自己放在另一端。从他在 Webmind 的日子开始,Goertzel 就将媒体视为 AGI 边缘的傀儡。他 主持AGI 会议并领导一个名为 SingularityNet 的组织, 他将其描述为一种“区块链上的 Webmind”。从 2014 年到 2018 年,他还是 Hanson Robotics 的首席科学家,这家总部位于香港的公司于 2016 年推出了一种名为 Sophia 的会说话的人形机器人。Sophia  比尖端研究更像是主题公园模特,让 Goertzel 成为世界各地的头条新闻。但即使他承认它只是一个“戏剧机器人”,而不是人工智能。Goertzel 独特的表演风格已经导致许多严肃的人工智能研究人员与他的范围保持距离。

    他将像 Yoshua Bengio 这样的人放在中间,他是蒙特利尔大学的人工智能研究员,他是 2018 年与 Yann LeCun 和 Geoffrey Hinton 共同获得图灵奖的人。在 2014 年  AGI 会议的主题演讲中,Bengio建议构建具有人类智能水平的人工智能是可能的,因为人脑是一台机器——只需要弄清楚。但他并不相信超级智能——一种超越人类思维的机器。无论哪种方式,他都认为除非我们找到一种方法来赋予计算机常识和因果推理,否则无法实现 AGI。 

    然而,Ng 坚称他也不反对 AGI。“我认为 AGI 非常令人兴奋,我很想去那里,”他说。“如果我有很多空闲时间,我会自己做。” 当他在 Google Brain 工作时,深度学习不断发展壮大,Ng 和 OpenAI 一样想知道是否简单地扩展神经网络可以成为通向 AGI 的途径。“但这些是问题,而不是陈述,”他说。“当人们开始对其提出具体要求时,AGI 变得有争议。”

    一个比关于 AGI 多久可以实现的傲慢更具分裂性的问题是,如果它被放任,它会做什么的恐慌。在这里,猜测和科幻小说很快就模糊了。马斯克说 AGI 将比核武器更危险。现就职于中国武汉大学的 AI 研究员 Hugo de Garis 在 2000 年代预测,到本世纪末,AGI 将导致世界大战和“数十亿人死亡”。神一样的机器,他称之为“人工制品”,将与人类支持者宇宙主义者结盟,对抗人类抵抗者人族。 

    “相信 AGI 就像相信魔法一样。这是一种放弃理性思考,对无法理解的事物表达希望/恐惧的方式。”

    当像 de Garis 这样直言不讳地支持“男性主义”和反犹太主义观点的人在 Goertzel 的 AGI 书中发表了一篇文章,以及 Hutter 和 Jürgen Schmidhuber 等严肃研究人员的文章时,这当然对亲 AGI 阵营没有帮助——有时被称为“现代人工智能之父”。如果 AGI 阵营中的许多人认为自己是 AI 的火炬手,那么在其外部的许多人则认为他们是拿着卡片的疯子,将关于 AI 的想法投入搅拌机,疯狂地声称奇点(当自我改进的机器超过人类智能)、大脑上传、超人类主义和启示录。

    “关于智能的非常有趣的讨论并不困扰我,我们应该有更多的,”托格利乌斯说。“我对我们的软件有一天会突然醒来并接管世界的荒谬想法感到困扰。”

    为什么这有关系?

    几十年前,当人工智能未能达到明斯基和其他人的炒作时,该领域不止一次崩溃。资金消失了;研究人员继续前进。这项技术花了很多年才从所谓的“人工智能冬天”中脱颖而出并重新确立自己的地位。不过,这种炒作仍然存在。

    “所有的 AI 寒冬都是由不切实际的期望造成的,因此我们需要时时刻刻都在与这些期望作斗争,”Ng 说。Pesenti 同意:“我们需要控制嗡嗡声,”他说。

    更直接的担忧是,这些不切实际的期望会影响决策者的决策。布赖森说,她在董事会和政府中目睹了很多头脑混乱的想法,因为那里的人对人工智能有科幻的看法。这可能会导致他们忽略非常真实的未解决问题——例如 种族偏见可以 通过倾斜的训练数据编码到 AI 中的方式,算法如何工作缺乏透明度,或者当 AI 做出错误决定时谁负责的问题——赞成对机器人收购之类的事情产生更多幻想。

    炒作也让投资者兴奋不已。马斯克的资金帮助资助了真正的创新,但当他说他想资助研究存在风险的工作时,它鼓励研究人员谈论遥远的未来威胁。“他们中的一些人真的相信;他们中的一些人只是追求金钱和注意力以及其他任何东西,”布赖森说。“而且我不知道他们是否都对自己完全诚实,他们是哪一个。”

    AGI 的魅力不足为奇。自我反省和创造是最人类的两项活动。以我们的形象制造机器的动力是不可抗拒的。许多现在批评 AGI 的人在他们早期的职业生涯中都曾与它调情。像 Goertzel 一样,Bryson 花了几年时间试图制造一个人造幼儿。2005 年,Ng 在全球主要的 AI 会议 NeurIPS(当时称为 NIPS)组织了一场研讨会,题为“Towards human-level AI?”。“这太疯狂了,”吴说。现在经常批评 AGI 喋喋不休的 LeCun 发表了主题演讲。 

    这些研究人员转向了更实际的问题。但由于他们和其他人取得的进展,期望再次上升。“该领域的很多人都没有预料到我们在过去几年中取得了如此大的进步,”Legg 说。“这是使 AGI 更加可信的驱动力。“

    即使是 AGI 怀疑论者也承认,这场争论至少迫使研究人员考虑该领域的整体方向,而不是专注于下一个神经网络黑客或基准测试。“认真考虑 AGI 的想法会带我们去真正迷人的地方,”Togelius 说。“也许最大的进步将是完善梦想,试图弄清楚梦想的全部内容。”

    可关注 网络研究院 公众号内回复“20210804”获取

    了解中国人工智能行业10年发展

    下载链接。

    更有不限速下载等着你。

    每日坚持分享,如果你觉得有所收获,请各位读者点亮“点赞” “再看”,

    感激不尽

     

     

    图片

     

    展开全文
  • 机器学习已经在许多特定问题上超过了人类的表现,唯一让科学家信心不足的是通用人工智能。也有一些科学家信心满满,认为只要模型足够大,就能实现通用人工智能。从前面三点困难出发,我们要考虑:通用人工智能的...

    有人问吴恩达,机器学习能解决什么样的问题?吴恩达回答说,只要给定规则,机器学习就能给出比较好或足够好的解。

    但对于现实世界的问题,有三点困难:目标不明确,规则在变,资源不足。有些问题很难确定目标,比如:人生的目标是什么?企业的目标是什么?有些问题的规则经常改变,比如期货交易的保证金比例和手续费。更多的时候,没有解决问题所需的资源,尤其是计算资源,比如下围棋时的计算时间。本质上,时间是唯一的资源。

    机器学习已经在许多特定问题上超过了人类的表现,唯一让科学家信心不足的是通用人工智能。也有一些科学家信心满满,认为只要模型足够大,就能实现通用人工智能。从前面三点困难出发,我们要考虑:通用人工智能的目标,满足的规则,所需的资源。

    图灵给出了通用人工智能的目标,让人们在与之对话时区分不出它是人工智能还是真实的人。通用人工智能要满足的规则是整个人类社会的规则,它要知道一些事情,但又不能知道得太多,以至于不像普通人类。训练和使用通用人工智能所需的资源,也不能超出个人所需资源太多。

    目前,实现通用人工智能的目标还有一些遥远。因此,与人工智能相比,人类还有一些优势。也就是说,个人教育仍然是最优选择。科学家穷其一生的努力,做出来的人工智能也达不到四岁小孩的水平。

    但人工智能的新进展,为个人教育带来了一些新见解。人类不是在某一方面特别强,而是综合能力特别强。因此,我们不能训练人类去打败AlphaGo,而是要均衡发展人类的各种能力。

    首先,是语言沟通能力。图灵靠这一点来区分通用人工智能。

    其次,是数理逻辑能力。人类会根据一些原则引导的直觉,通过不那么复杂的计算,进行因果判断。这些判断的好坏程度因人而异,但高水平的人往往能“猜”到正确结果。科学家经常提出猜想,然后由数学家或实验来证实或证伪。

    第三,是形体运动能力。不同的运动会锻炼身体的不同部分,混合泳基本上锻炼了全身。

    第四,是节奏音准能力。这是对听觉、发声和乐器方面的训练。

    第五,是色彩结构能力。画家和设计师在这方面的能力比较突出。

    第六,是认识自己的能力。第七,是认识别人的能力。认识你自己。知人者智,自知者明。

    训练身体和大脑的不同部分,是人类学习的主要方式。在这个过程中,与环境互动显得尤其重要。山区长大的孩子和平原长大的孩子,运动的方式会不一样。这是强化学习的奥义:智能体与环境互动,这种环境可以是真实的,也可以是模拟的。通过环境给予的反馈,智能体学到知识。

    资源是有限的,可能性是无限,针对训练通用人工智能的既定目标,如何分配资源?换言之,如何在无数个解构成的解空间中寻求最优解或足够好的解?吾生也有涯,而知也无涯,如之何?

    AlphaGo的做法是使用蒙特卡洛树和神经网络。在无数种可能中寻找那些与目标匹配度较高的解,丢弃那些比较差的解。它在围棋和蛋白质折叠这类问题上,取得了令人瞩目的成果。

    人类作为一个整体,学习的过程也类似。每个人会随机探索一些可能性,而那些与整体人类目标匹配度较高的知识被学到并保存下来。人类整体的目标,如果有的话,就是存在下去。

    我的中学的校训是“全面发展,出类拔萃”,当时理解为“各方面都不错,某一方面特别厉害”,现在想想不对。因为全面发展,所以出类拔萃。这也是通识教育的要义。

    对于个人来说,目标是要度过幸福的一生,该怎么办?

    25d19eec146a93e23639013c4675f943.png

    c487b34b3bfe99d68cc5bdb391b7c0d1.png

    b0731c1d3ac8dc1c0902eaa24eef061f.png

    3db894261c006d8334aac9928b0132dc.png

    ae376d4e53d5bfad5d1840c594f8fcc2.png

    展开全文
  • 通用人工智能的思考,仅仅是感兴趣,希望能与相同爱好的人多交流
  • 点击上方“视学算法”,选择加"星标"或“置顶”重磅干货,第一时间送达今日,北京大学官方微信发文称:北大清华联手开启通用人工智能实验班。课程总负责人是在两个学校都有教职的朱松...
  • 转载于新智元来源:北京大学官方微信编辑:小匀【新智元导读】近日消息,北大清华联手开启通用人工智能实验班,由北大人工智能研究院院长、讲席教授,清华大学基础科学讲席教授朱松纯领衔。首...
  • 来源:腾讯AI Lab 刚刚过去的 2020 年算不上是平静的一年。贯穿全年的新冠肺炎疫情仍未平息,各类偶发事件也层出不穷。即便如此,秉承「科技向善」信念和「Make AI Everywhere」愿景的腾讯 AI Lab 仍在这一年中...
  • 人工智能令人印象深刻的成功使得它在社会中无处不在,这引起了行业和决策者的兴趣,尽管公众很少承认人工智能系统的基本理论基础。Benjamin Guedj将举例说明理论家的贡献如何成为人工智能的关键材料,并评论未来令人...
  • 北京智源人工智能研究院 主办的 2019 北京智源大会 ,第一天的主论坛上,美国加州大学洛杉矶分校的朱松纯教授带来了 《走向通用人工智能:从大数据到大任务》的主题演讲,并提出了任务是智能中心的观点。这是AI科技...
  • 中国教育领域人工智能研究论纲——基于通用人工智能视角.pdf
  • 杨学山:走向通用人工智能.pdf
  • 关于通用人工智能的思考

    千次阅读 2019-03-12 20:02:01
    关于通用人工智能的思考 目录 关于通用人工智能的思考 摘 要 一、当前的人工智能 二、真正意义上的人工智能 三、通用人工智能对工作的影响 参考文献 摘 要 本文结合人工智能当前的发展对通用人工智能...
  • Transformer确实厉害:Transformer大概是当代最强大的神经网络模块,大有一统AI领域之势。
  • 基于统计前向规划算法的游戏通用人工智能.docx
  • AI未来发展趋势 1通用人工智能框架 通用人工智能(Universal Artificial Intelligence) ?通用入工智能即我们常说的强人工智能也叫做AGI (Artificial General Intelligence) ?通用入工智能目的是创造出能够不用编程...
  • 机器也需要教育论通用 人工智能...来看看人类对通用人工智能与教育学的革 新的研究 研究背景 研究对象 研究方法 研究内容 研究结论 研究背景 科技进步人类即将步入崭新的人工智能时代 在通用人工智能的启迪下教育学将打
  • 人工智能互联网商务风通用模板.pptx
  • 这项研究是百度在通用AI研究中交互式学习上的突破,有助于研发在现实世界中完成任务的机器人。百度这次开发的AI需要完成的任务是在二维迷宫里找东西,但与以往大多数研究让AI自己去探索新环境不同,百度研究人员使用...
  • 如今,人工智能正在在努力做一些人类做的事情,并且试图做得更好。比如,人工智能可以比人类医生更好地检测癌症,构建比人类开发者更好的人工智能算法,并在国际象棋和围棋等游戏中击败世界冠军。类似于这样的例子...
  • 关键词:通用人工智能,强人工智能,超人工智能,反省心理学,心理二元说 目录 引言… 1 1,实现通用人工智能的三条路线,哪个更易于成功?… 3 2,破解智能奥秘的钥匙——心理二元说… 5 2.1,破解智能奥秘的重要...
  • “目前来看,通过大规模数据训练超大参数量的巨量模型,被认为是非常有希望实现通用人工智能的一个重要方向。”中国工程院院士王恩东日前接受采访时表示,随着巨量模型的兴起,巨量化已成为未来人工智能发展的一个...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 143,961
精华内容 57,584
关键字:

通用人工智能

友情链接: sw_pres.zip