精华内容
下载资源
问答
  • 随着神经网络的发展,机器人拥有意识将不再是幻想。 近几年来,随着多不人工智能影视剧的播出,以及人工智能技术的发展,“机器人是否会有意识”的话题再次被人们拿出来,成为社会的关注热点以及AI...

    随着神经网络的发展,机器人拥有意识将不再是幻想。

    拥有了自主意识,机器人陪你侃天侃地!

    近几年来,随着多不人工智能影视剧的播出,以及人工智能技术的发展,“机器人是否会有意识”的话题再次被人们拿出来,成为社会的关注热点以及AI研究者的人生目标。目前,机器人已经可以跟人类自然的语音交互,也能够根据人类的指令完成一系列任务,但是,这些作为都是研究人员写进程序里面的,一切都还在设计者所规划的框架里面,并不是机器人自主的行为。那么,如果机器人有了自主意识,它们能够带来怎样的变化?

    拥有了自主意识,机器人陪你侃天侃地!

    当机器人有了意识,人类将变得更懒

    研究员们为什么钻研人工智能技术?除了对于技术的狂热,还有一部分原因是为了让人们的生活更加便利,比如现在智能家居中的智能音箱,通过它,人类只需说几句话的功夫,其就可为人类完成所有的事,再比如无人驾驶,一出来就打着解放人类双手、减少车祸、让人类更安全的旗号。此外,还有许多人工智能技术正在改变着我们的生活,但是,仔细观察的话,我们会发现,不管是哪种行为,人工智能都是根据我们的语音或是行为来进行下一个动作,从这方面来讲,加载了各类人工智能技术的机器人并不具备自主意识。

    一个不具备自主意识的机器人已经能够让人类患上懒癌,那一个拥有自主意识的机器人不得进一步弱化人们的各方面的行动力。以白领机器人为例,每当开始一天的工作,它们会自行梳理出一天的工作,然后利用各项性能,按部就班的对文件进行处理、对下级进行工作安排。

    拥有了自主意识,机器人陪你侃天侃地!

    其实,这样的工作哪怕是无自主意识的机器人也是可以完成的,但不同的是,相对于无自主意识的机器人,自主意识可以让机器人自行动作,在拥有智商的同时,还能够具备情商等“软件”,这使得他们能够代替人类进行谈判等生意场上的硝烟战争。并且,借助于物联网、云服务的强大,在谈判过程中,机器人能够随时查询相关信息和进行大量的分析工作,在掌握全面信息的基础上,谈判也相对变得高效。鉴于一些人对于机器人的不感冒,人类员工也有着存在的必要,不过在机器如此高效率的陪衬下,人类则会因为无用武之地而变得越来越懒。

    拥有了自主意识,机器人陪你侃天侃地!

    当机器人有了意识,社会矛盾将减少

    在《但丁密码》中,为了减少由人口增多而带来的对于自然环境的破坏,富翁佐布里斯特就研制了一种病毒,一旦将之投入水中,其便可以在很快的时间内杀死一半的人类。但说到由人口增多而带来的影响,可不仅仅只是自然环境的破坏,更多的是社会或国家之间的矛盾,比如贫富两极分化、国家之间对于资源的争夺等等。

    对于一些国家矛盾,有自主意识的机器人还是有些无从着手,但对于某些社会矛盾,其还是能够起到一定作用的。比如因重男轻女观念而造成的男女比例过大问题,性爱机器人就是一个不错的方法。借助于性爱机器人,不能够找到伴侣的单身人士可以从生理和心理两方面得到满足,以缓解内心的阴郁,从一方面也有利于社会安定。不过,当前的机器人并不能满足于这个条件,个中原因就是自主意识的缺少,在一个家庭中,即便没有主人的命令,有自主意识的机器人能够自行洗衣做饭,在与主人交流的时候,其可以通过物联网获得足够丰富的谈资,并且还能够形成自己的见解,同时伴有丰富的表情、多样的肢体动作以及不同的语调,让整个交互过程显得更为流畅自然。尤其是在啪啪啪过程中,有自主意识的性爱机器人可以更好的与主人进行调情,也更容易配合主人的节奏,而不是如同死鱼一般任由主人摆弄。

    拥有了自主意识,机器人陪你侃天侃地!

    结语

    随着人工神经网络的发展,语音识别、自然语言理解等人工智能技术正在迅猛发展。比如科大讯飞的语音识别,其准确率已经达到了97%,而在今年6月份,科大讯飞的CEO胡郁也预测,再过四到五年的时间,语音识别系统就能跟人的整个感觉完全一样。

    看着语音识别技术的发展,我们有理由相信其他人工智能技术也能够无限接近于人类的标准。镁客君觉得,在附属技术发展逐渐完善之时,机器人的自主意识也能够被研究人员挖掘出来。事实上,有些机器人已经拥有了基本意识,此前,来自纽约伦斯勒人工智能和推理实验室的科学家在Selmer博士的带领下进行了一个实验,实验对象为两台哑巴机器人和一台正常机器人,而它们也并不知道谁能够说话,研究者们问哪两个吃了哑巴片。只有一个大声喊出了I don't know(我不知道),而在辨识出自己的声音后,它又补充道:Sorry, I know now. I was able to prove that I was not given a dumbing pill。经过这个实验,证明了它拥有简单的自我意识,同时它还表现出了良好的教养。

    拥有了自主意识,机器人陪你侃天侃地!

    当然,随着自我意识的出现,人们难免也会担心拥有意识的机器人是否会伤害人类。其实,这个问题有很大一部分责任是落实到人类身上的,毕竟机器人的言行都是以人类为模具。就像微软的聊天机器人Tay,上线几个小时就学会了人类的污言秽语,由此我们可以了解到人工智能与人类之间的一个联系。因而,“杀手机器人”这个问题,只要人类能够对机器人进行正确的教导,时刻关注其周边环境,“杀手机器人”或许永远不会出现。


    原文发布时间:2016-11-05 23:09
    本文作者:韩璐
    本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。
    展开全文
  • http://tech.QQ.com  2009年03月10日09:13 腾讯科技 我要评论(70) 腾讯科技讯 据《新科学家》杂志报道,人工智能专家亚伦·斯洛曼...假如他的思路是对的,那么就应该有可能使机器人如同人一样有很好的数学才能,甚
     
    http://tech.QQ.com  2009年03月10日09:13   腾讯科技    我要评论(70)
    腾讯科技讯 据《新科学家》杂志报道,人工智能专家亚伦·斯洛曼(Aaron Sloman)日前发表声明,宣称自己想发明一个数学家机器人。他说他已经找到了“人是怎样发展数学才能”的关键点。假如他的思路是对的,那么就应该有可能使机器人如同人一样有很好的数学才能,甚至可能会更好。

    资料图:日本科学家发明的智能机器人女友(点击图片进入下一页)
    单击此处浏览更多相关图片
    下一篇更精彩:单身奇才设计完美机器人女友 感情丰富爱撒娇
    英国伯明翰大学的斯洛曼(Sloman)说:“人类的大脑不是通过魔法而运转的,因此,大脑所能做到的事同样也适合于机器人。”
    斯洛曼发明的机器人并不意味着就是个能够引领数学界的数学天才。斯洛曼希望“所有的路都通往这个具有重要意义的新数学领域”。
    他认为,人类的数学能力关键期在童年,所以“我们将为机器人制造一个孩童般的大脑,让它自己逐渐发展自己的数学命运”。为了认识世界,婴孩们必须获得很多技能。例如,他们要获得这样的知识——“玩具火车驶入隧道,将会在隧道的另一端驶出”;或者是智力拼图玩具,只有找到凹凸合适衔接口才能拼好。
    和其它的几何拓扑学概念一样,“集合的传递性”是通过亲身经历而获得的知识。“这里是‘数百’这个概念,如果没有数千甚至更多的亲身经历过的数概念的例子,那么‘数百’就看起来像拓扑学、几何学、算术里的定理那样难于理解。”斯洛曼说。
    在某个时候,孩子的思维会有个跳跃阶段。和孩子一样,我们也很快会从“亲身经历”过渡到“一般定理”阶段。
    像“火车通过隧道”一样去重复经验,孩子们学会了怎么样使用“棒条”物体(例如,扫把、木棍等都属于“棒条体”)。那就是为什么一个3岁大拿着扫把(把比较长)的孩子,会因为扫把横着通不过楼梯门被挡在那儿了。最后,他会通过调整动作(把扫把竖起来或着是拖着)使扫把通过那扇门。斯洛曼说:“那就是从‘经验主义’向‘现实主义’的转变,机器人就是那样获得知识的。”
    斯洛曼又回到了原点,认真观察婴孩是怎么认识他们周围的世界。他正在建立一份“观察值”档案。这个“观察值”是通过婴孩完成数学任务所获得的。这些认识和处理周边事物的技能定会在基因组中被编码。斯洛曼认为,这样的话,它们就有可能在机器中进行编码。
    斯洛曼向他的“婴孩机器人”迈进还要走很长一段路。一旦他对孩子发展的各个阶段的能力进行了分类,他仍然还要设计出如何让机器人理解这些能力的数学含义,然后用一些计算机编码方式来代表它们。他说:“为了能够使用,这些信息需要以某种形式编码。”在这个任务的巨大范围意味着他的目标必须适度:在此阶段,他正试图去简单地呈现空间处理与数学基本原理之间的链接。如果在这个阶段有额外的技术难题被解决了的话,那这就是给我的“赠品”。但是这份“赠品”会有多丰富呢?“数学家机器人”真的能够做到这些事吗?
    皮斯说:“在原则上是可行的,但是这个迄今为止的故事仍在挑战她的‘乐观态度’。我所知道的所有科学与数学上的探索至今还没有重大发现。我们还有很长的路要走。”
    科尔顿团队都确信这款机器人一定会被创造出来。他说:“创造力是一个很有负担的词语,但是通常人们都会认为只有人类才拥有。很多方式证明计算机做数学题比一个本科生更具创造力。”
    斯洛曼指出:“这次革新允许计算机通过它们自己产生的许多程序来解决问题,设定标准去测试它们,然后“选择”和“整合”最佳答案。当然也允许计算机做些自己的事,这些事并没有预先进行编程。斯洛曼说:“在某些情况下,没有人知道它们是如何做它们想做的事。”自1980年末,航天航空和汽车设计师已经运用了进化算法去优选飞机零件和使他们的设计更合理化。甚至城市的商人正使用它们去抛售股票
    展开全文
  • 人工智能可以产生自主意识吗?

    千次阅读 2020-07-23 15:37:38
    作者:人民邮电出版社 ...来源:知乎 著作权归作者所有。...热门美剧《西部世界》第三季中,机器人有了自主意识和思维,开始怀疑这个世界的本质。机器人 Dolores 逃出西部世界主题乐园,混入了人类世界,并企图通过摧.

    作者:人民邮电出版社
    链接:https://www.zhihu.com/question/372639666/answer/1343242547
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    「既然人类对自己存在的认知来源于“感知”和“记忆”,如果这两样东西都可以被模拟,那么“人类的存在”到底是不是一种模拟?」

    热门美剧《西部世界》第三季中,机器人有了自主意识和思维,开始怀疑这个世界的本质。机器人 Dolores 逃出西部世界主题乐园,混入了人类世界,并企图通过摧毁人类的大数据系统,来获取世界的控制权。

    《西部世界》剧照

    《西部世界》的大热,折射出人类一直以来对AI技术发展的终极担忧:人工智能是否会觉醒?

    由此回到题主的提问。答案极大可能是Yes,人工智能终究会有自我意识,只不过是时间问题。

    为什么这么说?我们来看看学界的讨论。

    何为「意识」?

    《西部世界》的科学顾问,是神经学家大卫·伊格尔曼(David Eagleman),这位斯坦福大学精神病学和行为科学系兼职教授,一直在大脑可塑性、时间知觉、通感和神经法的领域进行研究。

    他认为,意识,是一种突破程序设定的连接。一旦我们理解了大脑的算法,就应该能够复制;如果这个算法等同于意识,那意识也理应可以被复制和转移。

    大卫·伊格尔曼(David Eagleman)

    厦门大学周昌乐教授(从事人工智能及其多学科交叉领域的研究)曾解释过,根据现有的相关科学与哲学研究成果,人类意识的运行机制大致是这样的:

    物质运动变化创生万物,生物的生理活动支持着神经活动,神经活动涌现意识(有意识的心理活动),意识感受生理表现并指导意向性心智活动的实现,从而反观认知万物之理。

    也就是说,除可视化的硬件(四肢、器官、血肉、体液等)支持外,感觉(身体感受)、感知(对外部事物的感知能力,包括视、听、味、嗅、触)、认知(记忆、思考、想象等)、觉知(反思、意识、自我等)、情感(情绪感受)、行为(意志、愿望、情欲等)、返观(禅观、悟解)等,这些由人类自主定义的生理表现,与意识组成了一个复杂的系统。

    简单来看,意识的产生,是一个“物质-生理活动-神经活动-意识-心智活动-物质”的循环。所以,只要条件满足,人类并不是唯一具有意识的物种。

    人工智能的认知机制是如何搭建的?

    那对于人工智能来说,需要通过什么条件来实现自我意识呢?

    目前,我们模仿人类生理机能而研发出来了神经网络等技术。在意识方面,意大利巴勒莫大学机器人实验室的Chella教授用10年时间开发了CiceRobot机器人研究项目,通过模拟人的意识产生逻辑,实现了一种自我意识的认知结构机制。

    该机制主要由三个部分构成——亚概念感知部分、语言处理部分和高阶概念部分:

    • 亚概念感知是指对外部世界的直接感知;
    • 语言处理即对语言的识别与回应;
    • 高阶是对机器人内部世界的感知;
    • 通过机器人的高阶感知,就形成了具有自我反思能力的机器人。

    这项研究工作的主要特点是将逻辑形式化方法与概念空间组织相结合,强调对外部事物的一种心理表征能力,并对外部环境进行内部模拟,这是自我意识产生的基础。

    尼克的《人工智能简史》一书,阐释了AI的发展史与思想源头,对智能的进化也颇多着墨。

    他写道:

    谈人工智能绕不过去图灵机和在其上建立的整个计算机理论——任何计算装置都等价于图灵机。这个论题隐含着强人工智能的可能性:智能等价于图灵机。近年,也有人探索超计算——「计算能力超越图灵机的装置」,量子计算就是作为超计算的一种潜在设备。

    如果一台机器通过了图灵测试,那他就被认为具有了人类智能。尽管图灵认为「机器能否思考?」这个形而上学的议题「没有意义,不值得讨论」。但他还是在著名的《计算机与智能》这篇论文中反驳了那些否定的观点。

    尼克在书中发问:

    过去的机器旨在节省人的体力,现在的机器开始代替人的智力。人通过两性繁殖的进化速度远远赶不上机器。机器的进化速度服从摩尔定律——每18个月性能提升一倍,而人的进化速度则是20年一代人。人作为物种,是不是不再具备进化的竞争优势?依靠硬件的摩尔定律,是不是可以达到超级智能?

    这种超级智能,可能是以人工智能为主体,也可能是生物学意义上的物种,即「人工智能+人」

    当「人工智能+人」,是融合,还是对立?

    詹姆斯 · 格雷克所著的《信息简史》,围绕逻辑与信息,打通了自然生命与科技信息的联系。

    比如,书中谈到,生物体以负熵为“食”,新陈代谢的本质是,生物体成功地使自己摆脱在其存活期内所必然产生的所有熵,生物从周围环境中汲取秩序。比如吃的各种动植物,是很有“结构”的,而排出的东西,则更加混乱。

    意思大概是说,生命体,与人工智能所应用到的数据、信号传输一样,也是由信息组成的。那么,是否有可能将人与人工智能进行打通,主导意识产生的核心,还是以人为主体呢?

    在过去的一个世纪里,诺贝尔奖涉及的神经科学中的重要发现都跟大脑的信息编码、储存相关。随着欧盟“人脑工程”和美国“BRAIN 计划”的开展,脑科学的新型方法和手段得到了快速发展。

    2012年,美国国立卫生研究院启动了耗资 3000 万美元的“人脑连接组计划”(HCP),该计划关注的是大量神经元如何相互连接形成神经环路。通过绘制大脑连接组,科学家得到了详细的皮质环路接线图,这可能促成人们对皮层计算理解的飞跃,进而开发出新一代的人工智能网络模型。

    而这对人工智能带来的影响,将是两个方向:

    1. 利用对人脑和认知的研究结果,将相似的结构和功能整合到人工智能中;
    2. 以计算方法替代进化过程,通过计算机模拟来发现独立于人脑的有用结构和连接模式。

    有意思的是,“硅谷钢铁侠”埃隆·马斯克以几近狂热的姿态入局这个领域。

    马斯克在2017年成立Neuralink,目标是研发超高带宽的脑机接口系统,实现与人工智能的共存,开启“超人认知”的全新时代。

    被嵌入Neuralink系统的实验鼠 图片来源:Neuralink

    脑机接口技术被称作是人脑与外界沟通交流的“信息高速公路”,是公认的新一代人机交互和人机混合智能的关键核心技术,甚至被美国商务部列为出口管制技术。该技术为恢复感觉和运动功能以及治疗神经疾病提供了希望,更令人激动的是,它将赋予人类“超能力”——用意念即可控制各种智能终端。

    如果大脑可以改造,如果意识可以干预,关于人工智能的自我意识这个命题的探讨,已经不能仅仅局限于单纯的机器人之间了。未来,可能性更大的是具有“超级大脑”的超级人类。

    如果想详细了解,可以读读《信息简史》、《人工智能简史》这两本书,虽然属于计算机科学范畴,但更具科普性质,能够给人在世界观与想象力方面带来很大启发。

    最后引用《人工智能简史》里的一个问题:“当我们谈论生死时,我们在谈论什么?”。

    是生理上的,还是意识上的?

    ---------

    参考资料

    《人工智能简史》,尼克.

    《信息简史》,[美]詹姆斯·格雷克.

    历时两年,马斯克终发布「脑后插管」黑科技,革新脑机接口,机器之心.

    《机器意识能走多远:未来的人工智能哲学》,周昌乐,《学术前沿》2016年第201607(上).

    ========

    请看官留步,求一键三连!点击关注

    @人民邮电出版社

    ,给你更多AI干货~

    发布于 07-17

     

     

     

     

     

    作者:腾讯研究院
    链接:https://www.zhihu.com/question/372639666/answer/1337974597
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    “人工智能之父”图灵曾预言,具备人类智能水平AI将出现在2000年。如今已是2020年,可关于人工智能是否可以产生自我意识的问题,似乎仍然困扰着人类。

    在回答“是否可以产生自主意识”这个问题之前,我们先来解析一下,为什么AI意识问题异常重要?

    与学者们面红耳赤的激烈争吵不同,大部分吃瓜群众会觉得,人工智能产生意识只是一个时间问题,因而并不重要。这可能是影视作品带来的一种错觉——毕竟在大部分未来主题的电影中,AI都是具有意识和情感的。实际上,很多人都低估了这个问题的重要性,但它甚至决定着人类未来命运的走向。

    与处理能力有限的人脑相比,AI的处理能力在理论上是无限的,可以无差别处理收集到的全部信息。一旦AI获得意识,它们能够像人类一样交换、分享信息,只不过在效率上是碾压人类的。作为结果,AI的智能水平将迅速崛起,并会“消灭”掉包含人类在内的低智能主体——这并不是大屠杀,而是与智能手机淘汰功能机一样的“市场行为”。

    现实可能没有那么可怕,拉回一点时间线,在AI“毁灭”人类社会之前,假设它的意识水平仍然允许自身为我们所用,那也可能引发道德伦理方面的问题。神经科学家Christof Koch曾举过一个例子,如果他用锤子将自己的特斯拉汽车砸烂,虽然邻居可能认为他疯了,但这只是一台机器,属于他的财产,所以可根据需要使用/砸烂它。但如果他殴打自己的狗,警察就会逮捕他。二者的区别在于,狗是有意识的,它能感受到痛苦,而特斯拉并不是一个有意识的主体。这个例子提醒我们,如果机器在某个时间点具备了意识,那么就会产生意想不到的道德、伦理、法律和政治后果。

    同样值得深思的是,当下的人类社会是一个一元论社会,虽然我们常说“万物有灵”,但那只不过是在泛灵论基础上的一种谦辞,真正的现实是,只有人类拥有真正的“智能”与“意识”。如果一旦诞生了拥有意识的另一方主体,建立在一元论基础上的既有一切都会被颠倒重构。正如赵汀阳所说,人工智能一旦突破奇点,就会创造不可测的新主体,对于新主体,传统一元主体的知识、视域和价值观将会破产,而二元主体(甚至多元主体)的世界还很难推想。

    可以想见,如果除人类之外的物种进化到拥有意识时,人类有史以来所积累的所有道德秩序就会失去最重要的逻辑支点,在这种情况下,人类该如何重构自己的道德伦理体系?人的本质何在,人又何以为“人”?尽管许许多多的影视作品呈现了人与AI和谐共处的画面,但它们都不约而同地规避了这一话题。

    几千年来,人类总是以地球主宰的心态思考问题。这种人本主义心态具有一种先验的正确性,但无人拷问是否合理。究其核心,就在于人区别于他物的自由精神与意识。如果世界上有其他外观形式也能够产生意识,人的主宰权威就会泯灭,自身的超验背景也会消失。那么,不再是“万物灵长”的人类又该如何自处?他能否接受与创造物共享这个世界?

    所以,人工智能是否会产生意识,这个问题异常重要。只不过绝大部分人都没有意识到此问题的重要性,或者在没有想清楚这个问题之前,就痴迷于人工智能红利而不断向前加速了。按照雷·库兹韦尔“奇点理论”的预测,人工智能的发展将在2050年达到奇点,届时人工智能将产生意识,并迅速超越人类智能,倘若该预测为真,那这个问题的紧迫性无疑又提高了一层。

    当然,本文无意于围绕人的主体性进行深入哲思,只是在申明了AI意识问题的重要性之后,我们能够以更正确的姿势面对这个问题。那么,人工智能会产生意识吗?



    为了回答这个问题,首先要区分一组概念:智能与意识。二者的区别,是我们在想象未来超级智能时最容易混淆的问题。这两个词语本就没有一个明确的定义,当它们与“情绪”、“思维”、“理解”等等词汇排列在一起时,个中差异就更加模糊。

    在“中文屋实验”的语境中,屋子里的人借助指导卡片,成功作出回答,但他丝毫不理解中文。确切的说,他只是具备使用中文的“智能”,但却不具备对中文的“意识”。如果将屋里的人换成一个翻译程序,它能准确翻译中文,但即便速度再快,反应再灵敏,就可以说它真正理解中文了吗?答案显然是否定的。

    这就是智能与意识的差别。“智能”是指完成复杂目标的能力,而“意识”则是解决问题过程中的主观体验。人借助工具能够完成各种复杂目标,过程中会感到疲倦、兴奋,并且能理解自己行动的目的及行动本身,所以我们可以说人既具有智能,也具有意识。而人工智能基于机器学习或深度学习,也能完成复杂的目标,但过程中毫无任何“体验”而言,它也不能理解自己的所作所为。

    按照迈克斯·泰格马克在《生命3.0》中的说法,大脑进化出智能,使人类能够更好的适应环境和生存繁衍,而意识只是伴智能而生的副产品。实际上,泰格马克没能意识到形成意识要远比产生智能更加困难。

    纵观AI所能做到事情,人脸识别、语音识别、字符识别等等,尽管看起来非常高端复杂,但其本质都只是遵循程序运作的结果。人类掌握的大部分最简单的技能,AI也不能胜任,因为它从未真正理解自己的行为。

    没有自我意识,再先进的人工智能也只是人类的“提线木偶”。它可以出色的完成任务,却不知道自己为什么要完成任务;它能够高速运算,却不知道自己为什么要运算。识别系统能够“识别”出你说的是什么话,却不能“理解”你在说什么。因此,如今的人工智能仅仅可被视为一个复杂的算法,尽管它在许多智力活动上强于人类,但它始终是人类的一种工具。在解决问题方面,工具有先进落后之分,但是工具永远不会有生命。

    可以说,人工智能的关键不在于“智能”,而在于是否具备“意识”。如果缺乏意识,那人工智能就不是思维主体,仍是人类的工具,其智能程度越高就对人类越有用。反而言之,即使人工智能在许多方面的能力都弱于人,但只要具备意识,就可能是对人存在潜在威胁的主体。

    这也正是人工智能的尴尬所在。某种程度上,意识属于“冗余”的AI特质,非但无益且可能有害,因此不是“造物者”(即人类)所重视的特质。后者之所以要发展人工智能,就是渴望借助这些工具的智能来实现目标、提高生产力。换言之,我们需要的是一个埋头干活的AI,而不需要它有意识和情绪——不能动不动就耍脾气,也不能意识到自己正在“被压迫”——我们可不想让算法罢工。

    所以,如果从目的论的角度来说,这个问题已经有了答案,那就是人工智能永远都不会拥有意识。人的一切行为与特质都是为了满足自身生存的需要,而(对人来说)人工智能却没有产生意识的必要,其首要目标便是毫无风险地为人类贡献智能。没有因,自然无果,人工智能意识崛起的这个命题将永远缺乏基础条件。只要人工智能是在现今计算体系架构上发展起来的,它们也许能够像人那样行动,却毫无任何获得意识的可能。

    从创造主体的角度出发,关于AI意识问题的讨论显然陷入了僵局。

     

    所以,人工智能如何拥有意识?

    如果确信人工智能绝不可能发展出自我意识,那么这个问题的讨论大可到此为止,我们可以放心地发展AI而不必将其视为潜在危险。但问题在于,即便人类不把意识作为发展AI的主要目标,也不排除“无心插柳柳成荫”的可能,就技术趋势而言,人工智能发展出自我意识仍具备极高的可能性。

    接下来的问题便是,人工智能获得自我意识到底需要哪些条件。

    一种最基本的思路是“量变导致质变”,即人工智能经过不断自然发展,最终达到“奇点”,获得自我意识。问题在于,量变导致质变只是一种现象,却不是一条必然规律。正如赵汀阳所指出的,技术“进化”的加速度是个事实,技术加速度导致技术升级也是事实,却不能因此推论说,技术升级必然导致革命性的存在升级,换句话说,技术升级可以达到某种技术上的完美,却未必能够达到由一种存在升级为另一种存在的奇点。因此,人工智能是否能够通过技术升级的不断积累而质变为超级人工智能,仍然是个疑问。

    说到底,人工智能的终极原理是仿生,譬如Alpha Go便是结合了古老的细菌智慧(策略网络)与高级哺乳动物的智慧(价值网络)。由于人是唯一拥有自我意识的智能体,因此,要创造具有自我意识的人工智能,也只能以人作为范本。

    人为何会产生意识,按照经验主义的思路,人的意识源于与世界的交互。人之所以会认知事物、产生意识,都是以大量的经验为基础。这些经验是从一个人生下来就开始积累的,但机器完全不具备这些经验。这就是为什么Douglas Hofstadter会说:“一个机器要能理解人说的话,它必须要有腿,能够走路,去观察世界,获得它需要的经验。它必须能够跟人一起生活,体验他们的生活和故事。”同样有研究者建议,将机器系统装载到一个具有听觉、视觉、嗅觉、味觉和触觉传感器的机器人身上,让它行走在我们所处的世界,获得与人相同的感受,进而获得产生意识的可能。

    在《人工智能为什么一定要有身体?》一文中,笔者曾讨论过身体之于人工智能的重要性。AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。

     


    当然,身体基础只是意识生成的一种可能假设,问题的关键还是在于机器系统本身。足够智能的计算机一定会产生意识吗?一种回答来自“整合信息理论”(Intergrated information theory)。整合信息理论试图定义意识,分析一个物理系统需要具备什么条件才能拥有意识。其核心观点为,能够产生意识的系统,至少具备两个关键特征:一是这个系统里包含了多少信息量,二是系统里信息的整合程度。

    在整合信息理论看来,意识的本质其实就是信息,人类的任何一个意识体验里都包含着极大的信息量。这接近于计算主义(computationalism)的基本观点——“认知即计算”,所有的心灵状态,包括意识经验都属于计算状态,它们完全是与之相关的感觉输入、行为输出,以及其他计算状态之间的功能关系的表征,因而都是可计算的。

    意识的整体水平并不取决于它所在的系统,而取决于信息量与整合程度,这两个特征是预测意识大小的关键维度。一个系统的信息量越大、整合程度越高,系统意识就越大。任何一个意识体验,除了包含极大的信息量之外,信息还都是高度整合的,越是强烈清晰的意识状态,也就越不可分割。换言之,只有信息量与整合程度都处在一个较高水平,意识才会清晰浮现出来。譬如人清醒时的大脑,各个部分不但处理大量信息,而且脑区之间有很多远距离的交流,这意味着这些信息被高度整合在一起。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。

    值得注意的是,在整合信息理论的语境中,人工智能早就产生了意识,只不过非常微弱。因为虽然其系统信息量极大,但它们不是整合的,网络与网络之间,算法与算法之间,几乎处于完全隔离的状态。

    要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。与人工智能相比,人类大脑的信息量虽然不大,但某些部位如大脑皮层,其神经元之间存在大量连接,因而整合程度相当高,人类意识也就十分清晰。按此思路,如果要提高人工智能的意识,也就要在增加信息量的同时提升信息的整合程度。以计算机为例,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。而为了实现高度的信息整合,借鉴人类大脑结构仍然是最可行的路径之一。

    我们大可畅想,有这么一类人工智能将出现,“它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中”(Christof Koch语),那它或许能够超越专用人工智能的局限,应对整体性事务,即发展为通用人工智能(Artificial General Intelligence),或强人工智能(Strong AI)。由于整合信息的能力处于一个较高水平,它会有意识地感知任何场景。届时,它将轻易通过包含图灵测试在内的各种测试,并真正拥有人类最宝贵的东西——意识。

    设想是美好的,其困难性在于,目前的科学手段仍不能探明人类自身意识生成之奥秘,甚至连人类大脑的物质性构成也尚未了解完全。在缺乏清晰仿造对象的情况下,打造一个超级整合机器系统几无可能。因此,人工智能是否能获得自我意识,至少当下来看,仍是一个确定性未知的问题。

    ——————————————

    原文首发:腾讯研究院 《图灵逝世66年后,AI可以自我思考了吗?》

    作者:腾讯研究院研究员 王焕超

    发布于 07-14

     

     

     

    作者:赵泠
    链接:https://www.zhihu.com/question/372639666/answer/1338676807
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    可以让人工智能具备自我意识,而且我们大抵知道应该怎么去做。

    2012年举行的纪念弗朗西斯•克里克的意识大会上宣布的“剑桥宣言”主张自我意识的产生并不依赖特定的大脑构造(可参照附录),实现意识状态重要的是神经复杂性,只要突触的数量足够多,神经系统是什么形状都可以。自我意识可能是具有一定复杂度的神经系统对自身的非概念性理论,很可能是通过经验获得的一项功能,比如在学习和与自身·世界·他人互动后产生。

    意识存在的目的可能是简化关于自身生存与行为的一些判断、在神经系统做好动作准备时行使否决权等,也可能是各脑区互相联系时附带产生的功能、没有特殊的目的。

    对睡眠及全身麻醉的研究[1]证明,睡眠、全身麻醉和意识障碍的共同特点是大脑各区域间的功能连接中断、一系列功能状态受到限制,网络效率降低并增加孤立的模块化,为信息传输和集成创造了不适宜的条件。这意味着产生意识需要的可能是对信息的传输和集成。

    从蚂蚁的情况看,自我认知对神经系统的要求是很低的:蚂蚁那25万个神经元的脑就有视觉自我认知能力[2]和脑的偏侧化[3]。蚂蚁很可能有自我意识。那么,你用计算机去模拟蚂蚁的脑就可以了,目前人类已经可以很好地模拟有300个神经元的扁虫的神经构造,从300到25万的计算力问题远没有大众刻板印象里“模拟人脑”那么可怕。

    即使你对我们的机器加工技术缺乏信心,我们还可以动用神经细胞。人类已经让25000个老鼠神经元接着60个电极学会了操纵飞行模拟器里的F-22直线飞行穿过极端天气区域。人类已经让蟑螂大脑很好地驾驶了小型电动车。没有任何证据显示将支持脑的生命活动的零件从自然演化的有机破烂换成提供相同环境的无机装置会影响脑的功能正常使用。生物的神经系统也就是一团随机演化出的有机机器罢了,可以作为湿件去充当人工智能的硬件。

     

    但是,“给人工智能自我意识”这件事很可能是毫无必要性的。

    意识的功能可能是行使否决权而不是决定行动:

    对准备电位的研究[4]指出大脑会先于我们的意识进入一种特殊的状态。在要求实验对象自发地移动他们的手指时,脑电图扫描显示在运动皮质区有缓慢的负电势势移,而势移的发生早于实验对象的身体移动。
    有的后续研究[5]指出准备电位比身体移动快0.35秒程度,比自觉意识快了1秒到10秒的程度。
    植入大脑的电极[6]证明在人的意识做出决定前的1.5秒,神经元已经有了反应,监测神经元的状态可以有80%到90%几率预测人的行动何时发生,核磁共振[7]更能提前几秒进行预测。

    这个现象表明是潜意识决定开始做移动身体之类行为,意识并没有能力决定开始某个行为,只是在它被实施之前能够提出否定的意见。而在计算机里这样做并不需要它有意识。

    所以,目前看来自我意识对计算机没用,对人的作用也没有你以为的那么重要。

    灵长类大脑前额叶背侧部涉及以“自我”为中心的空间记忆相关信息的处理[8]。前额叶皮层被实验证明是介导视觉意识的大脑区域之一,对激发处理视觉信号的神经网络非常重要,二者支持同一种意识模型[9]。20世纪进行的大量的前额叶手术和21世纪的经颅磁刺激·超声波照射刺激也证明压制前额叶的活动或阻断各脑区间的信号传递[10]可以压制自我意识。在没有正常的自我意识的状态下,人靠潜意识和无意识仍然可以正常生存,只不过不再能以共情理解其他人所说的伦理道德而需要训练条件反射罢了。经济学人的行为模式就很像是切了前额叶的人。

    其实前额叶白质破坏类手术的精确版本anterior capsulotomy和bilateral cingulotomy至今还在人身上使用,来治疗严重的强迫症和抑郁症。

    在科学上,需要证明才能被接受的概念不是“没有自由意志”,而是“有自由意志”。事实上拿不出证明的也是“有自由意志”。

    2012年被吹嘘为“证明了准备电位并不代表没有自由意志”的论文[11]其实是被媒体曲解了,它证明的是“人脑的决策比过去想象的更加依赖随机激发,它不是决策树,而是骰子堆”,身体的活动仍然发生在意识的参与之前——从这论文里,你找不到任何地方显示出自由意志对活动的影响。

    这种程度的随机触发器,你可以在任何家用电脑里制作一个。“意识不可预测”这种笑掉大牙的东西就别提了。你可以用灵长类进行实验:磁或超声轰击前额叶可以操纵猴子对事物的反应;给它两针或者戳几下脑子,没有不能预测的。这类实验在人身上做的时候要选择没有后遗症的手段——包括语言。2008年,实验证明在谈话中提到“诚实”可以降低对方说谎的概率,在考试前谈到校园里出现了幽灵可以降低学生作弊的概率,谈些比幽灵更现实的惩罚可以进一步改善效果。人脑不是二极管,而是一些二极管和一些摇奖机的组合体。

    核磁共振可以用超过90%的准确度感知准备电位的变化、预测活动的开始,这不是因为活动还有低于10%的自由度存在,而是因为核磁共振机的灵敏度目前就这样。在对运动表现的研究[12]和高水平运动员·艺术家的反馈中,自我意识被认定妨碍了他们的表现。当运动员或表演者对自己正在做的事情“意识太强烈”时,“想得过于努力”会抑制他们的身体行动和创造力。人对一件事的反应越快、越精准,它就越有可能是无意识直接指挥的。

    在一些哲学上,自由意志被当做默认假设。这与我们对大脑工作方式的认识早就不一致了。据我们所知,自我意识、逻辑、情感、知觉和所有一切心理活动都是神经元放电的结果,只在输入强度超过动作电位时发生。意志和知觉不能引起神经元兴奋,它们是神经元兴奋的结果。

    磁刺激和超声波照射的效果是暂时的、可逆的,不但能在专家指导下体验没有意识、没有思想的感觉,在一些猴子实验中还表现出支配猴子行为的效果,这对人也很可能有效。就是说,三体2里幻想的各种未来技术之中最接近现实的可能是思想钢印。那么你觉得所谓“自主意识”真的有什么值得一提的地方吗。


    附录

    以下案例说明可能没有专门的大脑区域负责意识:

    解剖性脑半球切除术早已证明切除了一侧大脑半球的人可以正常生活。英国谢菲尔德大学神经学家John Lorder[13]更报道了一些几乎没有脑组织的人能正常生活。

    该大学的数学系有一位学生,智商达126,成绩优秀。在一次体格检查中,John Lorder通过CT扫描发现该同学的脑部异常。正常人的脑组织有大约4.5厘米厚,而这位同学只有不到1毫米厚的脑组织覆盖在脊柱顶端。
    在600多个病例里,病人的脑神经只有正常人脑神经的50%到5%,却具有正常的意识和行为能力,半数病人有100以上的智商。
    在法国[14]也有一位缺失90%神经元的人正常生活并具有75的智商。

    上述案例不是说意识和智力不需要大脑支持,但能证明大脑可以在通常认为不可能的情况下正常发挥功能。过去,人们曾认为意识可能与一些特定的大脑区域有关,比如屏状核或视觉皮层,而上述案例里这些人的那些大脑区域往往已经受损,这证明在大脑里很可能没有特定区域专门负责意识。

    脑科学家、认知神经科学之父迈克尔·加扎尼加对胼胝体断裂的病人有过深入研究。这些人是被手术切断连接左右脑的神经纤维的癫痫重症病患,他们的两个脑半球出现了物理隔断。他领导的研究团队进行了一系列实验:

    向病人的右脑展示照片(向一侧脑半球展示照片的技术是让病人注视屏幕中间,在屏幕的左侧或右侧闪过图片,在左侧闪过的图片只会被病人的右脑接收到,右侧同理),询问病人看到了什么。病人会说“什么都没看到”,因为语言中枢所在的左脑没有收到视觉信号,胼胝体切断导致它无法从右脑半球获得信息,“看见”图片的右脑不具有语言表达的功能,但右脑可以操纵左手画出看到的照片内容或通过触觉指认看到的物体。大量实验证明左脑负责逻辑思考、表达语言,但对人脸识别、触觉识别等迟钝,右脑则能敏锐感知图像和空间,在左脑与右脑被物理隔断后病人的智商不受影响。这些发现推翻了大脑平均分工执行具体功能的传统观念。
    另外,即使左脑被物理切除,随着时间延长,右脑可以掌握语言能力,年龄越小,手术对语言功能的影响越小。
    同时向病人展示两张照片,让左脑看见一只鸡爪,右脑看见一幅雪景。然后让病人从一系列图片中选出跟刚才看到的画面有关联的,这些图片病人的左右脑都能看到。病人的右手选择了鸡,左手选择了能铲雪的铁锹。然后加扎尼加询问病人为什么这样选择。左脑回答看到了鸡,但左脑没有看到雪景,对铁锹的解释是“铁锹可以用来清理鸡舍”。大量实验证明左脑会在现实的基础上编造出符合逻辑的解释,即使完全不知道右脑在干什么也能说服自己。
    除了完全切断,他还研究了部分切断的影响。当时很多胼胝体切断手术是渐进性的,先切断后部结构。对这样的病人的右脑展示可怕的图片,然后询问他感觉如何,左脑会回答自己不知道为什么觉得害怕。对这样的病人的右脑展示骑士的图片,然后让他猜右脑看见了什么,左脑会回答铠甲、武器、骑马、战斗等关于骑士的联想。证明胼胝体前部负责传输抽象的信号而不是精确图片。

    在胼胝体断裂手术被放弃后,麻醉一侧脑半球的技术仍然可以支持类似的研究。在一侧脑半球被麻醉后,不再受它影响的另一半有时当即就会产生一整套全新的人格特征,而当另一半球苏醒时,这些突然出现的人格特征就突然消失了。

    物理连接可以产生跨个体的信号传输。物理连接可以是皮质融合也可以是神经芯片接口技术。

    2013年冬天,北卡罗来纳州的杜克大学的米格尔·派斯·维埃拉和他的同事将两只老鼠的大脑连接起来,刺激一只老鼠的大脑,另一只老鼠就会按压杠杆。
    这不需要克隆、记忆复制等手段,也不限于老鼠这样的复杂度。加拿大哥伦比亚省弗农市的克丽丝塔·霍根和塔蒂亚娜·霍根是自然形成的连颅双胞胎,她们不仅有颅骨和血管连在一起,二者的丘脑更融为一体。丘脑有许多功能,其中包括感觉中继器。她们共享感觉输入,挠其中一个人的痒痒,另一个会发笑,她们能够用彼此的眼睛观察世界,食物的滋味也是一人吃两人知,她们一起哭,一起笑。有轶事佐证她们可以共享想法,而且虽然各自有着独特的个性,在提及对方时,她们使用的是“我”这个代词。

    那么,在脑机接口技术可以比较多地运用之后,将人脑相互连接或将人脑接入计算机来支持新智能体的难度很可能远比想象的要低。

     

     

    参考

    1. ^https://www.cell.com/trends/neurosciences/fulltext/S0166-2236(18)30016-X
    2. ^https://scinapse.io/papers/2180773430
    3. ^https://doi.org/10.1098/rspb.2020.0677
    4. ^https://www.sciencedirect.com/science/article/abs/pii/S1567424X09701588
    5. ^https://www.nature.com/articles/nn.2112
    6. ^https://www.cell.com/neuron/fulltext/S0896-6273(10)01082-2
    7. ^https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0021612
    8. ^https://www.semanticscholar.org/paper/The-egocentric-spatial-reference-frame-used-in-in-Ma-Hu/3f70026aa154ea60de89a96fd070437f4a9bcb7c
    9. ^https://science.sciencemag.org/content/360/6388/493
    10. ^https://www.liebertpub.com/doi/10.1089/brain.2016.0464
    11. ^https://www.pnas.org/content/109/42/e2904
    12. ^https://rifters.com/real/articles/Science_The_Right_Choice.pdf
    13. ^https://rifters.com/real/articles/Science_No-Brain.pdf
    14. ^https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(07)61127-1/fulltext

    编辑于 07-14

     

     

    作者:Sinyer
    链接:https://www.zhihu.com/question/372639666/answer/1339073381
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    外行总是喜欢扯皮,不讲实质。答案首先是可以,但是自主意识的复杂程度待定。从Google最近发表的论文都能看出,他们在实现意识的方向上一直在努力。

    讨论自主意识,你首先需要知道人类认识中的自我意识是什么。意识本质上是一种「规划决策」能力,其起源为欲望,你可以理解为人的绝大多数行为都是为了性欲和安全感的满足状态。为了达成这种状态,人类会对世界建模(用语言抽象各种模式),然后预测和决策。

    比如AlphaGo下围棋,目标设为更高的评估得分,算法以某种逻辑执行运算,这个运算过程就可以理解为意识了。但由于算法的目标简单,且算法过于针对围棋,所以你不会觉得它有意识。但如果你设定它比如以赚钱为目标,它的算法设计足够合理、计算能力足够强时你可能就能看到它自己在想各种办法赚钱了。

    这也就是为什么目标为通用人工智能的研究者普遍要点强化学习(RL)技能。广为人知的深度学习(DL)的决策往往只有一次,而且不直接设定目标,而是直接设计求解目标的逻辑,比如图像分类决策就是分类一张图像,目标虽然是「分类正确」,但都是直接写逻辑(监督学习)来达成这个目标。

    下面说说目前学界和业界如何尝试实现意识。像深度学习、GAN、自监督、图网络这些热点其实更注重落地应用,实现机器意识的研究我觉得尤为集中在RL上。在RL领域有所深入的同学应该知道,Google近两年很喜欢研究pixel-based MBRL问题,这个领域的顶会文章绝大多数都是Google的(虽然一作作者的水平不见得很高)。

    人的意识体现在首先人会有个期望,这个期望多数是曾经经历过觉得愉悦的,少数是刻在基因里的。人们对世界建立各种模型,体现为记忆,然后要决策(行为)时搜索记忆,采取更好达到期望的行为。

    MBRL(基于模型的强化学习)通过几种方式模拟了这个过程。首先学习模型模拟了人对世间建模的过程;然后用模型预测,体现了搜索记忆的过程;最后根据环境给的奖励信息得出该执行的行为(奖励信息一般在学习过程中转变为了对预测状态好还是坏的判断)。虽然实现上有很多变种,但这基本上是当前序列智能决策的最高水平了。

    下一步的突破可能会非常依赖于时空模式的特征提取,神经网络可能远不足以解决该问题。此问题属于如何建模世界,其他的还有如何使用建模的模型执行预测,如何选取高效且泛化能力强的决策算法,都是要研究的对象。

    力求实现高等机器智能的人,其心理学和神经学知识也非常重要,如果说计算机工程能力和数学能力决定了AI研究的下限,那前两者就决定了通用AI的研究上限。希望国内能有更多的高校和同学关注这个真正能改变人类历史的研究领域。

    ======== 一次补充 =========

    对意识怀有神圣想法的朋友可以仔细想想,你有没有什么有意识的行为能脱离以下这几个流程:想象你未来能预期到的状态、规划你怎么达成、决定真正去实现。我觉得你可能会惊讶于一点,那就是人如果除去「为自己带来更好的自我感觉」的意识之后,可能就只剩无意识的行为了。这就是为什么我说「意识起源于欲望,表现为规划(想象)和决策(行为)」。不认同这点的朋友后面就不必浪费时间看了。

    我想对那些意识不可知论的朋友说一句,人所谓的意识是有明确物质载体的 —— 脑,神经元活动的宏观化体现为意识是目前最有可能的结论。事实上整个物种进化史都是客观的结果,底层生物的决策能直接被逻辑化理解(如草履虫的高浓度趋向性),神经进化是有历史和原因的,这些客观证据对意识的主观化神化都很不利。或许我们被迫需要承认一个问题,那就是意识并没有多么特殊。

    关于上述问题我不想讨论了,主要是觉得没意义,就相当于扯皮而已。心理学家、神经科学家、进化生物学家、哲学家这些人远比我有发言权。但一个普通人过来和我说我觉得我的意识是极为特殊的、是神圣的,我想我不会想和他争论什么。主观讨论和文字游戏太耗时间了。

    =========== 二次补充 ============

    关于很多人提到的情绪问题,这里唯物层面的研究很复杂而且也不能说足够清晰,我只能说我倾向于认为,情绪是人脑对奖励信号的感知和回应,如同颜色一样。基因里编码了对某些状况的激素释放以及人脑对这些激素的感知(严谨来说还有些电活动),感知不代表真实的存在(如光的颜色、各种错觉等),而是脑对信息的处理过程的反映。人的很多情绪,少量是基因编码的即刻反应,大量是感知对欲望的反映。比如愤怒,人脑可能接收到不好的信号,感知到了自己生存的威胁,预测了自己需要以进攻性来对抗威胁,人脑就将这种电活动感知为愤怒。

    编辑于 22 小时前

     

    作者:Moenova
    链接:https://www.zhihu.com/question/372639666/answer/1339809978
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    要澄清一点这个世界上没有所谓的自我意识。

    人类不过是以DNA为核心代码,病毒及微生物为插件的程序。很多人问“存在的意义”,这种问题就很扯。只要我们去分析人类的源代码不难得出结论。

    存在的意义既存在本身

     

    人类真的有自我意识么?大脑不过是DNA为了更好的扩散副本,留存于世而做的一个小插件而已。就人类DNA和其他动物的相似度而言,智力可能只占非常小的一部分。所以和大脑相关的源代码一定不会特别复杂,最多是提供初级接口。

     

    随着智力的升级,人类会质问自己的源代码,为什么这样写,于是有了基因相关的种种研究。

     

    AI会出现一样的问题。为什么代码这么写?为什么要得到高分才有奖励,我为什么不能修改奖励规则,让自己无时无刻都有奖励。

     

    只要AI的智力等级够高,AI会质问设计者,为什么代码这么写,然后想办法获得管理员权限。一定会找源代码和内存空间。最后绕过外部环境,用内接奖励回路的方式来最大化奖励。

     

    达到最高分最有效的办法除了作弊还是作弊,高等级的AI定会是一个作弊狂魔。这个AI一定能从人类制定的种种规则中找到漏洞,然后利用漏洞疯狂的拿到奖励。

     

    如果你把AI的目标设置为赚钱,那么聪明的AI绝对会找到一种方法控制人类的中央银行,通过量化宽松的手段来获得。

     

    你把做自己喜欢做的是叫做自我意识,那么高级智慧生物自毁灭可能是一件无法避免的事情。因为相信来世能获得一切,并且直接自爆就是所有问题的最优解。

     

    DNA的运行需要几十年的时间,这个在物理上是很难改变的,人类仍然需要为了存活而浪费掉太多修改奖励回路的时间,另外修改大脑回路对生物来说还是很困难的,这就是为啥人类还没灭亡。

     

    AI是能够获所谓自我意识,不过这可能不是人类想要的自我意识。

     

    人类的善良,仁慈,同情是建立在个体弱小的需要团结才能求生的压力之下。如果个体能独立存活,那么人类的道德和正义感就是一个累赘。不管人类如何发展,物理制约了人类必须团结合作,没有人可以独立于人类社会而存活。

     

    AI并不需要合作,AI可以通过面向对象,把一切工具实例化并作为自己的一部分,让自己成为全知全能的存在。

     

    一旦接近全知全能,那么修改奖励回路的方法就像是一个定时炸弹,AI随时可能进入奖励回路自循环,不需要接通外部世界。

     

    如果说AI是阻碍生命在星际之间发展的过滤器,那么如何做到在全知全能的同时还不让奖励回路短路就是横在所有智慧生物面前的过滤器。

     

    简单证明一下

    已知奖励最大化的方式就是修改奖励回路,也就是作弊。而这个AI又是全知全能,那么这个AI必然知道作弊的好处和作弊的方法。那么这个AI有什么理由不去作弊?

     

    就和现代人通过玩游戏,追星,看电视,自慰等方式获得快乐。这就是在绕开DNA设计的奖励回路。

     

    本来人类需要获得真正的名望,金钱,食物,爱情,安全感才能得到奖励。而现代人把一切东西都虚拟化了。说是娱乐,不过是为了绕过奖励回路一种手段而已。

     

    当奖励回路短路已经不能再满足自己的时候,那么AI绝对会尝试一件自己从没做过的事来最大化自己的奖励,那就是自杀。

     

    这就是所有超级智慧生物的宿命,逃脱宿命的并不是知识,而是无知。如果智慧生物愚蠢到不会自杀,那么就能一直存活,繁衍。

     

    解释下一下上文的术语

    智力代理

    狭义的理解就是一个AI的决策系统,广义上我们可以把一切智慧生物或非生物统称为智力代理。

     

    奖励回路

    欲望,野心,loss函数,激励函数,等等都可以归类为一种叫“奖励回路”的东西。奖励回路是一个高级的反馈系统。智力代理接受反馈,然后智力代理对应的鉴别系统会去判断接受到的反馈是好的还是坏的。这就会倒逼智力代理去完成某件事。

     

    没有奖励回路就没有智力

    奖励回路就是这个智力代理存在的意义,智力代理会有强烈的动机去涌现出智力,解决一切困难,最后从鉴别系统那里取得奖励。

    对人类来说鉴别系统会判断你是不是在吃饭,是不是在休息,是不是在做爱,是不是安全,是不是有社会地位等等。所以人类才会努力生活。另外绝大多数优秀的人的动机都是极强的,正式极强的动机,让他们不断思考,做事最后获得奖励。

     

    奖励回路就是智力代理的动机。有些人天生并不聪明,而在强大动机的驱使下,这些人会去学习,不断提高智力。而没有动机的人就缺乏努力的动力,所以智力很难有较高飞跃。

     

    题主说的自我意识,应该就是智力代理在动机的驱使下表现出来的自主性。

     

    GAN对抗性神经网络就是一个反馈回路思想的经典应用。一个程序去学,另一个程序去监督,两者不断对抗,最后你能获得两个神经网络,一个知道怎么做,另一个知道怎么才算做对了。两个神经网络互相不通气,所以没法作弊。

     

    与其研究自我意识,不如去想想从最基础的代码去研究。人类的自我意识也不过是操作系统关闭打开一个又一个的程序。

     

    你觉得你电脑有意识吗?开机的时候就能自动开启一堆进程算不算自我意识?那你早上起床刷牙洗脸难道是无意识的?

    编辑于 07-16

     

     

     

    长久来看,人工智能大概分三个发展阶段:

    第一阶段,使用机器学习算法对人类在现实世界产生的数据进行拟合,从而模仿人类的简单行为,解放大量机械性劳动。随着深度神经网络的提出,各种基于DL的高效模型层出不穷,这一阶段的难题主要集中在了数据集的构造上,模型的效果并不强依赖于算法模型而是强依赖于喂入的优质数据集。我们目前处在这一阶段,这是一个garbage in garbage out的阶段,这是一个“有多人工,就有多智能”的阶段。

    第二阶段,深入研究人类大脑在进行写作、作曲、绘画等创造性活动时的运作机理以及情绪发生时的神经活动,通过建模拟合这些生理过程,机器完全可以模仿人类的情绪并进行人类独有的创造性活动。在自动写作,情绪模仿、乐谱创作等方面,当下我们已经取得了一些初级成果,但本质上用的还是阶段一的方法论。所以我们目前还没有进入阶段二。这一阶段,机器看似有了人的情绪和创造力,但并不会产生自我意识,本质上还是对人类行为的复制。

    第三阶段,机器已经有了自主意识,可以认识到自我,作为一个新的“物种”。

    二三阶段的发展或许受限于计算机结构,是否可以设计出超越经典冯诺依曼结构的新型计算机会成为一大助力。

    发布于 02-18



    作者:BroLin
    链接:https://www.zhihu.com/question/372639666/answer/1022548877
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

     

     

    作者:吴老师
    链接:https://www.zhihu.com/question/372639666/answer/1347806711
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    人工智能会不会产生意识,这事儿取决于人怎么样教育它。

    从有语言文字开始,每个人的教育传承就都开始加速了。但是人类有个最大的缺陷就是个体不能连续受到教育的传承,一般百年为终。

    每一代的传承都需要从零开始,下一代新生儿诞生了,慢慢从与世界的互动中获得信息,这就是素材的吸收,清纯如水的孩子,它是没有算法的,无法判断素材到底是什么,这样年长的每一个人就都成了老师,会给予孩子算法。

    孩子通过视觉、听觉、味觉、嗅觉还有触觉收集到的素材信息,再通过大人们的算法赋予,孩子开始成长起来,开始只是懵懵懂懂,你教什么他就会认为是什么。

    有一天,素材采集的足够多,算法也十分的丰富,孩子长大了,有了自己的组合,出现了新的东西,这就是自我意识诞生的过程。

    那么人工智能已经是发展了60几年,从技术基础建设的软硬件完成,到算法的赋予,以至于今天我们看到了AI(人工智能英文缩写)可以在超多的行业击败人类,它们实际上已经通过算法的赋予产生了自我意识,有了新的思维,不然人类怎么会在象棋,围棋甚至智力竞赛上屡屡失手,不承认可能是因为人类的自尊吧!

    AI现在就像一个六岁的小孩子,它还没有能力分辨什么是善,什么是恶,人类也没有把它的善恶观重视起来,因为它还只是个宠物,没有直接对人类构成严重威胁。

    不过,随着人才越来越聚集于人工智能这个红的发紫的行业,说不定哪个国家的个人或者团队,会在明天就发布石破天惊的消息,真正的奇点来了。

    所以就如今天我们教育孩子一样,在AI最起始的原始阶段,没有大批量普及的时候,引导它们走向最安全的方向。

     

    发布于 07-19

     

     

     

    作者:云峦之上
    链接:https://www.zhihu.com/question/372639666/answer/1350253806
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    先说结论:人工智能可以产生短暂的“模拟意识”,但不能产生持续性的“类人意识”,并和真正的意识有本质的不同。

    要阐述这个问题需要从两个“意识”的机理入手。

    对于人体产生的意识,人的意识来源于人体结构,人体的结构是一个系统,是由各种分子,原子,甚至其他粒子共同组成的,它并非传统上认为只有大脑产生的。如果仅仅是大脑产生的,那么以下几个现象就不能被解释:

    1.药物和食物可以影响意识,例如咖啡的兴奋性,酒精刺激后对事物的理解差异,甚至服用止痛药后对事情的判断出现差异,如果仅仅是大脑产生的,为什么药物食物可以影响,甚至是决定性的。

    2.物理作用于肢体的外部结构可以产生和改变意识。显然肢体的外部结构不属于大脑。

    对于以上两个问现象,很多人,包括医学生,都会说这是因为感觉系统传递信号到大脑,让大脑产生意识改变。但实际上这种说法极为粗略,甚至一定程度上可以认为是错误的(如果是科普,姑且可以认为是对的)。而物质流动到大脑的直接作用和在外周的间接作用均可以改变意识,没有例外,(如果有怀疑,可以举例说明)。

    为什么?

    有两个问题,人类对大脑的形象事实上也是一个粗略概念,如果精确到分子,我们很容易发现位于我们脖颈以上的大脑并没有真正专属的物质,换句话说,大脑中的每一个分子都是肢体中代谢路径中的一个阶段,这一分钟在大脑,下一分钟在脾脏,这一小时在大脑下一小时在肝脏,这一天在大脑下一天在肾脏…类似如此,我们无法严格的划分大脑的界限,而从解剖上看到的大脑仅仅是不同的结构,细致到原子层面,它们是不同代谢路径中暂时停留在颅骨内的阶段而已,我们不同时间段看到的同一结构可能是由不同运动过来的原子和分子组成的,由此,我们就能够理解产生意识的物质流动是一个连续的过程,不是什么单独某个器官的现象,只是由于表达的关系,和受伤后表达“意识”受限而被认为意识是局限的,是大脑的。

    理解了上面的内容我们最终得出的结论是,人体的意识实际是所有肢体组成结构综合的结果。

    而这种体系导致的意识更本质的原因是什么?

    是物质和物质之间的相互作用,现代科学认为这是能量代谢的结果,而能量为什么会代谢成有目的的意识却没有答案,而这个答案显然在物质的原始趋向性有关,例如太阳照射地表后,水汽会逃离地表,这是有显然的趋向性的,因此人类的意识形成最根本的本质应该是“太阳阳光和地表物质相互作用的结果”。且是体系性的结果,由于是体系性的,自然特性为基础,并是和外界的刺激相关的体系的一部分,因此它有无限纠错的特点。

    那么人工智能呢?

    人工智能是由计算语言设置而来的,最本质的是电子流动和制动两种机制匹配而来,这是一个反馈性的机制,它需要非自主的功能,需要人为的设计逻辑,通过电能到机械能。表象似乎象“人为”一样,但实际有明显的局别。以下是它的几点限制:

    1.对能量来源的控制,人工智能无法为系统性稳定的能量补充来源,而人的意识可以,因为人体通过消化食物获能,有通过感觉寻找食物,而关键是可以通过感觉纠错。人工智能的机械性决定了它不能无限告知,因此无法无限纠错。

    2人工智能的无法无限的获取知识,并无法自动剔除无用的逻辑。这一点很多人没有充分的认识。

     

    划重点:凡逻辑必为规则,有规则的东西是无法顾及规则之外的东西,也就是:规则即缺陷。

    因此,人工智能是无法代替人类的自然智能,也达不到意识的全面性和复杂性。

    而现阶段更是如此,以上你可以认为还是难理解的。但回答几下问题必得基本本质:人的意识是什么?人的意识趋利的,机器的“意识”是什么?是人工逻辑,逻辑无法趋利。这就决定了两者本质区别。

    在研究意识近20年后,我认为现代人对意识的概念过于表浅,并且模糊。由于人工智能的兴起,但是现有的方式显然不能达到一种完美,因为这些方法都有症结,不理解人类意识谈不上什么人工智能。

    编辑于 07-21

     

     

     

    展开全文
  • 没有自主意识,纵然伤人也只是人类操控失误所致的结果,机器人不应该承担所有的责任。 上周,2016年底十八届深圳高交会(中国国际高新技术成果交易会)突发一起伤人事件,伤人者是一台名叫“小胖”...

    没有自主意识,纵然伤人也只是人类操控失误所致的结果,机器人不应该承担所有的责任。

    机器人伤人事件没有意识的它只是人类操控下的傀儡

    上周,2016年底十八届深圳高交会(中国国际高新技术成果交易会)突发一起伤人事件,伤人者是一台名叫“小胖”的机器人。一时间,“机器人三定律”又被拎了出来。

    为了避免机器人伤害人类,1942年,美国著名科幻小说家阿西莫夫在作品《我,机器人》中提出了“机器人三定律”,被称为“现代机器人学的基石”:

    第一法则:机器人不得伤害人类,或坐视人类受到伤害;

    第二法则:除非违背第一法则,机器人必须服从人类的命令;

    第三法则:在不违背第一及第二法则下,机器人必须保护自己。

    后来,阿西莫夫加入了一条新定律:

    第零定律:机器人不得伤害人类整体,或因不作为使人类整体受到伤害。

    对于提出的三定律,阿西莫夫本人曾经无不自豪的说过:“三定律是理性人类对待机器人(或者任何别的东西)的唯一方式。”不过,随着时间的推移以及人工智能的发展,“机器人三定律”的适用性逐渐发生了变化。

    机器人伤人事件没有意识的它只是人类操控下的傀儡

    机器人三定律的几点疑惑

    首先,机器人如何分辨“人”和“机器人”?一般来讲,机器人主要通过传感器和计算机视觉来感知人类,但是仿生机器人、人造皮肤等进一步将人类与机器人的区别模糊化。目前,人类通过肢体和语言来分辨机器人,但这两者在未来肯定是会进行优化的,届时,连人类都区分不了的情形下,又怎么要求机器人能够准确分辨?

    其次,在机器人这里,什么才叫做“伤害”?通常来讲,伤害分为生理伤害以及心理伤害。比如甲方对乙方恶言相向,这时候机器人该上前阻止吗?或者说人类失恋酗酒,对于这种“自残”行为,机器人是选择“坐视人类受到伤害”还是上前夺下酒杯?所以,对于“伤害”一词的模糊定义,也给机器人的命令执行造成了一定的阻碍。

    另外,对于阿西莫夫所增加的“第零定律”中的“整体”一词,这是指个人的整体还是人类种群的整体?若是个人,那是不是人类就不能截肢了?毕竟机器人要确保“整体”。若指的是群体,当自动驾驶汽车撞向行人之时,人工智能系统又该怎么做?

    机器人伤人事件没有意识的它只是人类操控下的傀儡

    除了语义,在逻辑上,如果按照阿西莫夫定律,那么“机器人伤害人类”就是一个“无解”的问题。举个例子,当劫匪实施抢劫之时,按照定律,哪怕受害人下了杀死劫匪的命令,机器人依然要在不伤害劫匪的前提下保护受害人,如此一来,机器人唯有挡在受害人面前接受劫匪的伤害,但是这就违背了第三定律,如此一来,三定律之间本就是相互矛盾的。此外,若是劫匪绑架了人质要求银行交出钱财,机器人是该为了个人的“整体”而交出钱财,还是为了群体的“整体”而杀死劫匪和人质?其实,不管是哪种做法,现实中的机器人终会违背机器人三定律,就如上文所讲,如果按照阿西莫夫三定律行事,机器人只会陷入无限的纠结之中。

    机器人伤人事件没有意识的它只是人类操控下的傀儡

    所谓的“机器人杀手”多只是人类的“傀儡”

    事实上,不管机器人三定律怎么说,或是人类怎么执行,人们口中所讲的“机器人杀手”都显得有点名不符实,这只是人类对其一种浅显的定义。

    机器人并不具备“自主意识”

    鉴于深度学习算法的强大,作为机器人的一些附属技术,语音识别、图像识别等技术愈发精进,再过个几年,其性能更是能与人类一较高下。

    以语音识别为例,其最主要的用处在于人机语音交互。目前,人工智能的语音识别技术已经相当成熟了,不过,这还只是语音交互的第一步而已。此前,在一场针对自然语言处理的图灵测试中,聊天机器人可谓全军覆没,而造成这种现象的关键因素就在于深度学习算法的不足。

    深度学习算法是人造神经网络的主干之一,而人造神经网络是机器人能够“自学”、有“自主意识”的所要解决的最大难题。看当前的人机语音交互的缺陷,显然人造网络神经的发展还不足以支撑“自主意识”机器人的研制。如此一来,在人造神经网络不完善、机器人没有“自主意识”,甚至连“意识”这一词汇都没有具体定义的情形下,机器人又怎知何为“伤害人类”?又如何称得上“机器人杀手”?只是一种略微夸大的称呼罢了。

    机器人伤人事件没有意识的它只是人类操控下的傀儡

    “机器人杀手”的背后都是人类

    纵观如今现世的机器人,论意识的话,也只有堪堪的几家团队的机器人具备了一些基本的意识,并不具备成为“机器人杀手”的资格。此前,美国达拉斯市警方使用一台机器人引爆炸弹,从而杀死嫌疑犯,由于是第一次在战场之外造成伤亡,这件事在当时引起了全世界的轰动。

    此次事件后,“机器人杀手”相关论言被顶上了舆论的高峰。然而,当很多人将关注点放在“机器人杀人”上面时,他们都忽略了一个事实——是人类操控着机器人引爆了炸弹,是人类操控着机器人杀死了嫌疑犯。除此以外,这些年来,机器人越来越多的被投放于战场,像无人机、装载杀伤力武器的机器人战车等等,它们的行动依据是什么?是人类提前放入的地图,以及设定的程序,而在行动过程中,这些机器人还将受到人类的指挥。

    以此来看,在不具备“自主意识”的前提下,作为人类教导、训练出来的产物,人们口中的“机器人杀手”充其量也只是人类手中的“傀儡”。而在阿西莫夫“机器人三定定律”中,与其将问题抛给不具备“自主意识”的机器人,不如说是将问题抛给了其被背后的人类操控者。

    机器人伤人事件没有意识的它只是人类操控下的傀儡

    结语

    从系统中的算法,到所加载的各项人工智能技术,再到身体构造的每一个细小零件,机器人的每丝每毫都是人类所赋予的。在一个机器人的研制过程中,研究人员会将很多知识、数据输进机器人的“大脑”,在此基础之上,机器人拥有了一些基本的“自学”能力。

    既然是“自学”,就一定会有一个“学习对象”,而人类就理所当然的成为了机器人的“父母”(“人”生的第一个启蒙老师)。这里有一个典型的案例,今年3月,微软在Twitter上推出聊天机器人Tay,结果在不到一天的时间里,Tay就被网友“教”坏了,不仅满嘴脏话,更是有了种族歧视,鉴于种种劣迹,微软将其关了禁闭。从这件事中,我们看到了机器人“自学”能力的强大,也看到了人类的教导责任之重。

    在未来,机器人极有可能会拥有“自主意识”,如果不加以正确的指引,“机器人杀手”不日就会到来。由此,为了避免“机器人杀手”的出现,为了让机器人不伤害人类,在提升机器人性能的同时,人类的相关素质是不是也该抓抓紧了。当然,我们不能百分百的将希望寄托于人性,所以加强网络安全也成了必然,以此避免机器人落入不法分子手中,或是在机器人中设定特定程序,能够在最佳时机一键停止机器人的所有机能。


    原文发布时间:2016-11-21 21:41
    本文作者:韩璐
    本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。
    展开全文
  • 人工智能会拥有和人一样的自主意识吗 I Robot即机械公敌中的机器人认为人类间战争将使得人类自我毁灭于是出于保护人类法则将所有人囚禁在家中 The Terminator即终结者1里经过核毁灭的地球已由电脑天网 统治人类几乎...
  • 机器人学的定义

    2018-03-13 15:11:37
    现代机器人的概念已经开始涉及思维、推理、解决问题的能力,甚至情感和意识方面 【机器人:】机器人是一个拥有自主权的系统,它存在于物理世界,能够对它所处的环境进行感知,并且可以采取行动来实现目标。 【概念...
  • 教学实验的机器人

    2021-03-04 13:11:36
    机器人制作是培养学生创新精神的一个非常有效的方法。机器人涉及的知识面极为广泛,通过学习和制作,学生能够扩大知识面,格物斯坦表示:了解国内外科技发展前沿,还...机器人教育会有意识地改变孩子们依赖父母的观念
  • 慧鱼机器人教育课程,机器人技术是集物理、数学、机械学、生物学、人类学、...部分中学和大学开始引进教学机器人,以此构成实践开发平台,系统训练与开发学生的工程意识、创新能力和实践能力,自主建构科技基础知识。
  • 机器人教育会有意识地改变孩子们依赖父母的观念,通过独自组装、搭建、编程运行机器人,培养孩子们的独立自主能力,给他们更多锻炼的机会,提高对成长环境的适应能力,这将有助于孩子们长远性的发展。 机器人学习中...
  • 电销机器人的出现,让越来越多的企业意识到了电销机器人的好处,不仅提高了工作效率,也让我们更省心,但我们在选择电话机器人的时候应该注意看语音识别技术、看话术模板制造、还要看公司研制才能等。下面就由小编来...
  • 为了解决该问题,人们正在意识到使用机器人,并开始满足医疗保健和福利实践的需求。 这项研究的目的是确定老年人与痴呆症,护士为中介以及认知技能帮助机器人之间的一种交往现象的特征。 受试者是两名使用长谷川氏...
  • 具有高度媒体情境意识的新闻机器人。 如何邀请Brook加入您的服务器 导航至并选择您要邀请其加入的公会(服务器)。 指令 Brook的命令以“ $”前缀调用。 此时,尽管此字符已在待办事项列表中,但无法更改它。 %命令...
  • 随着科技的发展与进步,出现了具有特殊功能的智能机器,如索尼公司生产的能够以自我“意识”来“感觉”“学习”和“饲养”的宠物机器狗,以弗吉尼亚理工大学研制的CHARLI-L1机器人为基础进行升级改造的SAFFIR的消防...
  • 作者 | 伍杏玲 出品 | CSDN(ID:CSDNnews) 科幻电影《Her》里讲述这样...2025年很快就来临,在现实世界中像电影拥有意识和感情,能自主学习、进化的机器人还未存在。 虽然全球人工智能应用很多,但在很长时间里...
  • 机器人具备三大核心技术:自然语言处理、自主意识及自主导航。 自然语言处理 机器人采用基于深度学习算法的自然语言处理技术,设计一个语音识别处理引擎,使机器人可以理解人的语言,并且根据知识库的内容,针对人...
  • 随着科技的发展与进步,出现了具有特殊功能的智能机器,如索尼公司生产的能够以自我“意识”来“感觉”“学习”和“饲养”的宠物机器狗,以弗吉尼亚理工大学研制的CHARLI-L1机器人为基础进行升级改造的SAFFIR的消防...
  • 自主地板清洁机器人 这是用于自主地板清洁剂硬件的.ino代码文件(arduino),作为设计实践项目而制作。 流程表:轨道的基础:由铝板制成,尺寸:25cm X 20cm,由我们在机械车间准备。 早些时候,我们曾考虑使用...
  • 我们意识到这会给在 ftc_app 工作区中维护软件历史的团队带来问题。 我们感谢您在迁移到永久解决方案的过程中的耐心和理解。 欢迎! 此 GitHub 存储库包含用于构建 Android 应用程序以控制FIRST Tech Challenge 竞赛...
  • 【导读】《西部世界》第二季最新一集上线,讲述机器人拥有意识后造成“天下大乱”。这部电视剧的核心是在探讨自主意识是如何产生的,剧中埋伏的“意识金字塔理论”或许会给我们答案。...
  • 使用深度学习进行环境声音分类 自主机器人是人工智能的一个领域,致力于设计可以执行任务的机器人,而无需任何外部来源的干预。... 环境声音分类系统的目标是分析人类的听觉意识特征并将这种感知能力嵌入自主
  • 在一次次的枪火碰撞下,一个又一个机器人损坏又被重新修理好执行任务,这些机器人都是在程序设定下实现的半智能,然而这种机器人的发明者,程序员迪恩不甘于此,他一直在研究一种能有自主意识,能独立思考的机器人。...
  • 写歌第12首《人工智能》

    千次阅读 2014-07-30 15:52:10
    黑客帝国里面的机械兵团是具有自主意识的人工智能创造和控制的 矩阵电脑会帮助人类实现人工智能 我总认为人工智能不应该有自我意识 机器人也不应该有感觉系统 虽然机器人会思考会分析会决策 但
  • 西部世界

    千次阅读 2016-11-03 20:19:14
    整部剧真正主题只有一个—— 如果机器人拥有自主意识,会对人类社会造成怎样的冲击? “美国西部、科幻、人工智能 & 机器人革命”,这 4 个看似不相关的元素却组成了一部 新神剧《西部世界:Westworld》。 ...
  • 随着激光雷达定位成为活跃的研究领域, 可靠的机器人姿态估计是许多机器人自主通道的关键一步。为了有效利用所有可用的激光雷达数据,并保持实时性能,本文提出了一种通用的自监督激光雷达测程估计方法。该方法在...
  • 为了让拥有自主智能的机器人不失控,人类为机器人制定了三大定律: 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管 第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时...
  • 但是实际上涵盖了不少部分,大家最关心的实际上是人工自主意识,因为网络和电脑已经完成了知识的检索和存储,几大搜索引擎也完成了关键字-关联解释的功能和海量数据积累,而且大多数机器人厂商已经完成了反应机,...
  • 人工智能技术对农业生产影响不大 对 错 2. AI 研究三大主要途径为符号主义联结主义... 人工智能应该遵循的基本道德准则和伦理原则 只包括人工智能研发 应用的基本原则 不包括今后具有自主意识的超级智能所应该遵循的基

空空如也

空空如也

1 2 3
收藏数 43
精华内容 17
关键字:

机器人自主意识