【直击】德国工厂发生首起“机器人杀人案” 阴霾下的
发布时间:2019-01-11 09:20:40虽然机器智能达到会对整个社会产生巨大影响的时代还未真正到来,但是估计不会超过30年。当智能革命风暴席卷,可不只是机器人取代人类工作那么简单。机器智能不但能代替人劳作,甚至代替人思考,那么,人类留给自己的空间还有多少?
德国大众汽车制造厂中一个机器人杀死了一名人类工作人员。当时这名21岁的工人正在安装和调制机器人,后者突然“出手”击中工人的胸部,并将其碾压在金属板上。这名工人当场死亡。
调查人员正对此次事件进行调查,但有网民已经在互联网上宣称,这是首起“机器人杀人案”。大众汽车公司发言人称,这不是与人类并肩共同劳动的机器人,当时它被放在安全笼中,这名不幸遇难的工作人员当时恰好在笼子中对其进行调试。
着无疑将会是日益高涨的机器人研发工作的当头一棒,由此我们可以引发出对机器人开发的深层次的考虑。
机器智能将何时得到规范
上个月,斯蒂芬坊艚?Stephen Hawking)指出,人工智能(AI)的发展有可能导致“人类的灭绝”,引起了广泛的关注和争议。许多技术专家认为这简直和勒德分子制造恐慌差不多,但是担忧这个问题的可不只是霍金教授。事实上,绝不可能是技术勒德分子的比尔犯谴?Bill Gates)和伊隆仿硭箍?Elon Musk)也同意这一说法,他们声称AI可能是人类面临的“最大生存威胁”。
出于这种担心,越来越多的技术专业人士奔走呼吁,希望进一步规范AI机器人技术的发展。2009年,人工智能协会(AAAI)第一次开会探讨,机器人的自主是否会达到危险的程度。
最近,谷歌隐秘的“Deep Mind”人工智能项目的创始人杰米斯?哈萨比斯(Demis Hassabis),携手众多科研人员和行业专家制定了“人工智能大宪章”(Magna Carta for AI)。谷歌发言人表示,该文件旨在使AI管理伦理具体化,最终确保霍金的恐惧永远不会成为现实。我们无法确知这种规范该如何实现——是通过政府干预还是通过行业标准——不过显而易见的是,未来五年,人工智能必将是一个重要的争论焦点。
从机器人取代人工作到人工智能取代人思考
越来越多的新型机器人在不同的领域上岗,他们在准确性、可靠性及适应性等方面表现出色,为人类同业者带来了越来越多的压力。在我们不知不觉中,机器人对人类工作的取代在悄悄进行着。
富士康已提出“百万机器人计划”,深圳作为已经率先启动了使用工业机器人的计划,东莞大力推行“机器换人”并已经取得不错成果,广州、顺德、珠海等城市的工业机器人产业也正逐渐兴起。这虽然是为了缓解用工荒,但对一些知识技能有限的工人可不是什么好消息。
家用清洁机器人今年市场一直不错,其中扫地和擦窗机器人是消费者的最爱,他们在一定程度上取代了家政服务人员的位置;而随着餐厅机器人的出现,越来越多的餐厅服务人员工作受到威胁。
美联社2014年开始采用了机器人记者,它每个季度撰写3000篇这样的新闻报道,而且这个数字有望增加。季度盈利报告的撰写工作单调枯燥,但要求准确和速度。所以,美联社在去年夏天开始与Automated Insights公司合作,使用该公司的Wordsmith平台撰写财报文章。在美联社于去年7 月开始使用AI 的时候,所有机器生产的文章都会经过人工审核,并把错误记录下来发给Automated Insights 以改进算法;到10 月,机器生成的文章已经不再经过人工干预;大半年后,自动写作系统记录下的错误已经比记者所写文章中的错误要少了。
虽然,目前我们在这个方向上是良性发展,所以虽然不断有人泼冷水,但是整个业界一直热火朝天地做着自己事情。而未来会走向哪里,会对社会结构产生怎样的影响,我们很少关心。
大数据与人工智能的本质含义
在自然界里由无机物到有机物,由单细胞到多细胞,由爬行动物到哺乳动物,由本能驱动到智慧驱动这种进化路线大家已经耳熟能详,而所有这一切似乎根本的目的都是为了产生人类的智慧,人的智慧是这进化链条的巅峰。如果有神,那确实可以认为神是通过进化复制了自己,创造了人类所独有的智慧,通过这智慧人类可以去认知宇宙中普遍的自然法则。
现在获得了智慧的人类则开始重复这一过程。
我们先制造最原始的石器,接下来考虑给它赋予动力,就有蒸汽机,电力的产生,再接下来就考虑让工具能分担脑子做的事情,比如计算,就有了计算机,之后则希望计算机处理更加复杂的东西比如情绪的识别、图像的识别、自然语言处理、语音识别等,这条进化路线的终点则是人工智能。自然界根据自己复制出了我们,我们根据自己创造人工智能。所以人工智能达不达到我们自己的程度,其实依赖于我们人类的能力是否有一个边界,是否能真的成为造物主。
大数据则是人工智能的必要支撑,现在看来它是让人工智能水平有较大的突破的一个关键因素。一个典型的例子是吴军老师讲的,他说在算法基本不变的情形下,单纯通过把数据量加大1万倍,那在翻译中文的时候准确程度可以增加5%。
人产生智能之后,从自然界的手中接过了改造地球的权利,从外太空回看地球,雄美壮丽的极光属于自然,但万家灯火则属于人类。现在要接替人类的则是人工智能。
人工智能产生后至少在一切可以有简单重复、量又巨大的地方会取代人类。这是不可逆转的趋势,并且也正在发生。显然如果有1T的档案数据需要分析,靠人是完全不靠谱的。
从人工智能的具体进展来看,机器学习、自然语言处理、语音识别、图像识别等都已经有了可见的成果,至少是基本可用的级别。各种机器人产品其实可以算作这些技术的一种综合应用,机器人的完善程度越高,说明人工智能的水平越高,当然你不能把机器人局限为类人形机器人。下一个里程牌是出现一种大众化的人工智能产品,无人机或者无人驾驶汽车也许可以第一个对此进行突破,其次才是Pepper,Jibo这种机器人。但不管怎样,人工智能在没产生自主意识之前部分代替人类改造世界,已经是种必然,并且为期不远。
这无疑是一种巨大的社会进化机遇,人类总算有一种机会,在人类社会最底层塞上一层东西,把整个人类社会往上进行平移,让大多的人从物质困扰中解脱出来。(影响范围和力度的大小和能源的突破有内在关联)
人类生活模式的改变
接下来生活模式终于可以有一个改变的机会,人类金字塔的最下层整个的会被塞上一层东西,借助人工智能,所有的身生活相关的东西可以很廉价乃至免费的获取到了,这绝对会改变社会的基本结构。
这是好事情,但也蕴含着风险,这风险至少短期并不来自于霍金等所担心的人工智能灭杀人类,而是来自于这种变化本身对社会结构的冲击。我们还不太知道一个大多数人可以拥有大量闲暇时间的社会究竟该如何去组织。在过去,大多数人通过劳动获取收入,利用较少的闲暇时间来消耗这收入,但接下来他们的劳动会变得没有价值,而同时拥有大量的闲暇时间。只有2%的人才是忙碌者能在创造大量财富的同时维持原有的生活模式。
现有的生产模式和社会结构肯定不足以解决这问题,而可以想见的方式往往涉及巨大的改变,比如说:一种方式时实际上很残酷的喂奶策略。这种策略下社会会分解为两个阶层:一层忙碌的实现自我,一层则不知道干什么,但维持着最基本的生存条件,能够生活下去。这可以拿发达大都市与非洲部落做个参照,并放大其规模和程度。比如让大都市发达十倍,人口缩减到十分之一,部落保持不变但人口增加十倍。这虽然保持了人道的基本底线,但其实也还是很残酷的。在《第九区》这电影里,曾经讲述了一个人类这样对待外星人的故事。
一种方式则是更加社会化,重回一种极为严密的配给经济,至少是基本生活资料上的配给。这时候身生活相关的部分是彻底社会化的,不需要经济考量。过去对此的尝试是计划经济,并导致了不小的灾难,但大家可能没注意到,当人变成透明人,人工智能把人类社会普遍抬升一层之后,计划的可能性是在重新开始增长的。在这前提下,人生的能量就可以更多的投放在心生活里,也许在精神的世界里可以发现一个无限容纳人生能量的世界,比如审美和艺术、比如探索宇宙等。接下来再在这个上建造新的经济形态。
一种方式则是战争。战争消灭人口的同时,大量问题也会随之被消灭。
人类的智慧一定可以想象出更多的方式,有些我们暂时还无法想象,但比较确定的一点是社会保持原样已经不太可能。而社会基本模式的变化一定会产生动荡,所以我们即将面对的是一个动荡的时代。即使《奇点临近》说的东西只有一半是对的,那这种动荡都很可能会在未来三十年内逐步发生。
人工智能可能的形态人类无法想象
PC互联网、移动互联网、IoT、大数据、人工智能等东西的兴起,短期看就只是一个个创业的机会。但实际上这些东西也在重塑这个社会的根基。一旦这种量变达到一定程度,显著变化就会出现在我们面前。一个不好的比喻是老鼠在嗑柱子的时候,只知道柱子在变细,但往往会忽略柱子在下一刻随时可能倒下来。这比喻虽然负面,但所谓动荡时代真的很像柱子倒下来那一刻。上面说的变化是确定的,所以从趋势来看动荡时代其实也是确定的。
人工智能的概念很宽,所以人工智能也分很多种,我们按照人工智能的实力将其分成三大类。
弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。
强人工智能Artificial General Intelligence (AGI): 人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。
超人工智能Artificial Superintelligence (ASI): 牛津哲学家,知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是为什么人工智能这个话题这么火热的缘故。
现在,人类已经掌握了弱人工智能。其实弱人工智能无处不在,人工智能革命是从弱人工智能,通过强人工智能,最终到达超人工智能的旅途。这段旅途中人类可能会生还下来,可能不会,但是无论如何,世界将变得完全不一样。
很多人提到和人类一样聪明的超级智能的电脑,第一反应是它运算速度会非常非常快——就好像一个运算速度是人类百万倍的机器,能够用几分钟时间思考完人类几十年才能思考完的东西。超人工智能确实会比人类思考的快很多,但是真正的差别其实是在智能的质量而不是速度上。用人类来做比喻,人类之所以比猩猩智能很多,真正的差别并不是思考的速度,而是人类的大脑有一些独特而复杂的认知模块,这些模块让我们能够进行复杂的语言呈现、长期规划、或者抽象思考等等,而猩猩的脑子是做不来这些的。就算你把猩猩的脑子加速几千倍,它还是没有办法在人类的层次思考的,它依然不知道怎样用特定的工具来搭建精巧的模型——人类的很多认知能力是猩猩永远比不上的,你给猩猩再多的时间也不行。
而且人和猩猩的智能差别不只是猩猩做不了我们能做的事情,而是猩猩的大脑根本不能理解这些事情的存在——猩猩可以理解人类是什么,也可以理解摩天大楼是什么,但是它不会理解摩天大楼是被人类造出来的,对于猩猩来说,摩天大楼那么巨大的东西肯定是天然的,句号。对于猩猩来说,它们不但自己造不出摩天大楼,它们甚至没法理解摩天大楼这东西能被任何东西造出来。而这一切差别,其实只是智能的质量中很小的差别造成的。
就好像猩猩没有办法理解摩天大楼是能被造出来的一样,人类将完全没有办法理解比人类高两层台阶的机器能做的事情。就算这个机器试图向我们解释,效果也会像教猩猩造摩天大楼一般。
最保险的战胜人工智能的办法:变成超智能
超智能如此强大,那么人类怎么战胜它呢?这或许已经超越了本文论述的范畴,也许可以从科幻小说里面得到一些启发。未来人类可以借助一些植入设备,将自己的意识与人工智能结合起来,或许能够将自己变成曾经无法理解的超智能。但这将会涉及更多的社会和伦理的问题,还有待时间验证。