您的位置:首页 > 大数据 > 人工智能

生命3.0时代,把人类的未来交给机器有什么不好?

2017-12-25 14:49 274 查看
来源:造就
翻译:雁行
来自:The Guardian

“这个社会在这方面太草率了”:马克思·泰格马克在他的MIT实验室中
几年前,宇宙学家马克思·泰格马克(Max Tegmark)站在南肯辛顿科学博物馆外,突然泪流满面。他刚参观完一个表现人类知识增长历史的展览,展品从查尔斯·巴贝奇的差分机一直到阿波罗11号飞船的复制品。然而,令他动容的不是这些标志性的技术,而是它们引发的顿悟。
“那一刻我如遭棒喝,”他回忆说,“原来我们每次理解自然界中的某一原理,理解人类自身的某一方面,结果都是使之过时。一旦明白了肌肉的运作原理,我们就构建出了更强大的‘肌肉’——也就是机器;也许,等我们理解了大脑的工作原理,我们就能构建出更好的‘大脑’,让自己变得毫无用处。”
泰格马克这种颇为忧郁的见解并不是毫无意义的假设,而是他在人工智能时×××启之前,向自己发起的智识挑战。他思索的问题是:如果我们能创造胜过人类的智能,人类将面临怎样的命运?
当然,这是科幻作品中反复出现的问题。但随着AI成为科学事实,这个问题有了不同的意义,也更加紧迫。泰格马克觉得,我们应趁现在审视围绕AI展开的种种议题,以及它引致“超级智能”的可能性。
如果未来几十年可能会有极其重大的事情发生,现在就是开始准备的最佳时期。
携手Skype联合创始人詹·塔林(Jaan Tallinn),并凭借来自科技亿万富豪伊隆·马斯克(Elon Musk)的资金,他创立了生命未来研究所(Future of Life Institute),致力于研究人类面临的生存威胁。
研究所位于马萨诸塞州剑桥,泰格马克在该地的麻省理工学院(MIT)担任教授。牛津大学有一个与之类似的人类未来研究所(Future of Humanity Institute),创立者是同为瑞典人的尼克·博斯特罗姆(Nick Bostrom)。
泰格马克还动笔写起了一本书,这本书于近日出版,名为《生命3.0:人工智能时代的人类》(Life 3.0: Being Human in an Age of Artificial Intelligence)。因为写过像多重宇宙这类高度理论化的深奥概念,对于有根据但仍充满想象的观点,泰格马克可谓游刃有余。
要看清AI很难,因为它深陷迷思与误解之中。为解决这一“形象”问题,泰格马克细致地解析了AI所涉及到的概念——智能、记忆、学习、意识,然后加以解释,揭开它们的神秘面纱。
但在接受电话采访时,泰格马克一开口,就迫不及待地要厘清AI“不是”什么。
“我觉得,好莱坞让我们搞错了担心对象,”他说,“机器产生意识与恶意,这一点有些误导性。先进AI真正堪忧的不是恶意,而是权限。如果你有一个超智能AI,那么按照定义,它应该极其善于达到目标。但我们需要能放心地相信,这些目标与我们的目标是一致的。”
“我不讨厌蚂蚁,但如果你让我负责建造绿色能源水力发电站,而那里正好是蚁山所在地,那只能算蚂蚁们倒霉了。我们不希望自己像这些蚂蚁一样。”
《生命3.0》远非针对AI的控诉声讨。其实,它更多地是对超级智能潜力的称颂。然而,什么是超级智能?什么是智能?泰格马克将其定义为“实现复杂目标的能力”。因此,计算机可以算是智能,但智能程度有限。
在特定领域内,计算机的信息处理能力已经远超人类。就比如国际象棋领域,现在,世界上最好的棋手也不是计算机程序的对手了。但要是换成井字棋,这个程序就百无一用,连小孩都比不过。
人类,哪怕是年幼的孩子,都具备一种广泛适用的通用智能,而计算机不论处理能力多么强大,都局限于规定的任务之内。

日本三越百货的商厦内,一位顾客对着东芝人形机器人Aiko Chihira拍照
因此,计算机的智能程度是由人类决定的。但随着我们迈入AI世纪,情况正开始改变。谷歌AI子公司DeepMind已经有计算机通过试错不断自学的例子。
到目前为止,这种能力只在电子游戏和围棋中有所展现,但拓展到其他媒体是可以想见的事。拓展到了一定程度的话,它就有可能深刻地影响我们对自身、对生命以及其他众多根本性问题的看法。
为考察这些问题,泰格马克创建了一种起到定义作用的语境,一个由不同发展阶段构成的网格。首先,他回溯到最原始的生命形式,诸如细菌等,并称之为“生命1.0”。从生物学意义上讲,这是一个十分简单的阶段。在这个阶段内,生命就是复制,适应只有靠进化才能实现。
“生命2.0”又称文化阶段,亦即人类所处的阶段:能学习,能适应不断变化的环境,并能改变环境。然而,我们还无法改变生物遗传的作用。
泰格马克用硬件和软件作了个比喻:我们可以设计自己的软件——我们“行走、阅读、协作、计算、唱歌、讲笑话”的能力——但我们的生物学硬件(脑和身体)则受制于进化过程,因此,必然受到约束。
第三个阶段,“生命3.0”,就涉及到技术了。这一阶段的“后人类”除了能重新设计“软件”,还能重新设计“硬件”。泰格马克写道,这种形式的生命是“自身命运的主宰,终于完全摆脱了进化的枷锁。”
这种新的智能将永生不朽,而且能分布到全宇宙。换言之,它还是生命,但已经“面目全非”。
然而,它还能算是生命吗?或是变成了别的东西?对于这些生物学上的概念,物理学家出身的泰格马克并不会太过多愁善感。
他是个唯物主义者,在他眼里,地球以及宇宙是由粒子组成的,它们以各种不同的排列,实现高低不等的活动水平。在他看来,会腐朽的生物学生命和自我延续的智能机器之间,并没有重大的或道德上的区别。
泰格马克为生命3.0描绘了一个有着无限可能的未来,有时,他的文字近乎奇幻,乃至洋洋得意;但他也是个理论家,试图设想大多数人都无法想象或难以接受的内容。
简而言之,我们正处在AI的早期阶段——我们已经有自动驾驶汽车、智能家居控制单元和其他自动机。但如果趋势持续下去,我们就有理由认为,总有一天——30年、50年、200年后?——计算机将企及通用智能,在各个方面比肩人类。
计算机一旦迈上这一台阶,就会开始突飞猛进,因为它们会动用前所未有的处理能力,来进一步提升处理能力。这就是博斯特罗姆在2014年出版的《超级智能》一书所陈述的观点,而随着智能(或言“达到复杂目标的能力”)的大规模拓展,其结果自然是超级智能——我们只能揣测的一个奇点。
然而,超级智能并非不可避免。很多业内人士认为,计算机永远无法企及人类智能,即便能够企及,届时,人类也已经完成生物学层面的适应。但是,超级智能要是真能实现,泰格马克认为,我们就必须认真对待了。
“如果未来几十年内会发生极其重大的事件,那么我想,现在是开始准备的最佳时期,以便让它对我们有利。要是30年前我们就开始为气候变化做准备,那该多好。”
和博斯特罗姆一样,泰格马克也认为,AI发展的事态比气候变化更加迫在眉睫。然而,如果说我们创造的是人类无论如何都无法理解的智能,那么在奇点到来之后,我们现在的准备又能起到多少作用?如果一种智能超越了我们的想象,我们又该如何管制它呢?
泰格马克承认,针对这个问题,目前没有人能给出答案,但他认为,还有很多任务是我们需要优先处理的。
“在担心超级智能带来的长期挑战之前,我们还有很多短期问题需要解决。不要因为达不到完美,就放弃追求。在任何情况下,我们都不会希望飞机撞上高山或者大楼,这一点我们都同意。当初安德烈亚斯·路比茨(Andreas Lubitz)下令飞机自动驾驶系统下降100米,计算机竟然同意了(指德国之翼航空9525号航班空难)!”
“计算机对人类目标的好坏毫无头绪。虽然凭借现在的技术,我们可以建造这样的飞机:只要驾驶员试图撞向什么东西,飞机都会进入安全模式,锁住驾驶舱,在最近的机场降落。我们今天就应当给这些机器输入这种幼儿园级别的是非观。”
在此之前,我们还有更加迫切的工作要做,泰格马克说。“如何将今天漏洞百出、可被***的计算机转变成可信的AI系统?这一点尤为重要。我觉得,这个社会在这方面太草率了。而世界各国的政府应该将其作为计算机科研的重要组成部分。”
他认为,放弃人工智能研究,以此防止超级智能的崛起,这种做法很不靠谱。“2017年比石器时代优越的每一个方面,都是拜技术所赐。而技术一往无前,没人说要阻止技术。问一个人是反对还是赞成AI,就好比问人是赞成还是反对火,这是非常愚蠢的。我们都喜欢火炉的温暖,也都想防止纵火事件。”
在这个例子中,“预防纵火”的任务已经落到我们头上。泰格马克指出,我们即将展开一场自动化致命武器的军备竞赛。最近,俄罗斯总统普京就表示,谁掌握AI,谁就能“统治全世界”。
去年11月,联合国展开了一场会议,探讨能否通过国际公约,像禁止生化武器一样禁止这类武器。“AI社群极力支持这一倡议,”泰格马克说。在技术层面上,“一架用于暗杀的无人操控无人机和一架亚马逊送货无人机,”两者几乎没有差别。

BAE Systems的Taranis无人操控隐形飞机原型,被称为“首驾无人操控的无人机”
“未来十年还有一个大问题,那就是工作自动化。很多领先经济学家认为,不平等现象的加剧造成了英国脱欧和特朗普当选美国总统,而不平等问题本身则受到了自动化趋势的推动。如果政府能将机器创造的财富重新分配,使所有人都能受益,那么大家的日子都会好过一些。”
在这个方面,泰格马克认为,凭借对自由市场的推崇,以及国家医疗服务体系(NHS)和福利国家的历史,英国也许能起到带头作用,充分利用企业创新,为国民谋福利。这种观点的问题在于,虽然很多AI研究都由俄罗斯和中国带头,但最主要的进展都来自美国或美国公司——而历来,美国社会对不平等问题都不是特别在意。

在书中,泰格马克称扬谷歌的拉里·佩奇(Larry Page)——地球上最富有的人之一,说他有可能成为史上最具影响力的人物:“我猜测,如果在我有生之年,超级智能数字生活能够席卷全宇宙,那会是由于拉里·佩奇的决策所致。”
他对佩奇的描述就像他对马斯克的描述——深思熟虑,真心关心人类困境。这话不假,但作为一名商人,佩奇最关心的还是利润,以及如何超越竞争对手。就目前而言,太多的决定权都掌握在科技亿万富豪的手里,而这个群体根本不能代表普通大众。
在我看来,虽然AI的直接问题本质上都是技术问题,或者说具体操作问题,但日后很多问题的本质都更偏哲学理念。泰格马克罗列了可能出现的若干种不同后果,其中既有反乌托邦极权主义,也有善意的机器统治。
“要认识到,智能就是权力,”他说,“我们能驾驭老虎,不是因为我们肌肉比老虎粗壮,或是牙齿比老虎尖利。而是因为我们比老虎聪明。地球很可能被一种更强大的力量所控制:要么是有些人借助先进AI,独掌大权,为所欲为,要么是机器智能超越人类,接过控制权。这不一定是坏事。孩子并不介意和更加智能的人类(也就是爸爸妈妈)共处,因为父母的目标和他们的目标是一致的。AI也许还能解决人类所有的棘手问题,帮助人类实现前所未有的繁荣。”
但这样一来,人类的自我意识不就彻底改变了吗?人们将仰赖更加高级的行动者来照顾自身。人类不再是塑造这个世界的主要力量。

2016年9月,智能安保机器人AnBot(“深圳小安”)在深圳宝安机场投入巡逻任务
“没错,”他笑着说。“但当今世界的很多人本来就已经接受这个现实,而且还挺乐意。宗教信众们认为,有一种更加强大而智能的存在关照着他们。我认为,我们真正要戒掉的是这种傲慢的想法,也就是将自我价值建立在错误的人类例外主义之上。若能谦逊一点,认为还有比我们更加智能的存在,不过没有关系,我们的自我价值来自其他的东西,比如与其他人类建立深刻的情感联系,以及鼓舞人心的经历。这样的话,人类的处境会好很多。”

在这些时候,泰格马克听着不像个铁杆的唯物主义物理学家,倒像是嗑了药的“新纪元运动”教授,花了太多时间思索宇宙问题。催生这些机器的现代项目源于这样一种信念:上帝是人类发明出来的,而我们已经不需要这种发明。如果我们最终又发明出新的上帝来取代旧的,这岂不成了历史的讽刺?
泰格马克笑了。“我觉得,在AI时代,我们也需要一点幽默感和对讽刺的欣赏。我们之所以自诩为地球上最智能的生物,就是因为我们能构建这些高级的技术,而这些技术恰恰又会让我们的这种地位不保。”

通过调研与著书,比起当初在南肯辛顿博物馆外落泪那会儿,泰格马克变得乐观了许多。但这种乐观并不是因为没有担心的必要。而是他认为,要保证结果对自身有利,我们就得采取行动。他说,民众和政府一样,都得将注意力转向不远的未来,准备合适的安全工程学,并想清楚一个问题:我们想要创造一个怎样的世界?
那么,如果能在去年11月的联合国会议上发言,泰格马克会说些什么呢?
“请资助AI安全研究;禁止自动操控的致命武器;并拓展社会服务,让AI创造的财富造福所有人。”
未来的路上将一如既往地充满无法预见的后果,这些后果都是今天的作为或不作为所导致的。但采纳上述三点至少是迈出了坚实的一步,使未来不再那样堪忧。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  AI 机器人