一直被误写?!到底是人工智能还是智能人工?

摘要: 所谓的“人工智能”事实上应该是“智能人工”的误写,这与蒸汽机、电话、电报、电脑等等发明出现代替了许多之前效能较差的既有工具并无二致。

孙远钊

美国亚太法学研究院执行长 本刊专栏作者

所谓的“人工智能”事实上应该是“智能人工”的误写,这与蒸汽机、电话、电报、电脑等等发明出现代替了许多之前效能较差的既有工具并无二致。

“我很担心将来也许有些人会使用下列的三段论法:图灵相信机器会思考,图灵同人们说了谎,因此机器不会思考。您深受苦恼的,艾伦”

——“人工智能之父”艾伦?图灵(Alan M. Truing, 1912-1954)【1】

“电脑是否能思考的问题就与潜水艇是否能游泳的问题同样相关。”

——艾兹赫尔·戴克斯特拉(Edsger W. Dijkstra, 1930-2002)【2】

图灵奖的得主、计算机领域的先驱戴克斯特拉教授用上述的一句话,诙谐地点明,人们对于“人工智能” 可能从一开始在观感上就已经了自己的谬误。这句话的寓意是提醒大家不要削足适履地思考问题,因为我们常会画地自限,不经意地被自行事先划定的语意所蒙蔽和纠结。例如只要一提到“人工智能”,许多人(尤其在西方社会)脑海中所浮现出的第一个印象,就是一个近似人类的机器人,甚至就是好莱坞在不同的科幻电影中所制造出来的形象,如“变形金刚”(Transformers)、“终结者”(Terminator)等等,认为这些机器人会说各种人类的语言,但拥有自己的思维、计画与目的,完全不受人类的操控,甚至可以为了达到自身的目的去轻易地扫除障碍、毁灭人类。于是,各种莫名的恐惧便油然而生。然而这样的观感或印象不但与实际的情况大相径庭,甚至还对相关的研发活动造成了一定的负面影响。

一台机器(电脑或计算机)对于信息的处理和操作方式与人类大脑的操作逻辑和处理方式本来就截然不同。因此,所谓的“人工智能”从来就不是为了去复制一个能与人类“想法一致”的机器人,而是要协助人类更有效率地处理许多目前人类自己做不来或需要消耗大量时间、资源才能处理好的事情。也就是说,所谓的“人工智能”事实上应该是“智能人工”的误写,这与蒸汽机、电话、电报、电脑等等发明的出现代替了许多之前效能较差的既有工具并无二致。所以,当人们要辩论潜水艇是否会“游泳”时,其中的荒谬性便显而易见:什么叫“游泳”?为什么要用单一的动词或形容词去描绘所有在水中或水下活动的事物?这岂非等同于用一个码数的鞋就想套尽天下各式各样的脚?同理,当我们在问一台电脑或装置究竟是否会“思考”时,我们究竟在问什么呢?

也正因为一台机器或装置从来就不是依循人类的思维与价值去操作(所以需要透过编译器(compiler)与界面(interface)去转化为人类所能了解的语言和信息),当人类试图要用自己所能认知的逻辑与价值来规制机器或装置时,恐怕就会产生各种扞格不入的问题。而人类自己常有的价值与行为矛盾,一旦要转化为机器程序语言,也注定滞碍难行乃至让机器或装置无所适从。例如,欧洲联盟曾经考虑是否必须把“所有的人工智能机器或装置不可伤害人类”做为不得违反的头号天条,但很快就打消了这个想法,因为至少在可见的未来,人们都想不出具体的实践方法。设想一下:一个具有人工智能的“机器警察”在维持治安时,要如何对应持枪抢劫的嫌犯和同时也持枪试图自卫的其他市民?人工智能要如何去区分谁是“好人”、谁是“坏人”?

另一个典型例子呈现在斯坦利·库布里克(Stanley Kubrick)于1968年所导演、制作的经典电影《2001:太空漫游》(2001: A Space Odyssey),及其之后与科幻小说作家与未来学学者亚瑟·克拉克爵士(Sir Arthur C.Clarke)所共同创作的同名小说之中。影片中最具戏剧张力的关键情节是,宇航船上的人工智能电脑在被制造出来时,其中已输入了一个最高指令:必须保护、不得伤害人类。但地面的任务总指挥官在宇航船出发前,又对电脑输入了另一条绝密的最高指令:必须坚持完成探索地球所有物种生命起源的重大任务,不容失败。于是,最大的冲突爆点便悄然埋下:当任务执行的过程当中发生意外事故导致宇航员准备放弃时,电脑究竟应该是完全听命、放弃任务,还是坚持任务、抗命不从,甚至不惜牺牲全体人员的性命?于是,人工智能电脑无所适从,发生了种种严重的问题。虽然这只是电影情节。但其背后的问题却值得深思:人类常会在不经意之间埋下矛盾的种子却还不自知,等到一旦发生了问题,又如何要求一台机器或装置去做原本应该由人自己做出的价值判断?尤其是,人类应该如何教会机器撒谎并自圆其说?

另一个现实的例子是,当联合国《常规武器公约》(Convention and Certain Conventional Weapons, CCW)【3】缔约国专家组正在研究论证是否要在未来的公约修改草案之中明文禁止所谓的“杀人机器人”(killer robots)之际,许多国家的国防部门却正以降低人员的伤亡为由,早已开发出专门从事不同形式战争格斗的机器人或人工智能技术(装置)。这也与一些国家在人工智能问题上标榜的核心价值和精神完全背道而驰。

反过来看,当人工智能通过“学习”,“创作”出了诗篇文章之时,是否要赋予其著作权的“保护”呢?这刚好就是“潜水艇是否会游泳”的反面问题,试图把人类的思维与价值向机器、装置投射:是否会游泳的就一定是或不是潜水艇?这当中的荒谬性自然也不言可喻。不过问题并没有到此结束。目前学界已在探讨:虽然一台具有人工智能的机器或装置本身不能获得如著作权等的权益保护,但是其作品如果在其他各方面都符合了可以受到保护的要件(具有独创性的表达,并且不在不受保护的范围之内,如共同场景、操作方法、功能性的呈现等),固然机器或装置未必可以享有任何权利,那么从事人工智能开发的人员或其雇主是否依然可以获得著作权?

持赞成说的观点主要还是从“智力劳动成果”的立场出发,认为人工智能的所有人或开发者就算没有功劳也有苦劳,而且这也较为符合激励创新的精神;持反对说的观点则认为,著作权只保护以“人”(无论是自然人或法人)做为作者的作品,因此凡是由机器所创造出来的,就算是再有“创意”,也难以获得任何的权利;况且任何人工智能或多或少都涉及到对于大数据的收集、整理与运算,如果仅仅基于智力劳动的投入就可被赋予任何权利的话,那是否意味著在特定人工智能背后所有提供了数据或做出贡献的人们都应该共同享有权利?如果答案为肯定,就势必导致不同个体的权利相互抵销,即使有表面上的权利,事实上也将难以有效行使运用,形同胎死腹中。

2017年7月8日,国务院印发了一份名为《新一代人工智能发展规划》的通知,【4】正式把以人工智能为导向的科技与经济发展列入中国未来的专注焦点,列入国家战略层面的系统布局,希望能借此强化中国科技与经济的国际竞争力。这份文件的出台,无疑又给相关的讨论添上了一大把柴火。无论如何,有关人工智能的集思广益,首先应当解决的先决性、根本性问题是人工智能的未来规制问题,这会对其他所有规制的探索产生非常大的影响,也可能直接或间接影响到目前正在进行之中的、关于《民法典》制定的相关讨论,因为这部法典的具体内容需要与当前一些前沿性的问题与发展密切接轨,从十九世纪跨越到二十一世纪。

在这样的探索过程中,或许下列的引语值得我们谨铭于心:

“为什么要对一个机器人给出一个必须服从命令的命令——最原始的命令不就已经够了?为什么要指示一个机器人不可制造伤害——如果从一开始就不给出会造成伤害的指令,不是更容易么?宇宙中难道存在一种神秘的力量,要把各种实体引向恶意,从而必须用软件程序灌注到一个正离子的大脑中来予以抗衡?难道所有的智能生物都会无可避免地出现态度上的问题么?……在电脑真正变得更加聪明和强大时,人们的焦虑反而消减了。如果电脑真的要作恶的话,今天,电脑网络的普及也已产生了前所未见的作恶能力。然而,目前由电脑造成的、来自于无法预期的混乱和人类恶意的唯一伤害只是电脑病毒而已。我们已不再担心电子连环杀人犯或是颠覆性的机器人阴谋,因为我们已经开始感知到,恶意——就像视觉、动作协调以及常识——从来就不会随同电脑的计算无端产生,而必须是由程序植入。……侵略性,就像我们习以为常的人类行为的其他部分一样,是个具有挑战性的工程问题!”【5】

“无论我们是由碳或硅所做成,都没有什么根本上的不同;我们在相互对待时都必须相互给予适当的尊重。”【6】

注释:

1 原文为:“I’m afraid that the following syllogism may be used by some in the future.

Turing believes machines think

Turing lies with men

Therefore machines do not think

Yours in distress, Alan”

这是图灵在1952年2月写信给他的数学家朋友Norman Routledge的信函中的最后一段文句。此一信函的原始复印件载于http://www.turingarchive.org/viewer/?id=167&title=1。

2 原文为:“The question of whether Machines Can Think, a question of which we now know that it is about as relevant as the question of whether Submarines Can Swim” 参见Edsger W. Dijkstra, The Threats to Computing Science (1984), Keynote address at the ACM 1984 South Central Regional Conference, November 16–18, University of Texas at Austin。

3 其全称是《禁止或限制使用某些可被认为具有过分伤害力或滥杀滥伤作用的常规武器公约》(Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons which may be deemed to be Excessively Injurious or to have Indiscriminate Effects)。

4 国发〔2017〕35号。

5 原文为:“Why give a robot an order to obey orders—why arent the original orders enough? Why command a robot not to do harm—wouldnt it be easier never to command it to do harm in the first place? Does the universe contain a mysterious force pulling entities toward malevolence, so that a positronic brain must be programmed to withstand it? Do intelligent beings inevitably develop an attitude problem? (…) Now that computers really have become smarter and more powerful, the anxiety has waned. Todays ubiquitous, networked computers have an unprecedented ability to do mischief should they ever go to the bad. But the only mayhem comes from unpredictable chaos or from human malice in the form of viruses. We no longer worry about electronic serial killers or subversive silicon cabals because we are beginning to appreciate that malevolence—like vision, motor coordination, and common sense—does not come free with computation but has to be programmed in. (…) Aggression, like every other part of human behavior we take for granted, is a challenging engineering problem!”Steve Pinker, How the Mind Works (1994).

6 原文为:“Whether we are based on carbon or on silicon makes no fundamental difference; we should each be treated with appropriate respect.” Arthur C. Clarke, 2010: Odyssey Two (1982)。


作者:孙远钊

美国亚太法学研究院执行长 本刊专栏作者

来源:中国知识产权杂志总第127期


《知产观察家》

一档全新的知识产权行业对话式新闻评论节目

第五期:

听杜颖、余晖聊聊“红罐”被共享——王老吉与加多宝的“爱恨情仇”

 点下方“阅读原文查看更多《中国知识产权》精彩文章



首页 - 中国知识产权杂志 的更多文章: