以目前的研究水平看,人工智能对人类使坏还是个摸不着边际的假想,但是人工智能本身的使用还是存在一些现实风险。
技术误用或缺陷已经发生在我们身边,对于人工智能过于依赖也有了迹象。“人工智能这件事就是往好里说,不担心那些变坏的可能,全部在人类控制下,都能带来荒谬的结果。”上海交通大学科技史与科学文化研究院院长江晓原列举出Nature科幻作品里的担忧,小说里都是根据正常路径想象其被滥用的前景,大部分结局都很荒诞,比如体育、竞选最终就演变成比较科研技术。
技术缺陷和技术滥用是离人类真实生活很近的风险。从技术层面来讲,电脑中病毒,就足以扰乱现代人的正常生活。上海交通大学科学史博士陈自富以“无人机杀人”谁担责为例,剖析了其中暗含的风险:“杀人存在两种可能,一种是无人机失控,一种是人远程操纵无人机杀人,后者的情况里无人机只是一种工具,责任肯定由操作人员承担,但若是纯粹失控呢?这涉及一个计算机能力的问题。”
美国辛辛那提大学智能维护中心主任李杰认为,人工智能是以目标为导向的,如果为它们设定一个目标,电影里所担心的一些场景都有可能发生,比如有一天汽车变成遥控的,会不会有人集结一百辆车子去冲击一幢大楼?“美国很早就有个通过远程控制飞机取代飞行员的想法,技术都是具备的,但是美国民航局不敢把这个功能标准化,因为担心会被别有用心的人控制操作系统,所以还是由飞行员来操控飞机,保证最安全、最舒服。何况如果机器控制起降,目的可以达到,但过程可能并不是最舒适的。”
阿特克森认为无法阻止机器人变坏的原因之一就是无论好人还是坏人都能利用科技。正如江晓原对人工智能另一种发展途径的担忧——随着电脑的小型化、芯片的广泛使用,很多人工智能研究人员已把注意力放到了人机结合上,简单来说就是把芯片植入人脑。“人脑与芯片互相支持,随着植入智能的高阶化,谁主谁从很难说。这条路对于人工智能发展可能是条捷径,但极具风险。这个事情现在唯一的障碍主要是伦理道德方面的问题,但换句话说,现在一点都不缺乏科学狂人,有很多科学志愿者愿意支持这个事情,一旦做成了就是一个宇宙战士、超人。”江晓原说,很多科幻作品担忧的是超能个体的反叛引发灾难,这只是很小的一个方面。“换个角度,假定芯片入脑商业普及了,假定这样做也没有不可控的副作用,那也是极其危险的,因为马上会出现公正问题——谁能植入芯片?答案肯定是有钱的人;撇开公正不谈,随着芯片植入的成本不断下降,可以普及到更多的人,另一个巨大的风险就出现了——写芯片程序的人,相当于上帝,任何植入者都会受其控制,这比洗脑更为直接。如果程序是负面的,后果不堪设想。”
再推及美剧《疑犯追踪》,其中想象的事正是斯诺登揭露过、戈尔在其书里提及美国正在造的一种机器,它能监控所有人的电子邮件、电话,江晓原说:“这个机器其实在电视剧里已经变成人工智能,会自己做出各种各样的判断,于是出现了争夺这台机器的各类势力,谁拿到谁就是超能上帝了。这个路径发展也很成问题。”
陈自富认为,在人类没有把握之前,如果给计算机赋予太多物质上的外壳,比如能发射导弹,或者给它一个很大的决策权让它能决定汇率,非常危险。“在我们不了解它的机制之前,它所做的未必是正确的,赋予过多的物质外壳有很多不可控性,若完全依靠人工智能作出决策,要警惕它给我们带来伤害。但需要承认的是,有些事情人工智能的确能与人类做到互相帮助,比如对气象数据分析产生气象预报的结果、做模拟核试验和模拟风洞。”
美国波士顿动力公司研发的“大狗”机器人,可以灵活活动于冰面上,被美军用于阿富汗前线运输物资
库兹韦尔将人类考虑未来技术的影响分为三个阶段:首先是敬畏并惊叹于其克服衰老问题的潜能;然后是害怕新技术带来一系列新危险的恐惧感;最后是认识到唯一可行和负责任的道路就是精心设计一种发展路线,既能实现好处,又能控制危险。简而言之,设计智能产品,更要设计产品的安全使用环境。
李杰感到,安全已经成为日本不少企业产品设计的核心:“汽车企业以前的卖点是汽车省油、质量好、可以做到最新的智能化,现在他们的最高理念是‘保证人的安全’。我认为,人工智能的发展一定是从帮助人开始,到部分取代人,最后到保护人。这里的保护人并不单指人身的安全,还要照顾到人类各方面的忧虑,简言之就是人工智能系统的智能化(Intelligenceof intelligence),其目的是使未来的智能化系统产生的问题不会威胁到人,这个是一定能做到的,但是设计时要去思考。”
李杰认为,人工智能可以变成人们所担心的那种情况,但是人类的责任就是不让那一幕发生。“人设计智能化产品,一定会涉及不同的层次体系,要在这个体系的基础上建立安全层级,比如无论多智能化的产品都只能在一层服务,到了二层需要密码,到越高层需要越多的密码,借此对人工智能产品进行严格控制。我们不要只考虑智能化怎么伤害到人,而是要考虑怎么去设计它,使它伤害不到人。人的智慧是可以设计出一个对人没有伤害的世界,但设计时如果只是想着去设计一款智能化产品,可能就会出现超越产品功能的问题。”在李杰看来,人们到了考虑设计一个智能化安全社会的时候,要把更多的视野放在人工智能产品的安全使用环境上,就好比有车子后,要有交通管理法规,有手机后,要有一个网络安全法规,这些都是安全管理的智能化技术。“智能化系统一定会有其代价和缺点,但人能设计智能化,就能设计出管理智能化系统的智能化方案。人之所以能设计出最可怕的武器,就能解决管理武器的那道底线。”
未来人工智能如何发展,李杰画了一个坐标系:横轴代表可见与不可见,Y轴代表解决与避免。“四个象限里都有智能化的必要,尤其是对‘不可见问题’的避免,这块潜力最大。以开车为例,一辆车子行驶在路上忽然发出警告:前方有障碍物,这是对于‘可见问题’的智能化避免;若提示前方100米处经常出交通事故,请降速,这个是车与环境联动产生的一种智能化结果,我们需要人工智能做的就是在‘不可见’的领域内帮人类避免问题。再比如,中医清楚整个人体的医理逻辑,但是无法避免疾病的产生。我认为避免很重要,那才是电脑要帮助人的地方。未来,人工智能就是尽量去弥补我们看不到的世界,逐渐帮助人避免犯错,这是一种互动,而非依赖。我认为,智慧化有三个I:Intelligence(智能)、Interactive(互动)、Integrative(整合性)。以车为例,车身装满传感器可以实现智能化,在此基础上车要跟人互动,要把周边的环境情况整合进来。可以说智能化是自己看问题,智慧化是从外部看需求。一辆车的智能化的标准可能是带多少传感器,其附带的运算能力达到什么程度;一个智慧型的交通是减少交通堵塞、减少意外伤亡。人工智能的目的是与未来的智慧化城市生活连在一起。”
(节选自《人工智能是人类的“终结者”吗?》 刊2015年4月17日《文汇报·文汇学人》)
作者:刘力源
编辑:刘力源
*文汇独家稿件,转载请注明出处。