▲在世界人工智能大会主会场内,实时变换的虚拟交互影像墙吸引观众驻足体验。本报记者袁婧摄
人工智能时代,意味着力量与未知。在前天举行的2018世界人工智能大会“关注智能安全 守护人类未来”高端对话主题论坛上,业内人士深入探讨人工智能时代涉及社会安全的各种矛盾与悖论,并发出《人工智能安全发展上海倡议》。倡议认为,我们看到了人工智能的一些隐忧,但具体如何应对还需要持续的思考与努力。
数据“喂养”与隐私泄露
机器学习、深度学习等人工智能技术高度依赖海量数据的“喂养”,但是,数据采集与隐私保护之间存在某种程度的“囚徒困境”。
人工智能技术可加强数据挖掘分析能力,但也增加了隐私泄露风险。人工智能系统可基于其采集到的无数个看似不相关的数据片段,通过深度挖掘分析,得到更多与用户隐私相关的信息,识别出个人行为特征乃至性格特征,人工智能系统还可以通过对数据的再学习和再推理,导致现行的数据匿名化等安全保护措施无效,个人隐私变得更易被挖掘和暴露。
脸书数据泄露事件的主角——剑桥分析公司通过关联分析方式获得海量美国公民用户信息,包括肤色、性取向、智力水平、性格特征、宗教信仰、政治观点以及酒精、烟草和毒品使用情况,借此实施各种牟利活动。
在人工智能时代,数据和算法就是权力。从当前的各种迹象来看,资本权力依托技术和数据垄断的地位持续扩张。人工智能技术的研究工作门槛很高,依赖于长期的资本投入。当前人工智能研究中最具实际应用价值的科研成果多出自大型企业所支持的研究平台。目前,超级互联网巨头实际上掌握着人工智能领域的大部分话语权,而这种力量将深入当前深嵌于网络的社会生活的方方面面。
谁能断言互联网巨头不会挖掘你的隐私数据从而进行“杀熟”式牟利行为呢?
“算法黑箱”与监督困境
“算法黑箱”导致人工智能决策不可解释,引发监督审查困境。当社会运转和人们生活越来越多地受到智能决策支配时,对决策算法进行监督与审查至关重要。但是“算法黑箱”或者算法不透明性可能引发监督审查的困境。
科技发展与文艺作品的“预言”往往会有吻合。为了帮助读者理解这种监督审查困境,业内人士以一部科幻电影举例:
2002年的电影《少数派报告》讲了这样一个故事:人类发明了能侦察人脑电波的“聪明”机器人——“先知”。“先知”能侦察出人的犯罪企图,所以在罪犯犯罪之前,警察就能提前将其逮捕。汤姆·克鲁斯扮演的主角发现了“先知”隐藏的秘密,共有三个“先知”一起判定一个人是否有杀人企图。当出现分歧时,按少数服从多数原则定案,但最后若证明少数那一方是正确的话,则会秘密保存一份少数派报告。主角一觉醒来,突然发现自己成为警察的抓捕对象,他唯一的出路就是找到能证明自己清白的那份少数派报告。
现实要比文艺作品复杂得多。“算法黑箱”或算法不透明性主要由三方面原因造成:一是拥有决策算法的公司或个人可以对决策算法主张商业秘密或者私人财产,拒绝对外公开。二是即使对外公布决策算法源代码,普通公众由于技术能力不足,也无法理解决策算法的内在逻辑。三是由于决策算法本身具有高度复杂性,即使是开发它的程序员也无法解释决策算法做出某个决定的依据和原因。因此,对决策算法进行有效监督与审查是非常困难的。
人工智能系统与机器工业制品紧密结合之后,往往就具有了根据算法目标形成的自主性行动能力。然而,在其执行任务过程中,一旦出现对于其他人及其所有物产生损害的情况,应如何认定侵权责任就成了一个非常具有挑战性的问题。表面上看,这种侵权责任的主体应该是人工智能设备的所有者,但由于人工智能的具体行为受算法控制,发生侵权时,到底是由设备所有者还是软件研发者担责,值得商榷。
弱人工智能VS强人工智能
在保守主义者看来,维持人工智能技术的可控性是技术发展不可逾越的界限。针对弱人工智能时代可能出现的失业问题,保守主义者建议利用一场可控的新“卢德运动”(19世纪初英国工业革命时期传统纺织业者捣毁机器的群众运动)延缓失业浪潮,限制人工智能在劳动密集型行业的推进速度,使绝对失业人口始终保持在可控范围,为新经济形态下新型就业岗位的出现赢得时间。
然而,在科技快速发展的时代,任何国家选择放缓对新技术的研发和使用,在国际竞争中都是非常危险的行为。人工智能技术的快速发展可以在很短时间内使得国家间力量差距被不断放大,信奉保守主义理念的国家将在国际经济和政治竞争中因为技术落后陷入非常不利的局面。
在进步主义者看来,人工智能技术所导致的失业是无法避免的历史规律,试图阻止这种状态的出现是徒劳的。维持弱人工智能时代社会稳定的方式不是人为干预不可逆的失业问题,而是改变工业化时代的分配原则。利用技术进步创造的丰富社会财富,能够为全体公民提供保障其体面生活的收入。
然而,从弱人工智能时代到强人工智能时代需要经历多久,至今难有定论。
作者:沈竹士
编辑:施薇
*文汇独家稿件,转载请注明出处。