2021世界人工智能大会奏响AI最强音
正如蒸汽机、发电机曾给世界带来变革一样,当前人工智能(AI)技术正快速深入应用于社会各领域,展现出颠覆性力量。人工智能越智能,就越需要治理的力量,也只有处理好人与人工智能的关系,人类社会才能放心拥抱AI“红利”。
在今天(8日)举行的2021世界人工智能大会治理论坛上,来自政产学研界的专家达成共识:为确保人工智能安全、可靠、可控,建立健全法律法规、制度体系、伦理道德,需要科学评估人工智能应用的社会综合影响,为智能时代的政府治理提供有效支撑。
中国AI治理的模式变了
“治理跟不上,人工智能就发展不好。”清华大学苏世民书院院长、国家新一代人工智能治理专业委员会主任薛澜说,从国家积极推动行业发展,到出台行业软性规则,再到多部门采取措施整治,我国人工智能的治理模式正从“回应式治理”转向“集中式治理”。
2017年12月,工信部印发《促进新一代人工智能产业发展三年行动计划》,以推动人工智能和实体经济深度融合,加快人工智能产业发展。在治理方面,国家相继出台了一系列引导性、规范性举措,包括发布《新一代人工智能治理准则》,成立新一代人工智能治理专家委员会等。
“从去年开始,我们对人工智能发展中的一些问题进行了集中治理,相关法律法规出台的进度也在加快。”薛澜透露,今年8月,《个人信息保护法》将进入三审;今年9月,《数据安全法》将正式实施。
随着人工智能技术的不断进阶,治理模式也得“与时俱进”。面向未来,薛澜提出了“敏捷治理”模式,“这是一种多元治理主体参与、多种治理工具灵活运用的刚柔并济的治理模式”,即在确保人工智能安全和平等的基础上,鼓励企业创新,并及时识别AI应用带来的风险,果断给予适当规制。
除政策法规外,对于AI应用的研究也在走向深入。《上海国家新一代人工智能创新发展试验区社会实验工作方案》在论坛上发布,它将深入了解回应当前国内人工智能及数字技术应用中公众关注和反映较多的问题,对数鸿沟等字技术应用中公众关注和反映较多的问题予以规范和建议。
市科委副主任王晔表示,医疗诊断辅助决策支持、随申码应用拓展、老人智能服务应用系统和人脸识别,都是与市民生活息息相关的人工智能应用,“我们将此四大场景作为首批实验工作目标,将其放在科学系统的分析框架下进行研究。”
建立公正透明的评估体系
人工智能治理难在哪里?图灵奖得主、中科院外籍院士约翰·霍普克罗夫特说:“人工智能会告诉我们答案,但不会告诉我们答案背后的理由,如果训练它的数据存在偏见,那么结果也可能是有偏见的。”
面对人工智能的“黑盒”属性,人类应该怎么办?霍普克罗夫特认为,虽然我们对于AI的决策过程不可知,但仍然可以从结果推导它的产生过程,从而定义什么是公平的。因此,达成一套透明、公平、公正的评估体系至关重要。
以自动驾驶为例,它通过大量数据生成驾驶决策,在这一过程中,我们要尽可能多地去收集更多相关场景数据,去模拟和仿真出各种相关场景,然后把各类人工智能技术放在这些环境和场景下去评估。如果大家都朝着这个方向走,整个行业就会形成更加可控的技术体系。
建立公平透明的评估体系需要依靠政产学研各方力量,除了作为监管主体的政府和研发主体的企业,霍普克罗夫还着重强调了另外一些机构,比如教育和媒体。他说:“整个社会都要了解人工智能可能带来的问题,这就需要教育的力量,如果一座城市有更多懂AI的人,并且能够加入到人工智能这个议题的讨论中来,人工智能就能朝着更加以人为本的方向发展。”
AI治理的核心问题是数据
“在人工智能发展的问题上,当下最迫切也是最核心的问题是数据。”商汤科技联合创始人杨帆说,作为一门数据科学,人工智能在社会发展的底层逻辑就是如何定义数据的价值,这与农业时代的粮食、工业时代的石油都不相同。
“数据很奇怪,产生它并不容易,但是复制成本特别低,而且维度越多、越庞大的数据价值越大,在不同人手里发挥出的价值也天差地别,这就产生了很多新问题。比如数据所有权、使用权如何界定,复制数据的价格如何计算等,这些都需要全社会一起来探讨。”杨帆提出了他的思考。
治理人工智能需要健全的伦理体系。作为人类智能的产物,人工智能需要以人的道德价值作为行为依据。在杨帆看来,人工智能的伦理问题主要包括三个方面:一是以人为本,阿西莫夫提出的“机器人三原则”是从限制机器角度为人类发展撑起一把保护伞,同样,人工智能也需要正向为人类提供服务;二是可持续发展,任何技术的发展都要讲究人与自然的平衡,在更加良性的环境中得到互动和发展;三是技术可控,即对技术实现更好的控制。
随着国家、城市与社会各行业的数字化转型,数据问题会越来越多地摆在人们面前,成为一项巨大挑战。如何处理好数据问题或将撬动整个科学体系,乃至变革人类社会。
作者:沈湫莎
图片:袁婧摄
责任编辑:任荃
*文汇独家稿件,转载请注明出处。