当下,我国人工智能在生活服务、医疗健康、工业机器人等领域的应用走在世界前列。这让邵志清代表感触很深,他说特别这两天,新华社人工智能合成的主持人亮相,会场里小艾机器人也开始上岗提供生活的服务。但是科技从来是一把双刃剑,在造福人类的同时,人工智能所带来的社会问题也逐渐显现,开始从技术领域向刑事领域转变。比如利用人工智能技术侵犯个人信息、竞争对手的商业秘密,甚至危害人的健康生命,社会的安全稳定。因此,他提出议案:制定人工智能应用管理法,围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面为人工智能应用把好关。
2017年9月,浙江警方就破获了全国首例利用人工智能实施犯罪的案件,这个删改利用快速支付验证码,供合作团伙进行网络诈骗。在国外,也发生了机器人伤害人类的事件。这就更需要相关法律,提升识别能力,更对如何认定责任主体和行为意愿提出了全新的挑战。
传统的刑法只有人才是刑法规定的这个主体。但在人工智能应用产品下面,很多机器成了主体。对于这类问题,现有的法律还没有办法来加以规范。同时,社会对人工智能的认识也处于初步的阶段。但为了防范重大风险,需要针对人工智能的具体应用进行规范。2016年以来,一些国家和机构也进行了相关探索,比如欧盟议会的法律事务委员会发布了研究欧盟机器人民事法律规则;德国也对交通条例所规定的驾驶员的手不能离开方向盘,驾驶员在车辆行驶过程中全程保持警惕等,进行了立法的修正。
我们国家对无人驾驶自动驾驶也进行了初步的管理规范;18年上海市经信委和交通委联合制定的上海市智能网联汽车道路测试管理也正式发布,这些探索和实践,为人工智能应用管理法提供了有益的参考。
为此,他建议,为人工智能应用的管理立法,特别重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面的进行立法。比如说:应该明确禁止应用人工智能技术,违反人类伦理道路的行为,特别是在基因工程,生命科学情感意识等方面,用法律为智能社会化出道德边界,让人工智能服务造福人类,而不是困扰危害的实施。还有资源获取,应该明确禁止采集,个人隐私商业秘密,国家机密的资料信息数据,避免被人和机器恶意的利用。
在主体认定方面,应该明确进入自主学习,思考行动能力的机器人,成为适格主体的应用场景。在行为认定方面,应该明确认定机器人意图的原则,特别是要解决机器人及人工智能进行独立判断和决定所实施侵害的主观方面的认定问题。最后是责任划分明确,一旦有侵害发生,让智能机器人的使用者制造者和机器人本身承担严格取证的法律责任。
作者:顾一琼
摄影:袁婧
编辑:朱伟 史博臻
责任编辑:戎兵
*文汇独家稿件,转载请注明出处。