人工智能在增进人类福祉的同时,也会因不法分子滥用而危害社会,法律专家建议——
打磨“双刃剑”,发挥“最后一道屏障”威慑力
在抢占人工智能全球制高点的同时,针对这种高新技术及其应用的风险防范已迫在眉睫。“在法学界,现在已有一些学者对人工智能可能带来的知识产权、民事责任等问题展开研究,但对于滥用人工智能而可能出现的刑事责任问题,现在还处于无人问津的状态。”知名刑法学家、华东政法大学法律学院教授刘宪权刚刚完成一项关于人工智能刑事风险的研究:人工智能的广泛应用不仅使得部分传统犯罪的危害性发生“量变”,今后还可能导致出现新的犯罪形式。
为此,他呼吁相关部门应尽快启动立法调研,建议增设滥用人工智能罪和人工智能事故罪,发挥刑法“最后一道屏障”的威慑力,从源头上防控风险。
对人工智能的滥用,很有可能就是对大数据的滥用
“每一次人类社会在实现技术进步的同时,都可能令传统的犯罪插上科技的翅膀。人工智能时代的到来,也必将对传统法律法规造成巨大冲击。”按照刘宪权的分析,未来社会,人们的饮食起居处处都离不开人工智能,也就是说我们将步入一个全方位智能化的社会。故此,人工智能一旦成为作恶工具,其影响也可能“牵一发而动全身”,甚至酿成难以控制的危险局面。
去年9月,浙江绍兴警方破获全国首例利用人工智能技术窃取公民个人信息的案件,成功截留被盗公民个人信息10亿余组。此案中,被警方查封的“快啊”平台,曾是市场上最大的打码平台。该平台在破解、窃取、贩卖和盗用个人信息实施诈骗上有着完整的链条,而人工智能技术就被应用在识别验证码这一环节。
“数据对于人工智能而言,犹如水对于人类生命般重要,因此,对人工智能的滥用很有可能就是对大数据的滥用。”刘宪权指出,过去一般认为,对数据的利用可能涉及的犯罪类型是非法获取计算机信息系统数据。而从最高人民法院、最高人民检察院出台的司法解释可以看出,我国刑法及司法实践侧重于保护用于维护信息系统自身功能、以访问控制为主要考虑的数据,没有关注数据自身内容属性上的价值与保护的必要性。
对处于快速发展期的人工智能,刑法是一柄“双刃剑”
眼下需要关注的一点是:人工智能时代可能带来新的滥用数据的风险,产生新的滥用数据的犯罪形式。
“数据的集中本身就是一种风险,因为数据越多包含的信息量就越大,不法分子攻击一次数据库就能获利颇多,从而降低犯罪的成本。”刘宪权说,更令人担心的是,通过人工智能技术往往可以得到超出人类预期的结果。一些数据从表面上看可能不包含关键的敏感信息,但是通过人工智能技术分析海量数据,以及对多个数据库进行综合分析,最终完全有可能通过推演得到关键的敏感信息,甚至包括一些威胁国家安全的重要信息。与此同时,由于目前对数据的安全防护手段还无法跟上人工智能技术发展的速度,因此也就无法及时针对新的犯罪形式做出预警反应。
谈及立法时,刘宪权特别指出,虽然我国现行刑法体系还无法完全适应人工智能技术的发展水平,对于人工智能时代可能出现的刑事风险的责任追究具有一定的局限性和滞后性,但应当看到,刑法的规制对于人工智能技术的发展而言是一柄“双刃剑”:如果过多地干预人工智能的研发或使用,那么可能会阻碍人工智能技术的创新和发展。
人工智能的“岗前培训”,应该涵盖数据保护的义务
基于此,刘宪权建议增设滥用人工智能罪。由于滥用人工智能行为的客观表现形式多种多样,涵盖制造危害社会的人工智能产品、滥用大数据、侵犯他人隐私等,涉及人类社会生活的许多方面,未来还将出现其他立法者囿于人工智能技术发展状况而无法全面考虑到的情况。因此,就目前人工智能产品的研发和使用情况而言,直接将滥用人工智能技术的行为作为规制的对象并规定相应的兜底条款是较为妥当的做法,未来可以通过司法解释等作出更加具体的规定,以实现刑法规范稳定性与前瞻性的平衡。
另一方面,他也建议在刑法中增设人工智能事故罪。也就是说,研发者和使用者需要在研发和使用人工智能产品的过程中履行数据保护义务。要让人工智能产品接受“岗前培训”,在知道自己可以做什么的同时,也要掌握自己所处行业的法律法规,明确从业禁区。
“增设滥用人工智能罪是从故意犯罪方面对研发者和使用者的行为予以刑法规制,而增设人工智能事故罪是从过失犯罪方面对研发者和使用者的行为予以刑法规制,两者相辅相成,最终可以实现对滥用人工智能行为刑法规制的立法完善。”刘宪权如是说。
*文汇独家稿件,转载请标明出处。