近年来,人工智能场景化落地,高潮不断,成果显著。随之而来的是如何发展“可信AI”,实现可信、可靠、可控、可解释的人工智能也成为业界讨论焦点。
今天举行的2023世界人工智能大会“2023聚焦•大模型时代AIGC新浪潮”论坛,也将目光投向这一话题。论坛汇集人工智能领域政产学研的顶级专家、学者,围绕人工智能技术在鲁棒性、可解释性、安全性、公平性等前沿理论,从技术演进、应用场景、未来趋势、标准治理四大维度层层递进展开探讨,关注多模态基础大模型的可信体系,探讨AI新治理的局面,求解如何在保障技术创新和应用的同时,充分考虑社会伦理、法律和人权等方面的问题。
论坛指出,AIGC安全成为当前人工智能研究发展的重要议题。中国科学院院士何积丰表示:“不能再将人工智能视为简单的技术工作,而是成为整个组织的变革引擎。可信人工智能要致力于保障数据安全可信、系统行为可追责、算法模型可解释、网络环境可信等问题。”
论坛上,合合信息AI图像内容安全技术方案获得广泛关注。该方案可精准定位截图篡改痕迹,对生成式图片进行智能判别,防止不法分子利用技术手段非法爬取图片上的信息。
据悉,去年的人工智能大会上,合合信息首次展示了“PS篡改检测”技术。今年,AI图像篡改检测“黑科技”持续优化升级,应用面也拓展至“截图篡改检测”。
同时,合合信息还发布了关于AI生成图片鉴别技术,用于判断图片是否由AI生成,以及对OCR对抗攻击技术的创新性的研究。
论坛现场发布了由中国信通院、清华大学等联合编纂的《可信AI技术和应用进展白皮书(2023)》。该报告基于统一的可信AI认知维度,梳理总结可信AI发展现状,提练了面向新阶段大模型和AIGC引发的新需求,形成以技术为保障的可信AI评估体系和工具,探索新一代可信人工智能发展。同时,中国信通院、上海人工智能实验室、武汉大学等多家单位共同发起的《AIGC可信倡议》,围绕人工智能可能引发的经济、安全、隐私和数据治理等问题,提出构建AIGC可信发展的全球治理合作框架。
作者:商慧
编辑:唐玮婕
责任编辑:戎兵
*文汇独家稿件,转载请注明出处。