“如果让我选择,我也会签字,抵制人工智能武器应用。”6日,美国辛辛那提大学讲座教授李杰来沪并接受记者专访,提及日前霍金、马斯克等一批科学界、企业界人士针对人工智能问题公布警告信一事,李杰毫不犹豫地给出自己的答案。他认为,除了可能威胁人类生命的军事应用,人工智能在日常应用、情感交流方面同样存在潜在风险。不过,在人工智能进步的过程中,人类也从未停止思考评估。随着机器人自主学习、自我进化,人类也会制定相应的规矩和界限。
据悉,李杰的新书《大数据与智能制造的新思维》将由上海交通大学出版社推出。
群体性警惕正是人类防御机制的启动
科幻小说家阿西莫夫曾提出“机器人三定律”:机器人不得伤害人类;除非违背第一法则,机器人必须服从人类的命令;在不违背第一和第二法则的情况下,机器人必须保护自己。
但是,这一定律固若金汤、坚不可摧吗?不消说大量科幻小说和电影中,机器人“误伤”或“攻击”人类的情节,现实世界里相似的悲剧也不幸上演。就在上个月,德国大众汽车公司一位正在工作中的员工因被机器人重重压向一块金属板而导致死亡,这一机器人“杀死”人类的意外引发了恐慌。
如今,机器人技术已成人类世界不可或缺的一环,但科学界忧心忡忡的是,人工智能崛起后,未来机器人会否自主决定伤害人类。对此,李杰的态度较为乐观,他认为,人类可以拿出相应的足够智慧来应对。“对于医疗、交通等日常生活领域的机器人应用,市场需求所释放的信号,可以起到检验智能应用优劣的作用;欧洲、日本则根据机器人三定律对部分机器人应用领域作出了明确限制。看得出,人类依然在控制着智能应用的边界与进程。”
换句话说,无论是霍金等科学家联名签署抵制信件,还是一大批科幻影视、文学作品中的忧患与反思内核,都表明人类已经对人工智能可能带来的危害拉响了警报,“这种群体性警惕,也正是人类所开启的自我防御机制的一种”。
当人机间产生高级情感,人类怎么办?
如今,智能制造已不仅仅是过去意义上的小电子玩偶或零部件,而是逐步介入人类情感生活,成为孤寡老人的“贴心保姆”、交流障碍人士的“倾诉对象”,或者干脆充当起一部分宅男的日常伴侣。当然,这些应用目前所占比例不大,但科学界预测认为,未来的这一现象可能变得不再稀奇。
身为美国国家科学基金会智能维护系统产学合作中心主任,李杰与研究团队发现,一项新技术通常在15年左右被接受,30年达到广泛应用,比如如今已渗透现实的3D打印等技术。那么,接下来的几十年里,人工智能也会飞速发展并嫁接到多个领域。很快,机器将学习到人类优点和缺点,模拟人类感情。人类应当如何与机器共处?
科幻电影《她》中,人类男性与女机器人愈发投缘,并存在双向需求与欲望,人机友谊也最终演变成一段不被世俗理解的奇异爱情。看上去冷冰冰的高科技面纱,被赋予了高度人性化和活色生香的情趣,机器人不仅掌握高级思维和创作能力,还变得“有心肝”、“嘘寒问暖”。科幻作家韩松在小说《佛性》里,对机器人参与信仰膜拜,展开了戏谑而又入木三分的勾画。有评论家认为,一旦投射到现实世界中,超出一定限度的人机关系,必然会撬动人类最基本的伦理、婚姻、家庭价值观。而在电影《机器姬》中,机器人表现出对人类的倾慕,结果只是利用了人类的信任与爱意,到头来毁灭了曾经的亲密。这种暗黑式结尾无疑提醒人们,如何保证机器人判断及行为合乎道德伦理,是科学家乃至社会学家、心理学家亟需思考并研究的命题。
“以往我们多是突出机器人的协助地位,但未来人机间的高度平等互动,这将带来更多前所未有的乐趣和可能性,但无疑也考验着人类的自觉担当与道义责任。”李杰说。
文汇报记者 许旸
友情链接 |
国家互联网信息办公室 | 上海静安 | 上海秀群 |