大约一周前,澳大利亚华裔科学家陶哲轩把自己要解的5个问题交给大模型进行数学定理自动推理证明,没过多久就完成了全部任务。他不禁感叹:“以后人类数学家还是别做证明题了,只要提出问题直接交给大模型就行了。”
如今,几乎无所不能的大模型,连数学家都对它感到佩服。今天举行的2023世界人工智能大会“大模型时代的通用人工智能产业发展机遇及风险”分论坛上,中国工程院院士、清华大学信息科学技术学院院长戴琼海指出,算力是目前人工智能(AI)发展遇到的最大瓶颈,未来AI新算法与模型将融合脑与认知,而生物机制与机器特色相结合,会创造出人工智能新范式,从而带来多维度的AI性能提升。
不断膨胀的AI能耗地球能否承受?
人工智能正在深刻改变这个时代:以AlphaGo为核心衍生出的一系列技术正引发科研领域的颠覆式革命,而以GPT-3为代表的大模型,可根据需求绘画、问答、写诗,几乎无所不能。因此,世界各国都对AI寄予厚望。阿里巴巴集团董事会主席兼首席执行官张勇曾表示,所有行业都值得用大模型重新做一遍。
然而,这将会使人工智能发展到何种规模?AI诞生至今,其状态空间复杂度已从初始的10的21次方提升到目前的10的172次方,这个数字比地球上所存在的细胞还要高出好几个数量级。
自然界有一种被称为“涌现”的奇特现象,指的是当群体数量达到一定规模,就会出现很多之前所没有的能力。戴琼海认为,如今的大模型就出现了知识与能力的“涌现”,其生成的思维链实现了数据与逻辑知识的双驱动,由此具有了内容理解与生成、科学求解等十分重要的应用能力。
不过,这又给人类提出了另一个问题。在气候挑战日益严峻的今天,不断膨胀的人工智能正在消耗越来越多的电力。据预测,到2030年,智能计算的年耗电量将达到5000亿度,占全球发电总量的5%。如果AlphaGo对弈一盘棋就要耗去1吨煤的发电量,训练对弈千万盘棋局就要燃烧20万吨煤,那么让大模型赋能千行百业,地球能否承受得起如此巨大的碳排放?
光电智能计算带来速度能效革命
根据摩尔定律,计算机的算力每18个月翻一番,而并行训练日益复杂的AI网络的需求,每三四个月就会翻一番。戴琼海指出,近五年来,作为AI发展重要支撑的算力正逐渐变为制约AI继续向前的瓶颈。
“今年,资本市场对英伟达的热捧,就是算力缺乏的明证。”清华大学电子工程系主任、长聘教授汪玉介绍,目前全球大算力芯片供应商仅有英伟达和AMD,而英伟达凭借软件生态优势在市场上占据着主导地位。他算了一笔账:假设中国14亿人每个人都用上大模型,所需的总算力可能与目前中国所拥有的算力之间,相差至少上千倍。
目前在大算力芯片研发上,我国在光电智能芯片领域有望与欧美一争高下。戴琼海表示,一旦光电智能计算得到应用,将对当代计算的速度、能量效率和数据通量产生变革性影响,可实现计算速度的成千倍提升、能效的百万倍提升。“改用光电智能芯片,AlphaGo整体计算能耗将从1吨煤下降到1克。”戴琼海说。
去年,我国正式启动“东数西算”工程,在全国布署8个算力枢纽节点和10个国家数据中心集群,以新型光电计算硬件组建“东数西算”新网络,由此支撑全国数字经济、智能经济发展需求,以高能效智能计算体系助力我国“双碳”战略实施。
生物启发智能将引领算法基础突破
事实上,每个人都天生带有一台功耗超级低的超级计算机——人脑。根据计算,人脑的功耗仅相当于一盏二三十瓦的电灯,却能完成各种复杂的思考和行为。戴琼海在论坛上提出,生物启发智能将引领AI实现算法上的基础突破。
早在2016年,美国启动一项被称为“阿波罗脑计划”的皮质网络机器智能计划,累计投入数亿美元,旨在绘制啮齿动物1立方毫米大脑皮层中的所有神经回路。这需要记录并测量10万个神经元的活动和连接,借神经计算建立并发展新的AI模型与算法。
此外,科学家还需通过先进的神经科学技术,对脑结构、脑功能与智能产生的多层次关联与多模态映射机制,建立认知模型和类脑智能体系。
戴琼海相信,大约十年后,以认知智能为核心的人工智能将会起步,人类的AI时代也将进入一个全新阶段。
作者:许琦敏
编辑:许琦敏
责任编辑:任荃
*文汇独家稿件,转载请注明出处。