【编者按】当前,中国人工智能发展正面临“十字路口”,多地积极探索尝试为AI大潮下中国摆脱“跟随”战略开辟新路径。近期,以深圳、上海为代表的城市相继出台人工智能发展政策,这些政策尝试的关键共同点都是注重“普惠应用”。
推动“普惠应用”,何以成为地方人工智能产业政策设计的侧重点?各地的政策推行力度及成效如何?
本文作者贾开,系上海交通大学国际与公共事务学院长聘副教授,长期专注于全球数字公共治理、政府行为与治理现代化研究,曾就AI开源治理及合规挑战问题发表多篇观察评论。
中国人工智能发展面临“十字路口”,深圳、上海等城市通过出台政策,注重普惠应用,如深圳的“训力券”“语料券”“模型券”等政策工具,以及上海对多元技术路线的探索,都关注对开源大模型鼓励与包容,试图矫正“公-私”结构分化,降低市场主体开发应用成本,为中国人工智能发展探索新路径。
2024年12月18日,深圳市出台了《打造人工智能先锋城市的若干措施》,从丰富生态要素供给、深化人工智能赋能千行百业、提升源头创新能力、优化产业发展环境为推动深圳成为国家新一代人工智能创新发展试验区和国家人工智能创新应用先导区又“加了一把火”。
无独有偶,两天后的上海市同样发布了《关于人工智能“模塑申城”的实施方案》,旨在加快建设人工智能“上海高地”,打造人工智能世界级产业集群。以深圳、上海为代表,我们可能正在迎来人工智能变革的“城市锦标赛”。
但这一“锦标赛”并不简单意味着不同城市通过不同强度的产业政策来吸引人工智能的发展要素,进而推动人工智能的技术创新和产业应用,其更意味着我们正在进入人工智能发展的新阶段,即在人工智能又一次走入“十字路口”的时候,不同城市正在通过多样化的政策实验试图打开人工智能发展的又一次“机会窗口”,而这一次的关键便在于人工智能的普惠应用。
规模定律失效风险日增
AI面临系统化治理挑战
自2022年11月OpenAI发布ChatGPT以来,大语言模型已经作为人工智能主要技术路线得到了普遍认可,大量人力、资本投入其中并取得了明显成绩。但进入2024年下半年后,“Scaling Law(规模定律)”面临失效风险,更多数据、更大算力投入并没有带来预期中的模型性能指数级增长,而日益凸显的能源瓶颈、风险担忧也在制约着数据、算力的可持续投入,人工智能由此进入新一轮技术变革期的“十字路口”。
举例而言,布隆伯格在2024年11月一份报道中指出,OpenAI、Google、Anthropic三家领先人工智能企业大语言模型产品的研发成果都没有达到预期:OpenAI下一代旗舰模型(内部名为Orion)不能被视为类似于GPT4相比于GPT3或者GPT3.5相比于GPT的跨越式发展,而Gemini和Opus3.5同样类似。
在此背景下,无论是技术领袖还是投资人,都开始对“规模定律”的可持续性产生了强烈质疑。在此背景下,各厂商也都在积极尝试新的人工智能技术路线,OpenAI推出的o1 model、Google发布的AlphaGeometry都可被视为相对于单纯叠加数据或算力资源的新路径探索。
AI生成图片
除了围绕“规模定律”的质疑之外,人工智能当前还正在遭遇系统化的治理挑战。
2023年5月至10月,“好莱坞”发生了史上持续时间最长的一次罢工,关键争议就是围绕人工智能应用对编剧工作和工资的负面影响展开,而媒体评论普遍认为“好莱坞”大罢工并非孤例,其为其他行业展现了大模型可能引发的产业变革和治理冲突,并因此拉开了制度变迁的序幕。
类似的,2024年围绕加州SB-1047法案的争议同样表现为不同利益相关方对开源是否可作为大模型重要发展模式的巨大分歧,支持者和反对者都给出了充分理由,而更进一步的讨论甚至还延伸至人工智能领域的“公-私”结构性分歧。简言之,人工智能发展进程中正在呈现出私人部门(数字平台公司或企业)越来越占绝对主导的格局,而公共机构正在被边缘化,这也引起了诸多利益相关方的深切担忧。
我们不得不注意的是,以ImageNet为典型案例,人工智能发展史上的重要突破事实上都依赖于公共机构的突破性成就,即使是大语言模型的“横空出世”也仍然依赖于互联网存在已久的公共数据资源。私人部门占主导的局面在减少公共产品供给的同时,也影响了人工智能的可持续发展。
AI领域“跟随”战略不再适用
我国行业政策重“普惠应用”
面对人工智能发展的世界形势,中国该怎么办?
作为人工智能技术创新和应用大国,当前人工智能发展进入新的“十字路口”意味着我们已经不再能够延续“跟随”战略特征,而不得不形成符合我国实际的科技创新与产业应用新模式。
在此背景下,深圳、上海乃至北京等在2024年密集出台的人工智能发展政策被视为探索新出口的积极努力,而这些政策尝试的关键共同点则都是注重“普惠应用”。
以深圳为例,其创新性地设计了“训力券”、“语料券”、“模型券”等新的政策工具,而它们的核心目标都旨在以公共投入降低市场主体开发、应用人工智能大模型的“门槛”成本以实现普惠应用。特别要注意的是三种“券”的政策设计,它们都注意到了人工智能当前发展格局的偏差,并以不同方式试图矫正“公-私”结构的分化:“训力券”不局限于市场主体,而是更广泛地纳入了高等院校、科研机构等公共部门;“语料券”注意到了企业不愿分享自有高质量语料的“囚徒困境”,试图以公共资金“撬动”企业通过公共数据开放平台开放语料以形成公共产品的内在动机;“模型券”则更是以直接财政补贴的形式鼓励千行百业探索大模型的应用场景和方式。尽管关于三种“券”支持力度的有效性还可以进一步商榷,但深圳推动普惠应用的导向是十分明确的,而这种普惠性同时涵盖私人部门、公共部门的政策逻辑更值得我们重点关注。
当然,并不独有深圳如此,上海政策同样体现了对于普惠应用的重视。打造超大规模自主智算集群、构建多层次语料供给体系、建设虚实融合超大型实训场、加快行业基座大模型体系创新等具体措施可被视为通过向公共机构投入更多资源来为市场、社会主体应用人工智能打造新型基础设施的一般性努力。稍有差别的是,上海政策体现了对多元技术路线的更多关注。例如其提出“探索训推一体的服务模式”,便体现了对当前大模型仅仅依赖训练阶段投入更多算力资源的“规模定律”的反思。
该政策要点注意到了OpenAI在o1 model中采用的新技术架构,其允许模型在不重新训练的情况下,通过推理时的额外计算来提高性能,而这也体现了对人类推理性认知的模拟,能够解决既有人工智能不能维持答案的一致性以及不能实现长期目标规划的能力。
除了上述比较分析之外,深圳和上海的一个共性而典型特征是对开源大模型的鼓励与包容,而这也与国外争议形成了鲜明对比。尽管我们也承认开源大模型可能存在的社会风险扩散问题,但大模型开源更重要的意义仍然在于平等获取与普惠应用。
以Meta公司的LLaMA模型为例,其开源后快速引发的系列创新超出了人们想象:斯坦福研究者的Alpaca仅用52K数据微调以及不到600美元的训练成本就达到了GPT-3.5的可比性能,UC Berkeley、CMU等多个大学联合研究的Vicuna以不到300美元的训练成本达到了GPT-4的可比性能,而UC Berkeley AI Research Institute(BAIR)发布的Koala模型利用网络高质量数据训练在至少一半的情况下达到了ChatGPT的可比性能。
在大模型开发成本日益高企并使得越来越少的“玩家”能够自研大模型的背景下,开源大模型为海量的中小企业获得生产工具提供了宝贵渠道,而这也充分体现了普惠应用的基本思路。事实上,我国正在成为大模型开源的生态创造者和引领者,阿里巴巴的通义大模型几乎可被视为仅次于LLaMA开源模型的生态系统,而这也为我国国内中小厂商提供了获取大模型能力的渠道。
如果将中国城市的积极行动与其他国家主要以企业为主体的探索行动相比,我们可以很明显看到中国特殊的发展模式与路径。主动作为的地方政府正在理解并抓住了人工智能的发展痛点,以普惠应用助推中国走出人工智能的“十字路口”,而相关政策的效果事实上也是明显的。
据相关统计,全球发布新模型的数量自2024年2月达到历史最高峰之后开始持续下滑,到10月份甚至回到了2023年上半年的水平。与之相比,我国大模型热潮仍在继续:截至2024年11月,国内大模型备案数量达到252款,较去年年底新增190个,其中上海和深圳分别有46个和15个。未来将如何演化,我们不得而知,但观察中国重点城市的积极行动仍然使我们对中国人工智能的未来充满信心。
文/贾开(上海交通大学国际与公共事务学院长聘副教授)
编辑:程姝雯