专访|全球AI治理的下一步:法国特使详解2025巴黎AI行动峰会

图灵汇官网

近年来,大型语言模型和聊天机器人引发了人们对人工智能革命的憧憬,但全球在治理层面的准备却远远滞后于技术的发展速度。2025年2月,法国计划在巴黎举办一场聚焦人工智能的行动峰会,目标是探索构建全新的全球AI治理架构。作为峰会特使的安妮·布夫罗在接受采访时提到:“现阶段,全球AI治理面临的主要难题有两个,一是发展过程中的碎片化现象,二是机会分配的不公平。”

布夫罗在科技领域有着丰富的从业经历,曾长期供职于法国Orange电信公司,并担任过全球移动通信系统协会的CEO。2024年,法国总统马克龙任命她负责筹备此次峰会。她强调,本次会议的重点将是分析AI对就业、文化、教育以及气候等领域带来的深远变化,并推动制定切实可行的行动计划,既要规避潜在风险,也要确保AI技术能够造福更广泛的群体。

布夫罗提到,这次多边合作的过程与《巴黎协定》有相似之处。她透露,在峰会上,各国领导人将围绕AI的包容性和可持续性展开讨论,并最终形成一份联合声明。

“很多国际项目已经成功推动了更具包容性和可持续性的全球规则制定。这次峰会的目标是引领AI朝着更加普惠的方向发展,同时有效解决关键挑战。”她说。

AI发展的现实挑战

布夫罗指出,从全球范围看,当前的人工智能体系较为分散。公共机构和科研单位在某种程度上落后于私营部门。此外,不同区域间的法律法规存在差异,这些都限制了整体利益的最大化。

根据世界经济论坛的数据,2023年,私营企业推出了51款机器学习模型,而学术界只发布了15款。这是因为开发或训练大型语言模型的成本非常高昂,比如,OpenAI的GPT-4训练费用约为7800万美元,谷歌的Gemini Ultra更是花费了1.91亿美元。

在监管方面,斯坦福大学的研究显示,2021至2023年间,欧盟出台了超过100条与AI相关的法规,而美国仅制定了大约50条。欧盟的法规体系更为完善,《人工智能法案》明确规定了一些禁止的行为和高风险应用,并对违规行为处以重罚。相较之下,美国至今没有统一的联邦级AI法律,更多依靠各州自行立法。中国则采取了垂直立法的形式,针对特定行业和技术出台法规和技术规范。

“另外,AI技术的发展主要集中于少数几个地区,而那些最弱势、最缺乏数字化条件的人群,可能进一步被排除在外。现有的南北差距可能会因AI的发展而加剧。”布夫罗表示。

根据牛津洞察发布的《政府人工智能就绪度指数》,高收入国家在“技术领域”的得分显著高于其他收入水平的国家,部分情况下,高收入国家与中高收入国家之间的差距甚至超过了所有其他收入组别之间的总和。

目前的AI竞争态势也体现了这种失衡。布夫罗坦言:“美国和中国在人工智能领域处于领先位置。不过,还有不少重要的参与者,特别是欧洲国家,尤其是法国。例如,法国的Mistral AI表现出色,其大语言模型在基准测试中的表现可以媲美OpenAI、Meta或谷歌的产品。同时,这些模型还注重提升效率,从而更加环保。”

但仅靠少数国家的进步是远远不够的,布夫罗强调,应让更多国家有能力构建自身的AI生态系统,尤其是全球南部国家。这也是即将召开的AI行动峰会的核心任务之一。

在环境层面,布夫罗认为,AI可以通过优化资源利用来助力减缓气候变化和适应气候挑战,同时也支持像极端天气预警系统这样的工作。然而,AI的发展同样带来了日益增长的能源、水资源和稀缺资源消耗,目前尚未步入可持续发展的轨道。

她举例称:“在美国,由于AI发展的用电需求增加,一些核电厂正在重启。而在法国这样一个以核能为主的能源出口国,我们正努力实现脱碳目标。”

布夫罗认为,各国可根据自身能源结构来应对这一挑战,但从全球视角出发,需要综合评估AI能耗与碳排放之间的平衡关系。“此次峰会将从多个维度探讨这个问题。一方面,我们将寻求科学共识,明确AI发展的方向;另一方面,我们也将激励投资,推动更加可持续、低碳且合理的AI发展模式。可持续性和气候问题是共同的责任,需要大家一起行动。”

构建全球AI治理新蓝图

布夫罗表示,法国在推动多边对话和多方利益相关者参与全球治理方面积累了丰富经验。这次峰会并非“白手起家”,而是延续了2023年11月在英国布莱切利公园举行的首届人工智能安全峰会以及2024年5月在首尔召开的第二届全球人工智能安全峰会的基础。

她认为,汇聚企业、学术界、政府及社会各界的智慧,对推进全球AI治理议题至关重要。为了应对碎片化和机会不均的问题,峰会将确保各方平等发声,促进整个生态系统的协作。同时,峰会还将充分参考联合国框架下的重要倡议,尤其是被视为AI治理重要里程碑的《全球数字契约》。

联合国系统2024年发布的《人工智能治理》白皮书建议,各国应通过多边机制共同制定AI治理框架,确保技术应用符合国际法和人权准则。白皮书提倡确立全球统一的AI技术和伦理标准,尤其在自动驾驶、医疗AI和自动武器等高风险领域强化监管。在治理过程中,应吸纳政府、私营部门、学术界和公民社会的广泛参与,以保障政策的多样性和执行力。

布夫罗介绍,为了打造可信的AI治理框架,峰会创新性地提出了“三S方法”,即科学、解决方案和标准。

在科学层面,峰会将以科学共识为基础。2月6日至7日的“科学日”将发布由首届人工智能安全峰会委托编制的《人工智能安全报告》。在解决方案方面,峰会关注在科学、文化、医疗健康和工业等领域提供具体可行的应用方案,力争从理论探讨转向实践工具。在标准方面,峰会致力于推动统一标准的确立,这不仅能协调各方行动,还能为衡量和管控AI的环境影响提供重要参考。

本文来源: 互联网 文章作者: 137237205
    下一篇

导读:文 |追问nextquestion01 人工智能 vs 人脑智能1. 早期人工智能模型是如何从对大脑的理解中获得灵感的?人工智能的早期发展得益于对人类大脑的理解。在20世纪中叶,随着神经科学的进