Meta 推出全新 AI 指南:聚焦高风险系统的管控
Meta 最近出台了一项新政策,目的是加强对公司自主研发的高性能人工智能系统的管理。尽管 Meta 的首席执行官马克·扎克伯格曾提到未来计划推出通用人工智能(AGI),但依据最新公布的《前沿人工智能框架》,公司在某些情况下可能会限制相关系统的发布。
这份名为《前沿人工智能框架》的文件具体阐述了 Meta 认定的两类高风险人工智能系统:“高风险”系统和“关键风险”系统。按照 Meta 的界定,这两类系统都可能被用于网络攻击、化学攻击或生物攻击。“关键风险”系统可能引发难以解决的重大灾难,而“高风险”系统虽也可能提升攻击的可能性,但整体稳定性稍逊一筹。
文件中列举了一些具体的威胁场景,例如自动化入侵企业级系统以及生物武器的传播。Meta 承认,这并非所有潜在灾难的完整清单,但确实是公司认为目前最紧急且最有可能出现的情况。
在评估这些系统风险时,Meta 并未单纯依靠实验数据,而是综合了内外部专家的意见,并由管理层进行最终审批。Meta 表示,这是由于现有的风险评估标准无法提供明确的量化指标来准确衡量系统风险。
如果 Meta 判定某个系统属于“高风险”类别,公司将限制其内部使用,并在采取措施将其风险等级降至“中等”之前,不会对外发布。对于被归为“关键风险”的系统,Meta 将采取更多安全手段,阻止这些系统被非法获取,并暂停其开发,直到风险得到妥善处理。
此外,Meta 表示,《前沿人工智能框架》会随人工智能领域的进展不断更新。此前,公司已承诺会在法国人工智能行动峰会上提前分享这一框架。此举似乎是针对公司开放开发模式遭遇的一些质疑。不同于 OpenAI 选择将系统隐藏在 API 后面的做法,Meta 更倾向于以更为开放的形式向公众提供人工智能技术。
Meta 还称:“我们认为,在权衡开发和部署尖端人工智能技术的利弊时,或许能找到既能保持技术对社会的正面作用,又能有效管控风险的方式。”
通过这种方法,Meta 希望在推动创新的同时,保障技术的安全与可靠。