2025上合组织论坛:周鸿祎提出“以模制模”应对AI安全挑战

图灵汇官网

5月29日,主题为“智汇中国 智惠上合”的中国—上海合作组织人工智能合作论坛在天津召开。360集团创始人周鸿祎参与了“安全风险与监管治理”话题的讨论,提到人类在享受AI带来的机遇时,也要直面随之而来的安全风险与监管难题。他建议,一方面要借助安全大模型应对大模型的安全隐患;另一方面则需理性看待监管,确保在保障安全的同时,为创新留出足够的空间。

周鸿祎指出,从实际应用角度分析,大模型面临传统安全威胁和自身安全隐患的双重压力,这些问题已经成为阻碍AI产业健康发展的主要障碍,急需全面解决。在传统安全方面,系统漏洞和供应链攻击是AI领域的一大隐患。若漏洞被黑客利用,企业核心商业秘密和个人敏感信息可能被盗,造成不可估量的损害。

此外,大模型本身的安全问题也不容小觑。例如,大模型容易产生“幻觉”现象,还可能受到提示注入攻击的影响,这可能引发严重后果。许多企业基于大模型开发了能自主运行的智能体,这些“数字员工”能够操控多种工具。一旦大模型被恶意控制或出现“幻觉”,智能体可能会误发重要邮件或导致生产线停止运转,从而把风险从虚拟环境带入现实生活,传统安全措施对此类新风险往往无能为力。

周鸿祎强调,必须以创新理念重构安全体系,“以模制模”是解决问题的关键。这意味着利用AI技术的优势,借助安全大模型提升数字安全水平,推动安全防护向智能化转型。据悉,360公司凭借过去十年累计300亿元的研发投入,结合20年的海量安全数据和顶尖安全专家的经验,训练出了专业级的安全大模型,并形成了完整方案。目前,这套安全大模型已在政府、能源、金融、教育等行业广泛应用,帮助企业强化AI安全防护。同时,360发起成立了大模型安全联盟,联合科研机构、高校和行业领军企业,共享技术成果,共同研发安全产品和服务,促进AI安全稳定地融入各领域。

针对监管问题,周鸿祎表示,合理的监管对AI产业的长远发展至关重要。如今,全球多个国家都在制定AI监管政策,目的是规范技术应用,规避潜在风险。然而,由于AI技术更新迅速,既有优点也有不足,因此监管部门需要以务实态度处理,既要保证安全,又要为创新提供支持。

比如,大模型的“幻觉”问题虽然可能引发信息偏差,但也带来了创造性和想象力,尤其在科研领域,如药物分子设计和蛋白质结构预测等方面作用显著。周鸿祎主张,可以参考互联网早期的“避风港原则”,在AI监管中采用灵活管理方式,即在坚持安全底线的前提下,对因技术特性造成的普通错误给予适度包容,激励创新。通过确立统一的技术标准和监管框架,划定清晰界限,引导企业在合规范围内积极尝试创新,防止过度监管削弱行业发展动力。

本文来源: 图灵汇 文章作者: 首席生活家