国内生成式人工智能的用户数量在2024年底已经突破6亿。越来越多的人开始利用AI来处理生活和工作中的问题,这已经成为一种普遍的习惯。但与此同时,隐私安全问题也日益突出。许多用户担心将敏感信息交给云端大模型后,可能会发生数据泄露。
一家来自清华大学计算机系的企业正在研究一种新技术,帮助解决这个问题。他们开发了一种密态推理引擎,能够在不暴露数据的情况下进行计算,让用户的隐私得到更好的保护。
在当前的数据经济中,数据可以被无限复制,这让数据拥有者的权益难以保障。这家企业还计划推出密态训练引擎,防止数据被非法复制,从而确保数据交易的安全性和公平性。
该团队参加了创业邦举办的DEMO CHINA大赛,并成功获得最高奖项“DEMO GOD”。他们的技术得到了《人民日报》等权威媒体的关注。
密态计算是一种可以在数据不解密的情况下进行计算的技术。这项技术如果能够广泛应用,将极大改变数据流通的方式。但由于性能问题,它一直难以落地。
目前市场对高性能、可应用的密态计算有强烈需求。传统方法在加密后计算速度会大幅下降,而使用专用硬件又会增加成本。
密态计算有两种主要形式:一种是基于GPU-TEE的机密计算,另一种是基于密码学原理的密码级计算。两者各有优劣,前者安全性有限,后者兼容性好但计算成本高。
除了这些技术,其他隐私保护方法如联邦学习也有各自的优势,但在实际应用中仍存在不足。
荆华密算的团队在安全与AI结合的领域深耕多年,专注于解决密态计算的性能问题。他们选择只针对AI计算场景优化,平衡了安全性和效率。
他们的技术已经被应用于某大厂的全球数据处理项目,有效保护了用户隐私。
公司成立于2024年9月,2025年6月正式运营。成立初期就获得了千万级别的投资。
团队认为,以公司形式运营能更好地服务客户。他们希望把技术转化为实际产品,满足用户的真实需求。
对于用户来说,上传数据到云端存在风险,但本地部署成本太高。密态推理引擎正好解决了这个问题,让用户在不牺牲性能的情况下享受更高的安全性。
密态训练引擎则用于保护数据交易中的权益。数据容易被复制和转卖,导致数据提供方损失利益。密态训练可以防止这种情况,实现数据的多次变现。
这两种引擎正在研发中,预计将在今年底和明年第一季度推出。
公司专注于AI领域的隐私保护,不追求全面覆盖,而是希望在特定场景中成为最优解。他们相信,如果性能进一步提升,基于密码学的密态引擎可能成为行业标准。
未来,荆华密算将继续专注于技术研发,推动解决AI使用和数据流通中的关键问题。