ZKTorch:通过并行证明累积将机器学习推理编译为零知识证明
摘要
随着AI模型在日常生活中的普及,对ML服务透明度的需求日益增长。然而,模型所有者不希望公开权重,因为这些权重被视为商业机密。为解决这一问题,研究者转向零知识证明技术来验证ML模型推理。这些证明能使用户确信ML模型输出正确,同时无需向用户透露模型权重。现有证明方法可分为两类:第一类将ML模型编译为低级电路,并使用ZK-SNARK证明电路;第二类采用专为特定模型类别设计的自定义密码协议。前者效率低下,难以适用于当今的大型模型;后者通用性差,难以适应快速变化的机器学习领域。为此,我们提出ZKTorch——一个开源端到端证明系统,它将ML模型编译为称为"基本块"的基础密码操作,每个块通过专用协议证明。ZKTorch基于对Mira累积方案的新型并行扩展构建,能以最小累积开销生成简洁证明。这些贡献使ZKTorch相比专用协议至少减少3倍证明大小,并在通用ZKML框架上实现高达6倍的证明速度提升。
关键特性
- 并行证明累积:通过扩展Mira方案实现高效并行处理
- 模块化设计:将ML模型分解为可独立证明的密码基本块
- 性能优势:证明大小减少3倍,证明速度提升6倍
应用场景
- 隐私保护的模型即服务(MaaS)
- 可验证的联邦学习系统
- 区块链智能合约中的可信推理