其他分享
首页 > 其他分享> > 深度学习模型产权保护怎么做?看这些资深大牛分享了什么

深度学习模型产权保护怎么做?看这些资深大牛分享了什么

作者:互联网

在刚刚结束的 IJCAI 2021 大会上,深度学习模型知识产权保护国际研讨会正式举行,这场研讨会由微众银行、马来亚大学、香港科技大学、上海交通大学共同主办。

在这里插入图片描述
机器学习,尤其是深度神经网络(DNN)技术,近年来在诸多领域取得了巨大成功,许多科技公司都将神经网络模型部署在商业产品中,提高效益。
更多相关信息欢迎进Q群交流:953882093
训练先进的神经网络模型需要大规模数据集、庞大的计算资源和设计者的智慧。这具体体现在:

  1. 深度学习模型应用的训练模型规模巨大,以 GPT-3 为例,其预训练所用的数据量达到 45TB,训练费用超过 1200 万美元,有着极高的经济成本;
  2. 深度学习模型在训练部署到工业应用场景过程中(比如智慧金融,智慧医疗应用),需要引入金融、医疗等领域专有先验知识,因此在模型设计过程就需要引入专家的知识和经验来订制模型,这体现了人脑力的知识产权;
  3. 深度学习模型的训练过程,需要特定领域的海量数据作为训练资源,存在数据本身价值和知识属性。

以上属性决定了经过训练的深度学习模型具有很高的商业价值和知识属性,必须将其纳入合法所有者(即创建它的一方)的知识产权。因此,从技术上迫切需要保护深度神经网络(DNN)模型不被非法复制、重新分发或滥用。
在这里插入图片描述
深度学习模型知识产权保护问题,是一个跨学科的综合性议题,涉及计算机安全,人工智能理论与方法、知识产权保护、法律等诸多方面。深度学习模型的盗用、非法复制、分发等,攻击者可以采用技术手段或者非技术手段;但要确认盗用且声明模型所有权,则是完全从技术端来提取证据,以便从法规的角度来认证模型所有权。
具体而言,

据笔者所知,目前尚未有相关的立法具体到深度学习模型知识这一子领域,模型知识产权保护不仅需要科技工作者的参与,也需要知识产权保护领域工作者的关注和努力。

本次研讨会定位于深度神经网络知识产权保护研究的前沿,展示研究机构及高校实验室在此领域进行的最前沿的工作。分别来自德国、芬兰、马来西亚和中国的 8 位学者,就深度学习模型知识产权保护问题,从算法、协议、安全等多个角度出发,分享了他们对模型知识产权保护的思考和工作。

在 Talk 1 中,南京航空航天大学的薛明富老师带来了《DNN Intellectual Property Protection: Taxonomy, Attacks and Evaluations》的主题讲座,他对深度学习模型保护方法进行了分类性的总结,从模型场景、保护机制、保护能力、目标模型等维度,对模型知识产权保护研究进行了梳理,并且总结了针对已有的方法,存在的攻击和挑战,并给出了系统评估的相关建议。这场讲座为模型保护领域总结了研究现状和发展脉络。
在这里插入图片描述
来自德国 Fraunhofer AISEC 研究院的 Franziska Boenisch,同样针对神经网络水印技术分享了视角下的模型知识产权保护的综述研究工作。Franziska 从神经网络水印技术的需求、算法应用、威胁模型等角度回顾了现有的研究工作,以神经网络水印技术的可用性、鲁棒性、可靠性、完整性等要求为主线,串联回顾了已有的模型水印研究,指出了现有的研究存在几大待解决的问题,包括缺乏主动保护机制,算法数据类型案例有限和司法保障和技术研究并轨。
在这里插入图片描述
作为深度学习模型知识产权保护的资深研究者,毕业自马来亚大学以及微众银行 AI 项目组算法研究员 Kam Woh Ng 分享了他所提出的用数字护照保护模型知识产权的方法。

Kam Woh Ng 分析了神经网络模型知识产权保护的相关研究的最新进展后发现,一种旨在通过伪造水印来对所有权验证产生疑问的模糊攻击,对多种基于水印的 DNN 所有权验证方法对 DNN 的知识产权保护构成了严重威胁。

针对上述安全漏洞,Kam Woh Ng 提出了一种新颖的基于数字护照的 DNN 所有权验证方案,该方案既对网络剪枝及微调等修改具有鲁棒性,又能够抵御模糊攻击。嵌入数字护照的关键在于,以一种巧妙的方式设计和训练 DNN 模型,从而使原 DNN 的工作性能在使用伪造护照时大大降低。也就是说,真正的数字护照不仅可以依据预定义的数字签名来进行验证,而且还可以根据 DNN 模型的工作性能来认定。Kam Woh Ng 详细分享如何使用数字护照保护 DNN 以及抵御模糊攻击。
在这里插入图片描述
Kam Woh Ng 的 Passport 模型保护方法提供了一大类通用的模型保护思路,在本次研讨会中,还有其他研究者也分享了模型水印方法具体应用在图像生成、图像概述等模型中的工作。

来自马来西亚马来亚大学的 Ding Sheng Ong,针对图像生成深度学习模型,分享了题为《Protecting Intellectual Property of Generative Adversarial Networks From Ambiguity Attacks(GAN 的知识产权保护方法)》的讲座。

虽然目前已有用于卷积神经网络(CNN)的 IPR 保护方法,但是却不能直接使用在生成对抗网络(GANs)——另一种被广泛用于生成逼真图像的深度学习模型。因此,本文提出了一种基于黑盒与白盒的 GAN 模型 IPR 保护方法。实验结果表明,本方法并不会损害 GAN 本来的性能(如图像生成、图像超分辨率以及样式转换)。本方法也能够抵御去除嵌入的水印(removal)和模糊(ambiguity)攻击。分享中解说了如何基于黑盒与白盒的方式保护对抗生成网络(GANs),以及如何抵御各种水印攻击。
在这里插入图片描述
以科技手段解决时代难题,关注深度学习模型知识产权保护领域,更多深度学习相关资料欢迎扫下方二维码加v交流:
在这里插入图片描述
备注222马上通过
在这里插入图片描述

标签:模型,DNN,大牛,保护,神经网络,知识产权,深度,产权保护,资深
来源: https://blog.csdn.net/weixin_42596342/article/details/120217786