关于人脸识别滥用的十个可能的应对方案
作者:互联网
本文对此提供十项人脸识别政策建议,大致从人脸数据、测试技术、认证评估主体三个层面予以应对潜在的人脸识别风险。
十大建议核心提要:
- 限制数据存储期限
- 限制数据分享
- 公共场所设立人脸识别标识
- 提升人脸识别精准度
- 开展第三方独立评估
- 减少附带信息收集
- 商业场景纳入opt-in与opt-out机制
- 制定统一的技术标准
- 完善标准化组织认证
- 确保数据代表性以及测试实操化
当前,人脸识别应用不断深入日常生活,在失踪搜救、安保升级、导盲、反恐等领域都有广泛应用,但同时也引发了民众的不安与质疑。
鉴于人脸识别技术的应用尚有众多不确定风险,本文对此提供十项人脸识别政策建议,大致从人脸数据、测试技术、认证评估主体三个层面予以应对潜在的人脸识别风险。
1. 限制数据存储期限
所谓人脸识别(Facial Recognition),是指针对特定场景的静态图像或动态视频,利用现存已存储好的若干人脸图像数据库,验证和识别具体场景下的单个或多个人的身份匹配。
人脸识别通常由三部分组成:具体场景中人脸检测(Face Detection)并分割人脸、抽取分析人脸特征、匹配数据库识别人脸。
人脸图像的长期数字化存储是人脸识别最令人恐惧的原因之一,这些人脸信息有诸多被滥用风险,迫切需要应对方式变革以消解公众焦虑,方式之一就是设置图像与视频存储期限。当处于突发状态的危急情景之际,某些特定图像数据存储确有必要。
一旦危险期已过,则无需保留危急时刻留存的人脸数据。因此,对大多数应用场景来说,限制人脸数据存储期限可以平衡人脸识别带来的多重好处与最小化风险二者之间的利益平衡。
具体存储时间依情景不同而各异。比如为应对突发状况所编译的特定图像具有高瞬时价值,而其他情形则需纳入庞大的数据库已备后续匹配并识别人脸特征。
在此介绍一种保障数据安全性的机器学习模式——联邦学习(Federated Learning)。此种学习模式是一种训练数据去中心化的机器学习方案,确保数据只存储在摄像头终端,而不传输到中央数据中心,从而提升数据安全性。
2. 限制数据分享
同一数据被用于多个不同目的之间分享流转,令人担忧。例如美国车辆管理局将识别图像出售给第三方机构,用于其他场景的人脸识别。
此种担忧在于分享人脸数据过程中,数据主体完全不知晓数据挪作他用,致使知情同意机制失灵,甚至就算数据主体事前知悉,也很可能不同意将面部识别数据分享给商业机构以用于商业化利用。因此,若想要跨场景分享人脸识别数据,必须提供正当化事由。
根据布鲁金斯学会民意调查,民众对人脸识别的态度依场景而异。其中将识别技术用于保护在校学生的同意率高达41%,用于机场安检以及体育场的同意率大致为30%,而同意率最低的则是商店用来防止偷盗。
3. 公共场所设立人脸识别标识
无论是私主体还是公权力机构,当用于拍照、拍摄视频或以其他用途收集公众信息以识别人脸时,都应该在公共场所设立明确的人脸识别标识,明确告知民众此处有人脸识别系统,进而潜在影响公众对公共秩序的遵守。
长此以往,不仅会提升民众对人脸识别使用的公共安全意识,也可保障不愿被记录面部信息的群体之选择自由。
4. 提升人脸识别精准度
人脸识别精准度首先会受到识别对象——不同种族群体的影响。人脸模式特征可以分为肤色特征与灰度特征两大类,肤色作为人脸的重要信息,独立于其他面部细节,具备相对稳定性。但人脸识别系统针对白人的识别准确率要比非白人群体高,并且肤色越深精准度越低,此时识别偏见倾向会被肤色的相对稳定性放大。
此外,由于种族人群的训练数据的不完整和非代表性,也会加剧人脸识别的固有偏见。当该技术应用于执法、边境安全、零售、机场等公共场所时,会存在不同种族群体被偏见、歧视等问题。
另一个造成识别精准度下降的重要因素是光照。毕竟作为三维物体的人脸不可避免地受光照阴影、照射强度等外在因素的干扰。光照会改变人脸图像灰度的相对分布,所以光照引起的人脸图像变化高于个体差异导致的变化。
据卡迪夫大学(Cardiff University)的一项研究表明,澳大利亚曾出现过数千例人脸匹配错误事件。由此看出,在大规模应用于公共场所前,明确人脸识别精准度标准最为迫切,而标准的明确可以从对民众生活的影响度高低来判断。若执法过程中严重干涉到民众的核心权利,譬如被拘捕或监禁,则识别度必然要达到相应级别。
5. 开展第三方独立评估
引入第三方独立评估可以提振民众对其人脸识别产品与服务的信心,消费者希望买到的产品发挥其固有功效,而不产生其他技术问题。为了帮助消费者知晓人脸产品功能与潜在隐患,可考虑建立人脸识别星级评级体系,或者仿照美国能源部与环境保护署共同推行的能源之星计划(Energy Star),将众多人脸识别应用纳入第三方评估认证范围。
6. 减少附带信息收集
部分人脸识别应用会收集与主要目的无关的海量信息,违背“最小够用原则”。例如当警方携带随身摄像机前往现场勘察时,他们不仅在拍摄嫌疑人,也会恰巧拍摄到附近路人。除非有明确表明这些证据与案件相关,否则执法机构无需存留无关信息。当拍摄到的图像不再具有调查价值时,可以模糊处理甚至删除。
7. 商业场景纳入opt-in与opt-out机制
所谓选择加入(opt-in)指的是涉及识别的人脸生物信息在分享利用之前,要获得数据主体的同意。例如,人脸识别技术将检测出的姓名关联到个人画像并向本人推送商业广告的情形下,就需要事前尊重其选择同意权。
在全球加强个人数据保护的大背景下,数据主体愈发关切个人隐私。作为人脸识别背后的生物信息隐私,本身就具备典型的可识别性,属于个人生物数据,理应纳入个人敏感数据范畴被着重保护。
在选择加入机制之外,选择退出机制(opt-out)与被遗忘权也可以适用。在危险系数较低无需长期存储数据的情景中,赋予民众有权选择相关机构不得继续收集或者数据分享维持在可接受的合理水平。而随着时间推移,当初高价值的人脸数据可能逐渐变得过时、不相关、超范围、甚至有害,此时引入被遗忘权就显得非常必要,可以提升民众对人脸识别的接受程度。
8. 制定统一的技术标准
市场私主体制定技术标准以确保产品安全是惯常手段。以当年的移动通讯技术为例,在其尚处于发展阶段之际,业内专家就制定了通信、安全和兼容性的通用标准。所有手机必须满足上述技术规范才能出售。而如今的人脸识别技术也遵循同样道理。
人脸识别技术也应该制定国际通用技术标准,确保人脸技术安全、隐私不受侵犯,缓解世人恐惧。诚如一切技术都具有两面性,人脸识别技术也急需打造“负责任的人脸识别”。
庆幸的是,美国电气和电子工程协会(IEEE)以及美国国家标准与技术研究院(NIST)正在制定统一的技术标准,以规范相关技术应用。
9. 完善标准化组织认证
企业系统安全系数由国际标准化组织(ISO)验证。企业特定产品由ISO组织评估是否满足监管规则要求,第三方机构进行合规测试,从而保障消费者对全流程技术标准的知情权。
在美国,NIST负责产品技术认证。其透过公共数据库去比对人脸检测结果,同时认证相关应用。但有声音批评NIST过度依赖私人网站上的初始数据,无法推广到日常使用场景;NIST数据选择面过窄,只聚焦于与执法相关的人脸数据;测试标准单纯依赖于图像质量与操作功能等等。因此,人脸技术验证应当将自动测试与人工审核相结合,完善标准化组织认证,打造可靠测试与可信验证。
10. 确保数据代表性以及测试实操化
为了确保人脸识别准确度,面部验证、技术标准以及政府合规测试方面需建立在有广泛代表性的、非特定用途的数据基础之上。而在人脸识别商业化浪潮下,采用有表性的数据库用于基线测试以及产品认证显得尤为关键。
单一用途数据例如警用面部照,并不能完整代表所有群体,测试价值会大打折扣。除了数据需要有代表性之外,测试实操化对于提升公众对人脸识别的疑虑也尤其重要。毕竟基于海量图像信息、实际应用环境以及有代表性的人群样本分组之上的人脸识别测试,可以有效克服光照条件以及图像分辨率对测试精准度的负面影响。
注:本研究报告出自布鲁金斯学会(Brookings Institution)于10月31日发布的《10 actions that will protect peoplefrom facial recognition software》。
标签:人脸识别,滥用,十个,精准度,人脸,图像,识别,数据 来源: https://blog.51cto.com/u_15282017/2962215