近日,一条 #人脸识别一定要穿上衣服# 的话题冲上热搜,有博主发文提醒大家,使用APP人脸识别功能的时候一定要穿衣服,因为摄像头不仅仅只采集被识别者人脸的那一部分,后台真的会有审核人员看到。
另有博主发出人脸识别时用户能看到的画面和后台所显示画面的对比,更加清晰直接地展示了人脸识别的“真相”——你以为识别的只是一张脸,殊不知上半身全照进去了。
在此话题下,不少网友对此说法表示赞同,称一些业务有人工审核流程,确实存在裸露画面被曝光的情况。
面对这种尴尬的“社死”场面,知道真相后的网友们大都表示难以接受,质疑平台存在侵权行为。
专家:人脸识别包含摄像头视野内的全区域
对于网友们的质疑,中国电子技术标准化研究院网络安全研究中心测评实验室副主任何延哲说明,“人脸识别上传的图像不仅仅包括人脸部分,而是摄像头视野内的全部区域。”也就是说,大家在进行人脸识别的时候,不论人脸框内还是框外,只要是在摄像头范围内的画面,全部都会被拍到。但网友们对这个“常识”的反应,则说明了相关领域的科普工作极不到位。
业内人士表示,虽然国家对人脸识别的隐私信息还没有相关法律规范,但大型企业已经普遍采用了隐私计算技术。某人脸识别头部企业的专业人士透露,热搜中App的人脸识别技术提供商可能是人脸识别技术的中小型企业。因为,现在提供人脸识别技术的头部企业和大企业采用的都是隐私计算技术,只会向客户提供脱敏特征码用于比对,不会将图像给送到后台。
这位工作人员认为,大公司的App不太可能会出现此类情况。“目前在一些行业规范里,已对加密传输做出明确要求。一般而言,大公司、银行、政府、公安等在人脸识别的应用上会规范一些。”
那么,针对热搜词条中出现的网友集体大呼的“社死”现象,相关平台对用户是否有告知义务?系统后台查看用户隐私图像的行为又是否构成侵权?这位专业人士表示,后台人工审核时能看到图像的情况“极有可能不合规”。同时他提到,人工智能目前对于数据接口尚未出台标准,建议“国家尽快把区域标准、行业标准、国家标准乃至国际标准体系通路建起来”。
在何延哲看来,法规对企业有制约作用,但不能保证整个流程中没有人违规。从技术角度来说,人脸识别的图像被其他人看到的可能性是客观存在的。对于公众来说,明白风险并尽量避免此类风险,才是保护自己最好的方式。
人脸识别技术争议不减 安全保障+法制规范是关键
长期以来,由人脸识别引发的数据隐私问题一直都在不断发生,人们从一脸懵懂,到窃窃私语,再到公开讨伐,不仅在于大众对于隐私保护的重视和全民安全意识的提升,更在于不可更改的生物信息是个人安全的最后防线。人脸识别的应用场景越铺越开成为必然趋势,不断向前发展,最终到达了一个需要安全技术和法律监管深度介入的十字路口。
在技术层面,安全厂商通过代码加密、通信协议保护、联动检测等手段,来提升人脸协议和数据破解篡改的攻击门槛,针对人脸识别业务提供相关安全解决方案。
在监管层面,7月6日,备受关注的《深圳经济特区数据条例》全文正式公布,明确“人脸识别”不能强制使用——除了该生物识别数据为处理个人数据目的所必需且不能替代外,应当同时提供处理其他非生物识别数据的替代方案。
在此之前,6月1日实施的《广东省社会信用条例》明确禁止商家采集自然人生物识别信息。1月1日实施的《天津市社会信用条例》禁止企事业单位、行业协会、商会等采集人脸、指纹、声音等生物识别信息。在云南、浙江、江苏、北京等地,“售楼处肆意采用人脸识别数据杀熟”、“小区门禁强制刷脸”等相关新闻被报道后,也纷纷出台了地方规定,以收紧人脸识别在物业管理、房地产销售等领域的应用,规范商品房销售场所及其他场景下人脸识别系统的使用行为。