“EDPB 和 EDPS 呼吁全面禁止任何使用人工智能来自动识别公共空间中人类特征的行为,例如识别面部、步态、指纹、DNA、语音、和其他生物特征或行为信号,”两家监管机构在一份联合意见中表示。
同样,EDPB和EDPS建议禁止人工智能系统使用生物识别技术将个人分为不同的群组,依据是种族、性别、政治或性取向,或《基本权利宪章》第21条禁止歧视的其他理由。此外,EDPB和EDPS认为,使用人工智能来推断个人的情绪是非常不可取的,应该被禁止,除非是非常特殊的情况,例如基于某些健康目的,而且应该禁止使用人工智能进行任何类型的社会评分。
在捍卫公民隐私权这件事情上,欧盟态度一向十分严格。早在2020年1月,欧盟就曾发布一份关于人工智能技术应用的白皮书报告中表示,欧盟将制定新的法规,拟5年内禁止在公众场所使用人脸识别技术,以防止技术被滥用。
作为全球公民个人隐私保护最苛刻的地区,在欧洲,人工智能已经受制于各种各样的条例,包括隐私权、非歧视性等规定,这些规定广泛试用于医疗健康、交通运输等领域。
针对日益趋严的监管举措,目前一些欧盟专家也提出了反对意见,有人表示,过于严格的数据保护法极大的限制了欧盟人工智能领域的创新和发展。而一些被限制使用人脸识别技术的政府部门和警察机构也认为,禁止使用人脸识别技术将有碍于维护社会公共安全秩序。
在捍卫公民隐私权这件事情上,欧盟态度一向十分严格。早在2020年1月,欧盟就曾发布一份关于人工智能技术应用的白皮书报告中表示,欧盟将制定新的法规,拟5年内禁止在公众场所使用人脸识别技术,以防止技术被滥用。
作为全球公民个人隐私保护最苛刻的地区,在欧洲,人工智能已经受制于各种各样的条例,包括隐私权、非歧视性等规定,这些规定广泛试用于医疗健康、交通运输等领域。
针对日益趋严的监管举措,目前一些欧盟专家也提出了反对意见,有人表示,过于严格的数据保护法极大的限制了欧盟人工智能领域的创新和发展。而一些被限制使用人脸识别技术的政府部门和警察机构也认为,禁止使用人脸识别技术将有碍于维护社会公共安全秩序。
当前在我国,在315晚会曝光商家滥用人脸信息进行精准营销的案例后,人脸识别技术背后的个人信息安全风险正在被大众所知。虽然商业领域对生物识别技术的滥用已掀开一隅,但更多日常生活中的如监控探头、社区门禁、智能垃圾桶等等场景仍然未能引起大众的重视。
为避免该技术的滥用,我国人脸识别技术政策也正在收紧,目前全国多地已出台相关政策限制人脸识别数据收集,如天津已立法禁止采集人脸信息,南京、杭州等地也相继出手监管人脸识别技术数据采集。随着相关法律制度的建立和完善,何时该采集人脸信息,人脸信息被采集后该怎么用、如何管,这些问题都正在被规划出明确的边界。
在安全419看来,一辆车想要开得越快,就越需要刹车的质量过硬来提供安全保障。同理,人脸识别的技术越先进、应用越广泛,就越需要建立健全相应的安全举措。
一项创新技术的应用,机会推动社会的发展和进步,但也有可能会突破社会原有的规范,带来一些社会伦理和法律风险问题,而对于不断暴露出来的安全隐患,无论是监管机构还是大众,都不应因噎废食,而是要辩证的看待发展和安全的关系,并对此保持足够的重视。