(原标题:AI之下无隐私? 旷视校园人脸识别产品引发争议)
旷视科技对学生人脸的监控,以及ZAO事件,折射出人工智能技术本身的双刃剑特性——一方面代替重复性劳动,但同时带来随时监测个人生活的“惊悚感”。
在人工智能高速发展过程中,技术与个人隐私之间的矛盾确实是“不可调和”的,作为企业主体,更该主动进行用户数据安全的保护。
当人工智能等前沿技术逐渐应用于现实场景,投资人与创始人口中所谓的“数据优势”是否以牺牲用户隐私安全为代价?
近日,关于人脸识别技术与个人数据安全之间的矛盾、学生个人到底有无隐私等讨论见诸网端。一张带有“MEGVII旷视”图标、面向校园学生学习状态的视频监控图像也在网络上引发热议,图片显示,该技术针对两名教室中的女生面部特征进行分析,分别显示出各自相应的课堂行为数据,如趴桌子、玩手机、睡觉、听讲、阅读、举手等。
AI技术是把双刃剑
针对网络端对旷视监控教室内学生一举一动的批评声,旷视方面对第一财经记者回应称,近日网络上出现的一幅课堂行为分析图片为技术场景化概念演示,旷视的智慧学校解决方案可以协助学校管理人员提升效率并保障学生安全,主要用于智能校门、教室门及宿舍的出入,方便学生安全出入校园。
知乎上关于“如何看待旷视科技新产品监视学生上课”的话题下,一位ID为李小粥、职业为高级产品经理的用户发表观点称:“如果可以监视学生甚至量化学生的行为数据,那我们是否可以去监控每个教师、辅导员、校长的日常工作?如果今天的技术可以采集学生微表情,那未来是否会发展到采集脑电波、人体磁场、热力图、情绪等更加私密的生理特征?我们又是否愿意接受这样的监控?”
该疑问提出的考量,来自于对人工智能技术采集个人数据的担忧,一位不愿透露姓名的人工智能领域研究人士对第一财经记者表示,旷视科技对学生人脸的监控,以及ZAO事件,折射出人工智能技术本身的双刃剑特性——一方面代替重复性劳动,但同时带来随时监测个人生活的“惊悚感”。他称,一般来讲业内会将现实生活场景的可视化视为好事,但前提是需要界定人工智能时代,什么数据是隐私?什么数据可开放?
企业方应主动保护数据安全
实际上,人脸识别技术此前早已步入校园与学生生活。
2015年,清华大学在高校信息化建设中首次引入人脸识别技术,通过识别系统和智能设备,实现学生自行注册、自行办理火车票优惠卡充值、自行打印成绩单、自行办理在读证明等各项业务;2018年,全国各地初中以“提升校园安全”为由,在校园门口安装人脸识别考勤系统,以南京中国药科大学为例,其在校门、图书馆和宿舍都安装了人脸识别门禁。
此次旷视之所以引发争议,很大程度在于其将原本简单的签到、注册、买票等业务升级到对微表情的分析,其官方对该技术介绍称:“在课堂教学评价系统中,旷视科技将自主研发的人脸识别、行为识别、表情识别等技术,集成在考勤及行为分析摄像机MegEye-C3V-920和行为分析服务器中。通过对课堂视频数据进行实时的结构化分析,反馈学生行为、表情、专注度、前排上座率等多维度课堂数据,辅助教学评估评价。”
国外对人脸识别技术的落地应用采取了更为彻底的管制。
今年4月5日,当旧金山监事会(TheSanFranciscoBoardofSupervisors)通过一项法案,禁止政府部门(受联邦政府管辖的机场、港口等出入境场所不在此例)使用面部识别技术,并规定城市机构在购买其他类型的监控技术之前获得城市议会批准。而近期,欧盟(EU)的一项数据保护法规首次在瑞典实施,其规定,一项涉及人脸识别软件的学校实验被认为是非法的,同时引发教育机构中是否应使用人工智能技术的讨论。此外,欧盟在2018年出台的GDPR规定称,公司在收集用户包括面部等生物特征数据前必须经得个人同意,如有违反,企业可以被罚款金额达其全球收入的4%。
云测数据总经理贾宇航对第一财经记者表示,在人工智能高速发展过程中,技术与个人隐私之间的矛盾确实是“不可调和”的,作为企业主体,更该主动进行用户数据安全的保护。他以谷歌为例称,2018年,谷歌核心战略以云计算与人工智能为核心,但步入2019年,在世界范围内多次爆发用户数据安全事件后,谷歌将战略重心转移至注重用户隐私安全的边缘计算领域,很多用户数据存储于手机端,不会回传至云端。从该案例也可以看出公司主体主动对数据安全方面的考虑。