盛唐教育基地-舞蹈班-音乐班-英语班-口才班-书法绘画班-表演班

0379-80880295

盛唐教育基地 > 新闻列表 > 被AI“监视”的课堂 是否侵犯学生的隐私?
被AI“监视”的课堂 是否侵犯学生的隐私?
作者:未知  发表时间:09-17 00:00:00   来源:网络

1、旷视科技智慧学校解决方案进校园,实质上是为了保证旷视的营收,这样的产品已经不可逆转的走进了校园。

2、AI技术的滥用从根本上摧毁了每一个人作为个体的独立性、尊严和自由。

3、很多科技公司打着技术先进性的幌子,套着AI的血统,把大量的产品向教育体系里倾销。

4、现在所谓的AI人工智能系统采购,对教育领域信息化的供应商来说是一块香饽饽。

5、中国的人工智能企业有75%以上濒临破产,因为找不到好的应用场景来落地,不能将技术转化为有效的营收,这时候教育就成为一块唐僧肉,这就是赤裸裸的生意。

6、在没有更好的道德约束和法律规范之前,基于人工智能的监控、监视、识别的体系不能跑的太快,否则会引发不可预知的效果。

近日,位于江苏南京的中国药科大学在部分教室“试水”安装了人脸识别系统,用于日常考勤和课堂纪律管理。学生进教室后系统自动识别个人信息,自动签到签退,全程监控学生上课听讲情况,就连你发呆、打瞌睡和玩手机等动作行为都能被识别出来,逃课和“替同学答到”或将成为历史。然而,该校有学生担忧此举有侵犯个人隐私之嫌。对此,中国药科大学图书与信息中心主任许建真表示,学校之前已向公安部门和法务部门咨询,由于教室属于公开场所,因此不存在“侵犯隐私”的说法。后期,学校将根据教务部门反馈意见,视情况而定是否在所有教室都安装人脸识别系统。

上图是一幅所谓的AI创业企业独角兽旷视科技,给南京中国药科大学开发的一套系统,它可以通过摄像头与AI人工智能的技术来实时监控在课堂上的大学生的学习状况以及他们的表情,并将用于日常的考勤和课堂纪律管理。

消息传出后引起轩然大波,赞同者少之又少,一片反对之声。大家都立即意识到这是不是在侵犯合法的个人的隐私?

最近,旷视科技还计划在香港上市,并递交了招股说明书。对此该公司发表声明称:近日,网络上出现了一幅课堂行为分析图片,为技术场景化概念演示,仅是概念演示,不是真的。并称旷视在教育领域的产品,专注于保护孩子在校园的安全。旷视的智慧学校解决方案可以协助学校管理人员提升效率,并保障学生安全,主要用于智能校门,教室门及宿舍的出入,方便学生安全出入校园等等。

对于该声明,如果只看第二段的话可以接受,进食堂,进出校门,刷个脸,没问题。但是原图的真实场景中,底下坐的是很多教育系统中旷视的客户,这是一个典型的一个商业招商,推介公司产品的一个商务会议现场。

在现场之中,上述图片列出来的绝不是仅概念演示,实际上是对其产品赤裸裸的推介,所以说这样一套产品已经不可质疑的、不可逆转的走进了校园之中。

在网上有一部特别好的境外剧,叫做黑镜,在黑镜第四季的某一集中出现一个妈妈为了自己的孩子不做噩梦,就将孩子的大脑连上传感器,放入各种摄像头,随时捕捉、随时感知孩子的情绪的变化,然后来操纵孩子能看到什么。

一个母亲爱孩子的心,可以理解,但是这样一种技术的滥用是不是从根本上就摧毁了每一个人作为人的独立和尊严,以及自由?

一石激起千层浪之后,各路媒体对此事的表态和评论是众说纷纭。

燕赵都市报称,“是人脸识别?还是人身监视?”

教育视频在线称“如此管理,一举三得。”

新京报称,“人脸识别防逃课,真是呵护学生嘛?”

河北日报称,“不妨宽容以待。”

澎湃新闻称,“警惕成为懒老师的遮羞布。”

太原晚报称:“课堂细节需要大数据来分析嘛?”

红网称,“为你好,也不能矫枉过正。”

央视网评说的更好,“技术的进化,教育的退化。”

事实上,有这样一股歪风、邪风,打着技术先进性的幌子套着AI的外衣,把大量的产品向教育体系里头进行倾销。比如说在上海中医药大学附属闵行蔷薇小学还上马了AI智慧校园项目。帮助孩子锻炼体操,看动作准不准,无所不用其极。

而这样的歪风,它并不是在中国市场刮起来的,在海外已经刮了一两年了。

在2017年的时候,很多的海外网友也在琢磨,怎么能对抗越来越普遍、越来越无孔不入的人工智能监视。俄罗斯的搜索巨头Yandex的技术开发总监,发明了一种反面部识别方法。日本的一位教授也为了保护隐私发明了利用红外发光二极管来干扰人脸识别的眼镜。

这样的人工智能已经快成为一场轰轰烈烈的闹剧,但是在这些看似闹剧的背后,不妨仔细深究事件的原因。

洛阳教育机构:在人工智能来临的背景下,全球价值观都在发生激烈的碰撞。 

【新闻背景】

开心3次,厌恶5次,举手10次,阅读11次,听讲6次,玩手机3次,睡觉1次……学生们没有想到,有一天自己在教室里的一举一动会被人脸识别系统记录在案。火爆的人脸识别技术走入教育行业,引发了不小的争议。值得一提的是,国外也曾有过类似的案例。

近期,被称为“欧洲史上最严隐私条例”的《通用数据保护条例》(GDPR)首次在瑞典被引用并开出罚单。瑞典北部的一所高中运用人脸识别技术进行学生考勤,即使这一试验事前已获得家长们的同意,但瑞典政府认为,由于试验的受测者和实施者所掌握的信息过于不对称,因此处罚了推动这一试验的地方当局。

最近三年,旷视科技的营收和亏损额同比在大量增长。比如说旷视科技在最近三年内的营业收入分别达到6780万元,3.13亿元和14.27亿元。分别亏损是3.43亿元,7.58亿元和33.52亿元。

在增收的同时,亏损额也在不断的放大。这个也可以理解,一个创业的初期的企业,需要大量的投入以及消费者的补贴来进入市场,圈占用户,甚至对AI,人工智能这个领域,也需要花费大量的成本去进行市场教育。

比如教育领域采购,从最早的电子白板、电教室……到现在的所谓的AI人工智能系统采购,对很多教育领域的信息化供应商来说,这是一块香饽饽。第一它是吃财政饭的,相对应的预算资金比较稳定而持续。

第二,企业一旦打入教育体系,会成为长期供应商,长期享受不断的新预算追加带来的营收。

第三是截至到今年的6月份,国内最近三年之内的人工智能企业,75%以上已经濒临破产,因为找不到合适的应用场景来落地,不能将技术转化为有效的营收,这时候教育就成为他们紧紧盯着一块唐僧肉。

这实际上与关怀学生健康成长没关系,企业只是关怀自己的营收和利润增长,能不能确保拿到下游的融资和未来上市的机会,这就是赤裸裸的生意!

有一句话说的很好,当技术的发展已经远远跑到了社会伦理、社会道德以及社会法律底线的前面的时候,最后需要的不是谨慎,而是暂停了!

人们可以利用AI技术和摄像头去监控农田、水利等客观物理世界的对象。当把这些摄像头,把这些监控系统对准了活生生的人的时候,难道没想到会影响到整个下一代的成长的身心健康吗?不应该是所有的学生都有个性化的自由的成长?

所以建议教育系统之内的信息采购,如最近涉及到的AI人身监控系统的问题,相关主管部门需要讨论,在充分讨论之后能有一个共识来支撑技术和教育行业的协同健康发展。

第二点,在知乎上关于上述问题有很多讨论,有一个得票率、得赞数最高的一个匿名的发言非常值得思考,该发言称,此事不是一个技术人员、一个工程师、一个旷视科技公司,或者一所大学、中学、小学校园所能解决的,而是整个社会的价值观出了问题。

洛阳教育机构:在人工智能来临的背景下,全球价值观都在发生激烈的碰撞。

比如在欧洲,欧洲去年正式开始实施了一个非常严厉的基于对个人数据隐私保护的通用数据管理条例GDPR。而基于这个条例,在瑞典发生了一个非常有名的案例。

瑞典北部的一所高中同样运用AI人脸识别技术对学生进行考勤,并且在进行试验前,已经获取家长的同意。但是瑞典政府还是认为,试验的受测者和实施者所掌握的信息过于不对称,因此处罚了推动这一项目的地方当局。

不仅如此,美国的很多州,比如纽约市已经严禁将科技公司的AI监控技术引入到议会场所。虽然高科技公司很不忿,经过充分的讨论,各方达成了一个基本的共识,即在没有更好的道德约束和法律规范之前,基于人工智能的监控、监视、识别的体系不能贸然的往前跑太快,否则可能会引发很多的不可预知的后果。

值得注意的是,在监控技术、智能分析技术逐渐被引入到人们的日常生活、工作和学习中后,生物特征识别会为每一个人建立起生物识别特征数据库。细思恐极,在云端大数据里面,每个人都是“赤裸裸”的,没有任何隐私和秘密可言,甚至还会被这些数据引导、操纵。

举一个例子,微软曾从2016年开始设立全球最大的生物识别特征对象库,每一个对象就对应着一个人,一个活体人的面部的表情、视频、音频、照片等等。到了今年6月份的时候,该数据库已经积攒到了1000万以上的数据对象,而微软在6月份公开宣布删除该数据库,并不再提供相关数据库的共享服务。

回过头来,在国内人工智能产业积极发展背景下,很多渴望营收的人工智能企业兴冲冲地杀进了教育领域,却丝毫不顾及自己的社会责任、开发技术造福人类和回馈社会的初心,怎么看这都是一场悲剧。

编辑人:郭利博 242浏览
声明:如本文内容涉及版权或真实性问题,请与本站编辑部(2027545290@qq.com)联络。 新闻热线:0379-80880295
头条新闻
最新课程

友情链接