堵住AI安全漏洞 法规之外更需技能制衡

堵住AI安全漏洞 法规之外更需技能制衡
现在,AI换脸在网上被玩的不亦乐乎。喜爱哪个明星,就把一切电视剧主角都换成他的脸,假如仅仅单纯文娱,形似也无可厚非。但可怕的是,你的脸很或许会被“植入”到色情视频然后被打包贩卖,乃至你的手机、电脑、智能门锁等运用了人脸辨认技能的设备也或许被AI换脸轻松攻破。有人用AI视频造假,亦或是违法,好像就没那么好玩了。  刷脸付出、人脸辨认……不行否认,人工智能技能给人们的日子带来了许多便当。“但咱们也应当正视,当时人工智能技能还处在开端展开阶段,依然面临着一些应战。”清华大学教授、清华大学人工智能研讨院根底理论研讨中心主任朱军说。  “任何技能都是一把双刃剑,当AI技能运用到越来越多的场景,因为AI算法自身存在缝隙所引发的安全问题有必要引起满足注重。一起,AI技能的乱用也将引发安全隐患,比方隐私与道德问题。当AI开端触碰边界问题,安全性就成为AI展开进程中有必要考虑的课题。”北京瑞莱才智科技有限公司(以下简称RealAI)高档产品司理张旭东在承受科技日报记者采访时说。  技能缝隙带来AI安全问题  回家,到单元楼门口,刷一下脸,门就开了。人脸解锁现已成为日子中最常见的AI运用场景之一。但是,很少有人会想到,当时的AI算法存在显着的“安全盲点”。  RealAI团队就曾做过相关研讨:针对辨认算法缝隙,可生成一类名为对立样本的“噪音”,歹意误导AI算法输出非预期的成果,诱导辨认系统犯错。团队成员经过一张打印上对立样本“噪音”的纸,成功地让研讨目标在辨认系统下完成“隐身”,假如再把纸贴在其他什物上,比方小车模型上,也能够让该物体在辨认系统下彻底“消失不见”。此外,他们还研发了一种带有噪点的“眼镜”,只需戴上,即便不是自己,也能成功破解商用智能手机的刷脸解锁,乃至包含门锁等其他人脸辨认设备。  “AI算法缝隙本质上是安全问题的一大类,而处理安全问题往往是攻防两头不断对立、演化的进程。”张旭东说。现在对干流的进犯手法都有比较有力的防护手法,如能够经过练习模型去除对立“噪音”,或是检测出对立样本今后将其从数据中去除,以及运用进犯算法生成很多对立样本对模型做对立练习等方法来处理这些问题。  因为AI换脸技能也在不段进化,前期换脸技能生成的视频中人物往往不会眨眼,可依据一些较为显着的特征直接肉眼判别。但随着深度假造技能的不断演化,这些辨别方法已不再有用。  “面临这种状况,咱们会依据当时市面上盛行的换脸算法生成海量的练习样本,再结合贝叶斯学习处理还未呈现的新式虚伪视频。简略了解,便是根据干流的乃至更为抢先的生成技能制作出很多传神的假视频,再使用这些假视频练习出一个新的模型。做的假视频越传神,练习出来的模型分辩才干就越强。”张旭东说。  要守好技能和法规两道关  “AI技能乱用最显性的问题在于个人信息被容易‘操作’,这背面或许会引发隐私走漏、身份危机,并且还会催生出愈加隐秘、难以侦查的新式黑产,如色情黑产、金融诈骗等。”张旭东说。  此外,AI技能乱用的潜在效应还将蔓延到群众的信息获取和社会信赖层面,引导大众言论、引发社会信赖危机,比方美国就曾流出国家领导人被恶搞的视频,制作者使用视频鼓动政治暴力、损坏推举、打乱交际。久而久之,难以区分本相的大众无法挑选信任仍是不信任,假如挑选信任或许会持续给不法分子带来可趁之机,假如挑选不信任则或许带来长时间的社会冷酷。  张旭东表明,AI安全问题牵一发而动全身,守好技能和法规两道“关卡”是燃眉之急,一起需求联动社会各界力气,从监管组织、AI科技企业到一般大众一起注重、一起发力才干实在的从根本上使其良性展开。  欢喜的是,AI安全问题现已引起国内相关监管组织的注重。此前,网信办就正式发布《网络音视频信息服务办理规则》,指出自2020年1月1日起,AI造假音视频不得随意发布。新规则中关于AI造假音视频的规则首要有四条:依照国家有关规则展开安全评价、以明显方法予以标识非实在音视频信息、不得使用AI造假技能发布虚伪新闻、布置AI造假音视频辨别技能和健全驳斥谣言机制等。  “当然,最有用、最可行的处理方法仍是依托技能制衡技能。”张旭东说,这首要包含两方面,一是开宣布高精度的AI检测算法与检测产品,从源头阻止虚伪内容的众多传达;二是开宣布相应的“防火墙”技能,从防护端铸造高墙,保证装备了人脸辨认系统的公共安全设备攻不行破。  本报记者 付丽丽 【修改:苏亦瑜】