贵阳电脑网 > 办公设备 > AI造假 vs AI打假 终结“猫鼠游戏”不能只靠技

AI造假 vs AI打假 终结“猫鼠游戏”不能只靠技

[导读]:人脸识别作为生物识别中的重要手段,成为了近。年身份识别中最热门的领域。但与人脸识别技术共同发展的,还有借助机器学习系统、图像视频和音频内容,更改人脸、物体或环境呈...

人脸识别作为生物识别中的重要手段,成为了近。年身份识别中最热门的领域。但与人脸识别技术共同发展的,还有借助机器学习系统、图像视频和音频内容,更改人脸、物体或环境呈现方式的深度伪造技术。随着这一技术的日趋成熟,其引发的;诸多社会问题也,开始凸显。在对抗虚假视:频方面,目前各方在寻求技术突破的同时,也致力于在制度建设方面做出改变。

俗话说“眼见为实”,人们往往对看到的、图像、视频深信不疑,而随着Photoshop、美图秀秀等图像编辑软件的兴起,人工智能造假技!术的更迭,图像;篡改变得越来越容易,假图片、假新闻等在网上泛滥成:灾,人们也愈发不敢相:信自己的眼睛。

为了应对美国大选季期间高发的虚、假信息,近日,谷歌决定出手,以AI治A!I。有专,家指出,深度伪造技术(Deepfake)是AI发展到一定阶段的产物,随着这种技术的发展,相应的检测技术也会越来越先进;——如同“猫抓老鼠的。游戏”,将是一;场永无休止的“竞赛。

假视频越来越逼线月,在北美“上映的电影《爱尔兰人》反响?热烈,其中令人咋舌的是电影特效制作公司运用虚拟影像重建技术,将片中主角们集体“减龄”,抹平年近80岁演员们容颜上的岁?月痕迹,使之重新“焕发青春。这种让耄耋之年的演员重回年轻模样的“换脸”技术着实让?观众;心头一震。

“De?epfake专指基于人工智能的人体图“像合成技术,主要应用!于‘换脸’,其在很多领域:有积极的商业价值,但是一旦被‘黑产’盯上用作谋利工具,则会给个人和社会带来风险和挑战。”远望智:库人工智能事业部部长、图灵机器人首席战略官谭茗洲介绍说。

这其中最饱受争议的是“换脸”技术、被一些:情色网站利?用。不久前,网络上走红的“一键脱衣”软件D“ee、pNud“e,只要输入一张完整的女性图、片就可自;动生成相应裸、照,并且生成照片存在着广泛传播的风险,最终在各方压力下这款APP被下架。

不仅!如此,不久前还出现了语音版的D;eepfake。加拿大一家创业公司开发出的语音合成系统RealTa“lk,仅基于一定的文本输入即可生成和真人声音十分相似的声音。演示中,系统模仿了美国一位著名:脱口秀喜、剧演员、主持人的声音,以至”于本人听后高呼“真的可怕”。而未来这种技术还可能会发展到只需几秒钟的音频素材,即能复制出他人声音的程度。

让人更为头疼的是,Deepfak”e技术让;虚假信息“如虎添翼”,尤其在社会重大事件中能够起,到”强劲搅拌作用,以至于可能会影响到;人们决策以及社会稳定。据相关文献,2016年美国总统大选前的一个:月内,每个美国网民平均会接触1—3篇假新闻。2020年初,新冠肺炎病毒席卷全国,就有造假?者运用上述技术伪造钟南山院士发言,而针对“辟谣”的百度搜索指。数(1月19日—1月25日)与去年春节期间相比,增长了5.4倍。

“自Deepfake2017年年底首次出!现以来,随着其技术的开源,合成剪辑视频的数量不断增长。要对付假视频,就要在网络海量信息中,快速找到虚假图片,并对图像识别后精准提取其中语义,这也是目?前人工智能算法上的核心研究发力点。”谭茗洲表示。

“目前图像篡改类型主要分。为复制—粘贴、拼接、图像修补/局部区域去除和人脸PS四大类。”行业专”家曹娟博士近日在接受科技日。报记者采访时指出,“既有的检测方法主要基于手工特征方法和深度学习的方法,前者包括基于图像的物理属性(光照不连续、阴影、不连续、色差等)、相机属性(颜色滤波阵列、传感器。噪声、EX;IF数据分析等)、压缩痕迹(DCT系数、块状效应等)、像素级属性(复制—粘贴、重采样等);后者包括Encoder-Decoder模型、约束卷积模型和Multi-domain模型等。”

“魔”高一尺,“道”可高一丈、吗?近日,谷歌母公、司、Alpha?bet旗下!的Jigsaw联手Google Rese“arch、美国马里兰大学?等多”家研究机构,开发了名为Assembler的实验平台,旨在帮助应用者通过简单操作,快速识别Deepfake,减少AI技术“滥用所带来的伤害。

谭茗洲介绍:“实际上,这个平;台是把、多个?图像检测器集、成为一个工具,每个检测器都针对特定类型的图像进行处理。比如,有的检测器能判断图像是否有复制粘贴痕迹,检测主要关注!图像颜色、噪点等。”

具”体而言,其机:器学习模;型既能利用图像的颜色值来查找异常,也能检查图像的噪“点模式;是否存在不一致。算法上,能够查找被编辑过的J、PEG压缩图像区域外观相似的区块,以判断其中一个图像是否被复制粘贴到另一个区域上。

“然而,真实场景中,媒体经常面对的是经过复杂”处理、后编辑的低分辨率的图像,这就给检测技术带来新的挑战。光用底层算法不能准确抓住图像上损失掉的篡改痕迹,还需:要结合。高层语。义算法来,识别。”曹娟说。

曹娟进;一步指出,现有检测假视”频的方法尚存在三个主要局限性。第一,通用性不。够,大部分检测只针对特定类型的篡改,如何寻找篡;改的共同属。性,让模型能应对多种篡改类型是未来的研究重点之一。第二,对抗,能力不够,目前篡改手段不断;隐蔽,经过复杂的处理,篡改痕迹往往会消失,导致检测性能大大下降。如何提高模型的鲁棒性,应对各种真实的应用场景,是未来的核心任务。第三,目前的方法基本都是对图像划分成。小块,再逐块处理,非常耗时耗资源。

国际咨询公司Gartner曾预测:到2020年,互联网虚假信息或产!生更大危害,基于人工智能技术的造假能力或将远超虚假检测的能力。2018年3月,《科学》杂志刊登的一篇论文指出:近年来虚假新闻的兴起,突显出互联网时代现有的对抗错误信息制度和技术的不足,目前迫切需要“重建一个保证信息真实性的信息生态系统。

2019年9月5日,脸书(“Facebook)相关?负责人宣布,脸书正与微软公司联合包括美国麻省理工学院、英国牛津大学、美国康奈尔大学等在内的多所大学研究检测Deepfake的方法,同时非营利性研究组织Partnership o;n AI也参与其中,该组织的成员包括谷歌、苹果、亚马逊、IBM等大:型科技公司。

曹娟介绍说,在研究方面,除Assem!bler平台之外,目前国内做的比较好的有中科院计算所、中科院自动化所、北京交通大学、中山大学、深圳大学等,国外的美国加州大学伯克利?分校、美国宾汉姆顿大:学、美国马里兰大学等。同时,很多企业和、研究?机构也在积极研发实用的图像篡改检测工具和平台,如美国Amped Software公司开发的Amped Authenticat、e工具。

2019年11月29日,国家互联网信息办公室发布!《网?络音视频信息服务管理规定》,要求网络音视频信息服务提供者应当具有与新技术新应用发展相适应的安全可控的技术保障,部署违法违规音视频。和非真实音视频鉴别技术。

专家建议,防治虚假视频,有关,部门要建、立相关管;理制。度,特别是新闻视频、新闻内容管理方面;在传播渠道上,要建立”过滤机制,在技术上实“现高效。过滤,并且还要对;所有造假视频、音频实现溯源,同时,增加对检测技术研发资金的投入,激发技术创,新。

本文来自投稿,不代表贵阳电脑上门维护-贵阳电脑保洁服务-贵阳打印机维修-贵阳办公设备维修-贵阳耗材-贵阳IT外包官网立场,如若转载,请注明出处:/bgsb/2020/0227/1366.html

说点什么吧
  • 全部评论(0
    还没有评论,快来抢沙发吧!