本篇文章2829字,读完约7分钟
随着技术的成熟,普通人遭受计算机病毒的日子似乎已经一去不复返了。然而,另一场更隐蔽、更致命的“病毒危机”正悄悄逼近人类。
新兴的人工智能技术不仅给人类带来了便利,也带来了隐患。一些犯罪团伙利用人工智能技术制作虚假视频来骗取钱财,犯罪分子将女明星的脸变成色情视频出售...一条利用人工智能技术作恶的黑色产业链正在悄然形成,导致许多人遭受金钱和名誉损失。
变脸技术打开“潘多拉盒子”
Deepfake,即众所周知的“变脸人工制品”,在其诞生之初只是一项有趣的技术。由于其逼真的效果和方便的开源访问,它已经被许多技术人员用来制作各种有趣的视频。例如,当“人工智能变脸”首次在中国传播时,它在社交媒体上掀起了一股热潮。有些人把杨幂的脸改成了朱茵扮演的黄蓉。视频中的新“蓉儿”,期待着沈飞,赢得了许多网友的青睐。
但与此同时,由于个人信息很容易被“操纵”,人工智能变脸滥用的负面影响也如火如荼。有人收到一个朋友的“借用视频”,并慷慨捐赠,结果很容易被欺骗;被伪造视频的一方处于谣言的中心,看着他的名誉受损,无法争辩;当涉及巨额资金时,如果对方的信息是伪造的,就有可能破产...这种“人工智能伪造”信息不仅会给个人带来不可挽回的损失,还会造成巨大的社会风险。有人甚至认为人工智能变脸视频足以误导公众舆论,其威力堪比“核武器”。例如,美国曾经播放过国家领导人被欺骗、煽动政治暴力、扰乱选举和外交的视频。
目前,"人人怕变脸"的恐慌引起了国家有关部门的高度关注。今年1月1日起施行的《网络音像信息服务管理条例》规定,人工智能假冒音像制品不得随意发布,应当“按照国家有关规定进行评价”和“显著标志”。
作为一种新技术,人工智能不仅被滥用,而且有足够的安全风险引发焦虑。在去年10月举行的国际安全极客大赛中,参与者通过在胸前放一张印有“图像噪音”的纸,得以逃脱智能监控系统的识别,实现“隐形”。
"这不是无中生有,而是模拟了一个真实的人工智能攻击场景."北京瑞来智能科技有限公司的算法科学家肖子豪说。在去年的国际安全极客大赛中,realai和清华联合赢得了“caad ctf影像对抗样片挑战赛”和“caad隐身挑战赛”,肖子豪是队员之一。人工智能有时会在人类的眼中犯一些“愚蠢的错误”,因为以深度学习为代表的人工智能在反安全样本中有一个很大的盲点,即在原始图像中加入肉眼无法察觉的噪声,会恶意误导人工智能识别算法输出意想不到的结果。
另外,基于深度学习的人工智能本质上是一个“黑箱”,是“无法解释的”。“也就是说,当我们输入一个数据时,人工智能会反馈一个结果,但是这个结论是如何得出的,我们根本无法知道,所以即使有时人工智能会出错,我们也无法解释其背后的原因。”萧子豪说道。
人工智能需要突破“天花板”
一方面,人工智能的安全问题需要受到法律、法规和政府监管的约束;另一方面,要从源头上加强安全评估,提高识别技术能力,通过技术手段提前布局。
2018年6月,清华大学人工智能研究所揭牌成立,以“一个核心、两个融合”为发展战略,即注重人工智能基础理论和方法的研究,积极推进大跨度学科的交叉融合,积极推进技术与产业、学校与企业的大范围融合。
中国科学院院士、清华大学人工智能研究所所长张谦教授在多年研究的基础上,提出了“第三代人工智能”的概念。张忠院士认为,人工智能技术自发展以来经历了两代模型。第一代是知识驱动的符号模型,如专家系统;第二代是数据驱动的机器学习模型,如深度学习和概率统计模型,目前正处于前所未有的繁荣时期。
"然而,这两代技术有着天然的局限性."张忠院士说,目前人工智能虽然发展很快,但在图像识别和语音识别方面只有明显的突破。如果出现数据知识缺乏、信息不完整、不确定等场景,这两代人工智能基本上变得“束手无策”。
"目前的人工智能系统非常脆弱,容易受到攻击或欺骗."张伟院士表示,基于深度学习的人工智能系统不仅需要依靠大数据来“养活”,而且无法解释,存在非常严重的缺陷。"这一缺陷是根本性的,是由其基本理论方法本身造成的."
因此,在一些真正重要的关键领域,如自动驾驶、金融业务决策和医疗诊断,人工智能的进一步发展和应用仍然面临着巨大的问题。
在他看来,以深度学习为代表的第二代人工智能技术正逐渐触及天花板,迫切需要开发下一代人工智能技术,即安全、可靠、可信的人工智能。特别是,安全性将成为下一阶段人工智能发展的必要基础。一旦人工智能的安全性被忽视,将来就很难在更多的场景中以可持续和健康的方式推广人工智能技术。
“人工智能安全”的市场前景是可以预期的
作为“第三代人工智能”概念的提出者,以张忠院士为首的清华研究团队已经展开了相关领域的研究,如结合第一代和第二代人工智能的技术优势,构建基于贝叶斯深度学习的第三代人工智能的基本算法,从而打开了“真正人工智能”的大门。
随着科学技术的发展,张諾院士也提倡工业化。张伟说,作为一个研究机构,清华大学人工智能研究所的职责是做好学术研究。“但人工智能与应用紧密结合,所以我们的研究必须产生算法,研究所必须培育新的人工智能产业。甚至成为人工智能行业的蝙蝠。”真实就是在这种背景下产生的。
作为清华大学人工智能研究所的核心孵化器,realai由清华大学人工智能研究所所长张谦院士和清华大学人工智能研究所基础理论研究中心主任朱军教授共同牵头。顾名思义,realai希望不断突破人工智能技术的界限,探索“真正的”人工智能,引领第三代人工智能技术的产业化发展。
在回应社交媒体平台上引发“虚假信息洪流”的深度假冒变脸视频时,肖子豪表示,“除了隐私泄露、身份危机和声誉风险等个人安全问题之外,这背后的潜在影响可能会波及公众的信息获取。和社会信任度,引导舆论,引发社会信任危机。”在这方面,realai迅速开发了一种检测工具,可以用一个键自动准确地识别假视频,识别准确率达到90%以上。
realai高级产品经理张旭东告诉记者,该检测工具基于第三代ai技术,利用无标记数据和无监督深度生成模型生成高保真可控的伪数据作为数据储备,然后利用这些高质量的数据引导模型自动学习具有较强识别能力的识别特征,提高对伪迹的识别能力,进而识别伪视频。据报道,该产品可在实际应用场景中发挥作用,如虚假内容筛选、在线数据审查、视频物证真实性检验等。
“人工智能安全实际上是一个很大的话题,将来它可能会发展成为一个与网络安全同等规模的市场。”realai首席执行官田甜表示,真正确保ai安全不是少数人的事情。要把从监管者、人工智能技术企业到公众的各行各业的力量联系起来,引起重视,共同努力,从根本上真正使其良性发展。
在人工智能的发展过程中,安全问题将是一个进攻端和防守端不断对抗和进化的动态过程,“进攻”和“防守”之间的博弈将永远存在。“未来realai将继续践行安全可控的技术理念,深化人工智能安全领域,为人工智能产业的健康发展保驾护航。”田甜说。
来源:搜狐微门户
标题:“AI换脸”引发信任危机 人工智能如何才能走得更远
地址:http://www.shwmhw.com/shxw/3307.html