机器人之警惕:人工智能在网络安全方面的恶意使用
小标 2018-10-25 来源 : 阅读 1456 评论 0

摘要:本文主要向大家介绍了机器人之警惕:人工智能在网络安全方面的恶意使用,通过具体的内容向大家展现,希望对大家学习机器人有所帮助。

本文主要向大家介绍了机器人之警惕:人工智能在网络安全方面的恶意使用,通过具体的内容向大家展现,希望对大家学习机器人有所帮助。


近日,26位来自斯坦福、耶鲁、牛津、剑桥和OpenAI等顶尖科研机构的科学家,联合发布了一篇题为《恶意使用人工智能:预测、预防和缓解》的报告,就世界范围内人工智能技术的恶意使用进行了综述,其中也重点提及了AI在网络安全方面的恶意使用问题。


双刃剑

人工智能可以代替人类执行数据分析任务,从效率上来看,它可以在20毫秒甚至更短的时间内执行数百万条指令,令很多以前看上去不切实际的任务变得迎刃而解。

但不可否认的是,AI是一把双刃剑,其对网络安全的威胁事件正在频繁出现,并且能攻破现有的防御措施,更准确地锁定目标——这一切都是因为AI技术也掌握在恶意人员的手中。


当前的机器学习和端点保护

如今,机器学习已广泛应用于下一代端点保护系统中,比如最新的反恶意程序软件。它之所以被称为“机器学习”,是因为系统内的AI算法能从数百万乃至更多的样本和恶意软件的行为模式中进行“学习”。机器学习可以将检测到的新模式与已知的恶意模式进行比较,并生成潜在恶意行为的概率等级,其速度和精度能达到人类难以企及的程度。


这很有效,但有两个附加条件:取决于“学习”算法的质量,以及它所“学习”的数据集的完整性。

潜在的滥用可能出现在两个方面:一是操控甚至改变算法;二是污染机器学习的数据集。此外,该报告还警告说:“机器学习算法对内存溢出之类的传统漏洞‘持开放态度’。”

当然,网络攻防双方的基本冲突并不会随着机器学习的出现而改变:每一方都试图对另一方保持领先,而每一方的成功只能维持很短暂的时间。我们需要认识到,正如我们第一次使用抗生素对耐药菌株的效果最好一样,利用AI技术的新型防御措施,也只有在最开始的时候最为有效,因为恶意人员还没有制定相关的规避和对抗策略。所以随着时间的推移,我们将会看到利用机器学习技术的恶意攻击也会随着AI防御策略的应用而变化。

好在,网络安全行业意识到了AI潜在的恶意使用,并且已经在考虑如何应对。在创新安全措施并保持领先地位方面,安全公司正在与同行和黑客进行三方竞争,目前已经取得了不错的成果。



研究人员提出了保护机器学习算法安全性和安全使用的三条准则:首先是理解并适当限制AI与系统或端点的交互;其次是理解和限制数据的摄取;再次,完成模型建立后,主动在部署之前和之后探测它的盲点。

 

身份问题 

该报告将“身份”作为潜在恶意使用AI的第二个领域展开了讨论。

在人脸识别方面,人工智能识别和生成图像的能力正在迅速提高,其影响既有正面的,也有负面的。毫无疑问,人脸识别对于侦查犯罪行为和恐怖分子是有益的,但应用不当的可能仍然存在。



 

上图为2014年和2017年的合成图像对比

比如一种名为CycleGAN的深度学习模型,能轻松地将一类图片转换成另一类图片。利用AI技术,已经能够伪造极度仿真的人物声音、神态及动作,生成难以识别的虚假视频、图像。不法分子可以利用AI技术伪造出相关人员的样貌,进而冒用其身份骗过身份认证系统,窃取钱财或机密数据。

在语音识别和语义理解方面,人工智能也有着很多有益的应用,这可以更好地进行生物识别——如果AI不是一把双刃剑的话。在AI技术的加持下,随着人脸识别和语音识别的广泛应用,图像、文本和音频的合成也有了迅速发展。 “这就意味着可以伪装成任何人,或通过社交媒体分发AI生成的内容来影响舆论。”

该报告称,用AI生成假新闻要更常见,也更现实。但是从危害程度来讲,通过AI技术滥用、冒用身份,还能进行更有针对性的鱼叉攻击,这将对企业网络安全和国家安全带来更大危害。

研究人员建议,需要改进当前的身份验证方法。“随着机器和人类之间的(网络行为)界限变得越来越模糊,我们将会看到身份认证方式的转变,比如在登录计算机或工作系统时。今天,身份认证被用于区分人类用户,防止一个人的身份被另一个人冒用。在未来,我们还需要区分人类和机器。”

显然,在人工智能时代,仅凭人脸、语音、指纹识别,并不能严格确认一个人的身份,毕竟它们被获取和伪造的成本实在太低。有研究表明,每个人的(物理)行为特征是独一无二、不可复制的。将行为识别作为身份认证的方式时,若要冒用一个人的身份,恐怕得复制那个人,并且训练“副本”模仿出一模一样的行为特征才行。这显然是不现实的。正是因此,基于AI的行为识别才是身份认证的趋势。


伦理问题

此外,报告还讨论了AI使用民众大数据的隐私或伦理道德问题,并指出随着GDPR的生效,这一问题将有望得到改善。

在这个问题上,研究人员认为道德规范不应该成为防范AI被恶意使用的焦点。“我们需要更加重视恶意人员使用AI的能力,但绝不能通过限制AI技术的发展来防止这种情况的发生。”


 结  语 

该报告表明,利用AI技术,生成“假”身份(文本、图像、语音、视频)的社会工程学将变得非常容易,而且,恶意使用AI造成的网络安全威胁还会持续增多。AI会在质量和数量上提高、扩大我们今天面临的同样的威胁,不过与此同时,AI也能增加和改善针对这些威胁的防御措施。如果要防范利用了AI技术的网络攻击,那么,安全厂商也应该积极地在其产品中使用人工智能技术。

“机器学习可以让攻击者轻松、快速地发现无数漏洞,但请记住,这些技术也掌握在白帽子手中……最终的情况可能看起来和现在一样。”


本文由职坐标整理并发布,希望对同学们有所帮助。了解更多详情请关注职坐标人工智能智能机器人频道!


本文由 @小标 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式IT培训就业服务领导者 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved

208小时内训课程