人工智能面临的三大安全风险

[据C4ISRNET网站2019年9月10日报道]安全和新兴技术中心创始主任表示,美国政府需要在人工智能领域的系统保护上投入更多的精力和资金,否则未来将花费数十亿美元来补救这一局面。

安全和新兴技术中心(Center for Security and Emerging Technologies)是一家位于乔治敦大学沃尔什外交学院的研究机构,旨在为美国政府提供建议和智能分析。

詹森·马西尼是该中心的负责人。在该组织成立之前,他是美国国家情报局副局长。

此前,他曾担任美国情报高级研究项目主任。现在,他是国家人工智能安全委员会的成员。

2019年,美国举行了一次情报和国家安全峰会。

詹森·马西尼(·马西尼)在小组讨论中表示,尽管美国国防部和私营企业增加了在人工智能领域的投资,但每个人都没有足够重视人工智能系统发展中日益明显的安全风险。

詹森·马西尼说:“我们现在使用的大部分技术在研发中忽略了一个问题——它们是否会遇到“聪明的对手”。这些技术以前没有受到攻击和入侵,这有点“少了,没有了”。

研究人员需要考虑三种主要类型的攻击——反样本、特洛伊木马程序和模型转换。

“对抗样本指的是通过允许人工智能系统输出错误分类的数据来干扰人工智能系统。

反对者可以使用人工智能系统处理数据,让系统“看到”实际上不存在的东西。

人工智能面临的三大安全风险
詹森·马西尼说:“反对者可以利用这项技术来干扰分类器,使其产生错觉。

例如,分类器应该“看到”坦克的图像,但它认为那是校车或海豚。

这是一项允许机器学习系统产生视错觉的技术。

“对抗样本通常出现在成功开发的人工智能系统上,而处于开发阶段的人工智能系统可能会遇到特洛伊木马攻击。

在木马攻击程序中,对手可以改变人工智能系统的学习环境,使其学习错误的内容。

第三种攻击称为模型转换,通常发生在机器学习系统中。

基本上,入侵者可以通过模型转换在机器学习系统上执行逆向工程,以查看用于训练系统的相关信息。

詹森·马西尼说:“因此,如果你有一堆机密数据要应用到一个模型中,那么保护这个模型就非常必要。

即使它已经完成了最高级别机密数据的培训,您也必须小心谨慎。

虽然人工智能技术存在这三大隐患,但用于人工智能安全领域的研发资金不足1%。

我们现在用来改进大多数信息技术系统的安全措施是在1980年代甚至更早的时候用来解决系统中许多漏洞的措施。

在某些情况下,当我们第一次开发人工智能技术时,我们必须加强安全保障。

否则,我们将不得不花费数十亿美元在许多年内升级安全领域。

未经允许不得转载:威尼斯人现金游戏 » 人工智能面临的三大安全风险
分享到:
赞(0)

评论抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址