原标题:人工智能面临的三大安全风险
[据C4ISRNET网站2019年9月10日报道] 安全与新兴技术中心创始主任表示,在人工智能领域的系统保护上,美国政府需要投入更多的精力与资金,否则未来将耗费数十亿美元进行补救。
安全与新兴技术中心是一所位于乔治城大学沃尔什外交学院的研究机构,旨在为美国政府出谋划策并进行智能分析。詹森·马西尼是该中心的负责人,在这所机构成立之前,他曾是美国国家情报部门的副主任。更早的时候,曾担任过美国情报先期研究计划局局长;而现在,他是美国人工智能国家安全委员会的成员之一。
2019年,美国召开了情报和国家安全峰会。詹森·马西尼在专题小组讨论会上表示,虽然美国国防部与私营企业都增加了在人工智能领域中的资金投入,可大家都没有对人工智能系统开发中日益明显的安全隐患给予足够的关注。
詹森·马西尼表示:“我们现在用到的大部分技术在研发时都忽略了一个问题——是否会遇到"聪明的对手",这些技术都还没被攻击入侵过,有点"少不更事"。研发人员需考虑三种主要类型的攻击——对抗样本、木马程序与模型转换。”
对抗样本指的是通过让人工智能系统输出错误分类的数据,对该系统形成干扰。对手可利用人工智能系统处理数据的方式,让该系统“看到”实际上并不存在的事物。
詹森·马西尼表示:“对手可利用这种技术来干扰分类器,使其产生错觉。举个例子:分类器本应"看到"的是坦克的图像,但却把它认作一辆校车或一只海豚了。这是一种让机器学习系统产生视觉幻象的技术。”
对抗样本通常出现在研发成功的人工智能系统上,而研发阶段中的人工智能系统也许会遇到木马程序攻击。在木马攻击程序中,对手可以改变人工智能系统的学习环境,使其学习错误的内容。
第三种类型的攻击称为模型转换,通常出现在机器学习系统中。基本上,入侵者可经由模型转换对机器学习系统执行逆向工程,查看训练该系统的有关信息。
詹森·马西尼表示:“因此,倘若你有一堆即将应用于某个模型上的分类数据,保护好模型确实是有必要的。哪怕它已经完成了最高级别的分类数据的训练,你也得谨慎行事。虽然人工智能技术存在这三个安全隐患,用在人工智能安全领域的研发资金却不到1%。我们现在用于改进大多数信息技术系统的安全措施,就是曾经用来解决20世纪80年代甚至更早时期中系统出现的诸多漏洞的那些措施。在某些情况下,我们就必须在一开始研发人工智能技术的时候就强化安全保障。否则,多年后我们就得花费数十亿美元来升级安全领域了。”(工业和信息化部电子第一研究所 朱航琪 宋文文)返回搜狐,查看更多
责任编辑: