尽管在制造业中广泛使用人工智能(AI)和机器学习可能还需要几年的时间,但这两种技术都已开始进入工厂车间并超越了工厂。这些技术的潜在应用范围广泛,因为通过连接的传感器和设备传递的前所未有的数据量使经过适当培训的AI算法可以帮助优化生产流程。
尽管如此,作为 种相对较新的技术,目前还缺少AI标准,这可能会阻碍其在工业中的进 步应用。特别是,缺乏标准可能会导致运营商难以实施,与其他系统的互操作性不足,对 佳实践的了解不足,甚至可能存在网络安全漏洞。
这就是为什么标准的发展常常预示着 项新技术开始成熟的原因。标准不仅可以通过加快创新来帮助供应商,而且还可以向 终用户发出信号,表明该技术已根据许多参与标准制定过程的参与者所同意的标准被确定为有效。简而言之,标准可降低成本,传达重要信息并提高可靠性。
ETSI安全人工智能行业规范小组(SAI IG)当前是致力于保护AI的第 组织, 近发布了 份报告,描述了主要障碍,重点关注机器学习以及与机密性,完整性和可用性相关的障碍在技??术生命周期的每个阶段。此外,该报告探讨了人工智能面临的更广泛的挑战,例如偏见,道德规范和滥用的可能性。
“围绕AI道德有很多讨论,但没有关于确保AI安全的标准的讨论。然而,它们对于确保基于AI的自动化网络的安全性至关重要。” ETSI SAI ISG主席Alex Leadbeater说道。“第 份ETSI报告旨在对保护AI时面临的挑战做出全面定义。同时,我们正在研究威胁本体,如何保护AI数据供应链以及如何对其进行测试。”
在该报告中,机器学习生命周期分为八个阶段,每个阶段都有其自身的独特风险:数据获取,数据策划,模型设计,软件构建,培训,测试,部署和更新。
在数据采集和管理阶段,主要问题是完整性。换句话说,当集成来自多个来源或多种格式的数据时,测量参数或数据结构的不 致性可能会导致适应不良的机器学习算法,从而导致糟糕的决策甚至是危险的决策。此外,该报告还考虑了恶意行为者可能故意破坏数据以在手术中造成混乱的可能性。
尽管模型设计和软件构建阶段被认为是相对安全的,但该报告发现,在机器学习算法的训练阶段,类似的甚至是更为严重的安全问题可能会出现。
例如,如果攻击者使用旨在欺骗算法以输出包含有关原始训练数据信息的标签的合成输入数据来增强训练数据集的机密性,则可能会损害其机密性。这种类型的数据泄漏可能需要与业务相关的信息,例如知识产权或敏感的人员信息。
SAI IG希望通过阐明围绕AI和机器智能的主要问题,目前尚未提出改善这些问题的明确标准。