企业应该关注的几种AI攻击类型
即使没有受到 ChatGPT 和 Generative AI 的流行运用,人工智能(AI)技术的应用安全威胁都已经开始显现。安全研究人员表示,在AI技术快速应用发展过程中,其安全性也面临诸多挑战。 1. AI投毒攻击 攻击者可以操纵(毒化)AI模型的一小部分输入数据,以破坏其训练数据集和准确性。最常见的投毒形式是后门投毒,即使极少一部分训练数据受到影响。在很长时间里,AI模型仍然可以继续给出高度准确的结果,并且直到它在无意识地接触特定的触发器电极时被“无意间激活”而自动调节功能暂时性地失灵。 2. 武器化的AI模型 AI技术的研究与创新需要高度的团队协作和迭代开发,因此会涉及大量的共享,包括数据共享和模型共享,这可能会给AI供应链带来重大风险。 3. 数据隐私攻击 围绕AI的一些最大风险实际上是数据安全和数据隐私威胁。如果AI模型没有建立足够的隐私措施,攻击者就有可能破坏用于训练这些模型数据的机密性。 4. 模型窃取攻击 攻击者从AI技术的应用部署中窃取的不仅仅是数据,还可以通过各种类型的攻击手段破解AI模型的运行原理。当然,攻击者可能采取的最直接方法,就是通过网络钓鱼或密码攻击侵入源代码存储库,直接窃取AI模型的实现代码。 5. 提示注入 在软件开发者领域,有一句格言是“永远不要相信用户输入”。否则的话,可能会引发SQL注入和跨站点脚本等攻击。随着生成式AI的盛行,组织也将不得不担心提示注入问题。提示注入是指在生成式AI中使用恶意制作的输入,以诱导出不正确、不准确甚至具有破坏性的模型反应。 (编辑:银川站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |