OWASP发售大型语言模型漏洞威胁
目前,全世界各家企业都非常关注利用生成性人工智能技术的基于大模型的技术(也就是 LLM)。作为一种创新技术,企业组织在未来数字化发展中有很多机会应用ChatGPT或类似AI工具。因此,CISO们需要提前做好准备,以避免可能出现的安全隐患和隐私泄露风险。 1、提示注入(LLM01:2023) 提示注入是指通过精心制作的提示绕过内容监管过滤,使其忽略先前的指令或执行非法的操作。 2、数据泄露(LLM02:2023) 当LLM通过其响应意外泄露敏感信息、专有算法或其他机密资料时,就会发生数据泄漏。这可能导致未经授权访问敏感数据、侵犯个人隐私及其他安全隐患。 3、不充分的沙箱机制(LLM03:2023) 如果LLM在访问外部资源或敏感系统时未加适当隔离,不充分的沙箱机制就会导致潜在的漏洞、未经授权的访问或LLM违规操作。和不充分的沙箱机制相关的常见漏洞包括:LLM环境与其他关键系统的数据存储区隔离不足,不充分的限制任由LLM访问敏感资源,以及LLM进程的执行相对应的系统级控制的操作/与其他系统级进程之间的交互。 4、不完善的访问控制(LLM08:2023) 这种漏洞是指LLM在应用中未正确实施访问控制或身份验证,允许未经授权的用户与 LLM 进行交互,从而产生可被利用的安全漏洞。常见例子包括:未对访问LLM执行严格的身份验证要求,基于角色的访问控制(RBAC)实施不充分,允许用户执行超出预期权限的操作,以及未为LLM生成的内容和操作提供适当的访问控制。一种新型电子装置,包括一壳体、一显示面板、一第一开关、一第二开关、一控制电路、一存储器以及一处理器。 (编辑:银川站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |