加入收藏 | 设为首页 | 会员中心 | 我要投稿 银川站长网 (https://www.0951zz.com/)- 云通信、基础存储、云上网络、机器学习、视觉智能!
当前位置: 首页 > 服务器 > 安全 > 正文

卡巴斯基称ChatGPT可用于恶意代码鉴别

发布时间:2023-08-31 10:58:41 所属栏目:安全 来源:
导读:近期,由于大规模通用聊天模型(LCMM)的广泛使用,许多网络安全工作者也开始实验它在抵御安全威胁方面的能力。目前已有多项实验表明,ChatGPT不仅能够对潜在的安全事件进行分类,还能从中发现代码的安全漏洞,即便它

近期,由于大规模通用聊天模型(LCMM)的广泛使用,许多网络安全工作者也开始实验它在抵御安全威胁方面的能力。目前已有多项实验表明,ChatGPT不仅能够对潜在的安全事件进行分类,还能从中发现代码的安全漏洞,即便它没有专门针对此类活动进行训练。

最终,卡巴斯基分析师使用ChatGPT 分析了测试系统上 3500 多个事件的元数据,发现了74 个潜在的危害指标,其中 17 个是误报。该实验表明,ChatGPT 可用于为未运行端点检测和响应 (EDR) 系统、检测代码混淆或逆向工程代码二进制文件的公司收集取证信息。

在此之前,其他安全公司也在研究如何通过此类模型来执行特定的防御相关任务。去年12月,数字取证公司Cado Security使用ChatGPT创建了一个视件中的JSON数据的妥协时间表,生成了一份“不完全准确但总体良好”的报告。

结果是否可用?

由此看出,ChatGPT得出的结果到底是否可用?安全咨询公司NCC集团尝试用ChatGPT作为寻找代码中的漏洞的方法,得到了“不总是准确”的结果。NCC集团首席科学家 Chris Anley 表示,安全分析师、开发人员和逆向工程师在使用如ChatGPT的大型语言模型时要小心行事,尤其是对于许多超出其作战能力范围的任务。

“我赞同专业开发人员和其他使用代码的人去探索 ChatGPT 和类似模型,但更多的是为了获得灵感,而不是为了获得绝对正确、真实的结果,“Chris Anley说道。”用ChatGPT进行安全代码审查不是我们的最佳选择,所以期望它第一次就做到完美是有点不公平。"在这个过程中,我们发现了一些问题,比如,如何确保用户不会误操作,以及如何避免这些错误。

(编辑:银川站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章