【安全资讯】AI幻觉代码依赖成为新的供应链风险

安恒恒脑 2025-04-12 19:00:46 127人浏览

概要:

随着生成式AI工具在编码中的广泛应用,一种新的供应链攻击方式——“slopsquatting”应运而生。这种攻击利用AI模型的“幻觉”特性,生成虚构的包名,可能导致开发者安装恶意软件。了解这一新兴威胁对于保护软件供应链安全至关重要。

主要内容:

“Slopsquatting”是安全研究员Seth Larson提出的术语,指的是攻击者利用生成式AI工具生成的虚构包名,创建恶意软件包并上传至如PyPI和npm等软件包索引。研究表明,在对576,000个生成的Python和JavaScript代码样本的分析中,约20%的推荐包并不存在。尤其是在开源大型语言模型(LLM)中,如CodeLlama和DeepSeek,幻觉现象更为严重,而商业工具如ChatGPT-4的幻觉率也高达5%。

研究发现,超过200,000个独特的幻觉包名中,43%在相似的提示中被重复使用,58%在十次运行中至少出现一次。这表明,攻击者可以通过观察少量模型输出,轻松识别可行的slopsquatting目标。尽管目前尚未有迹象表明攻击者已开始利用这一新型攻击方式,但研究人员警告,幻觉包名的普遍性和可重复性使其成为潜在的攻击面。

为了降低这一风险,开发者应手动验证包名,切勿假设AI生成的代码片段中的包是真实或安全的。使用依赖扫描器、锁定文件和哈希验证来确保包的版本安全,是提升安全性的有效方法。此外,降低AI“温度”设置(减少随机性)也能有效减少幻觉现象,确保在生产环境中运行或部署AI生成的代码之前,始终在安全的隔离环境中进行测试。
数据泄露 恶意代码 科技公司 IT行业
    0条评论
    0
    0
    分享
    安全星图平台专注于威胁情报的收集、处理、分析、应用,定期提供高质量的威胁情报。