您的位置:首页资讯软件新闻 → 黑客利用 “损坏” pickle 文件在 HuggingFace 上传恶意 AI 模型

黑客利用 “损坏” pickle 文件在 HuggingFace 上传恶意 AI 模型

时间:2025/2/10 12:53:50来源:www.pc6.com作者:清晨我要评论(0)

近日,网络安全研究人员发现,在知名机器学习平台 HuggingFace 上,有两个恶意的机器学习模型悄然上传。这些模型使用了一种新奇的技术,通过 “损坏” 的 pickle 文件成功规避了安全检测,令人担忧。

image.png

ReversingLabs 的研究员卡洛・赞基(Karlo )指出,从这些 PyTorch 格式的存档中提取的 pickle 文件开头,暗示了其中包含恶意的 Python 代码。这些恶意代码主要是反向 shell,能够连接到硬编码的 IP 地址,实现黑客的远程控制。这种利用 pickle 文件的攻击方法被称为 nullifAI,目的是绕过现有的安全防护措施。

具体来说,Hugging Face 上发现的两个恶意模型分别为 glockr1/ballr7和 who-r-u0000/0000000000000000000000000000000000000。这些模型更像是一个概念验证,而不是实际的供应链攻击案例。虽然 pickle 格式在机器学习模型的分发中非常常见,但它也存在着安全隐患,因为该格式允许在加载和反序列化时执行任意代码。

研究人员发现,这两个模型使用的是 PyTorch 格式的压缩 pickle 文件,且采用了不同于默认 ZIP 格式的7z 压缩方式。这一特征使得它们能够避开 Hugging Face 的 Picklescan 工具的恶意检测。赞基进一步指出,虽然 pickle 文件中的反序列化会因为恶意载荷的插入而出现错误,但它仍能部分反序列化,从而执行恶意代码。

更为复杂的是,由于这些恶意代码位于 pickle 流的开头,Hugging Face 的安全扫描工具未能识别出模型的潜在风险。这一事件引发了对机器学习模型安全性的广泛关注。针对该问题,研究人员已进行修复,并更新了 Picklescan 工具,以防止类似事件的再次发生。

此次事件再次提醒了技术界,网络安全问题依旧不容忽视,特别是在 AI 和机器学习的快速发展背景下,保护用户和平台的安全显得尤为重要。


相关视频

    没有数据

相关阅读 黑客论坛上2000万个OpenAI账户登录信息被售卖,用户需警惕风险马斯克团队利用 AI 处理敏感政府数据,惹争议第一波利用DeepSeek搞钱的人出现了谷歌 X 实验室孵化新创业公司 Heritable Agriculture:利用人工智Gmail 用户警惕:2.5 亿账户面临 AI 黑客攻击威胁​扎克伯格宣布将利用 AI 自动化 Facebook 编程工作首例由o1 pro指导的诉讼案开庭 原告九成资产被骗,利用AI反击永利用户登录下载方法和评测汇总2024

文章评论
发表评论

热门文章 2025年,MCN走到了“分马斯克团队利用 AI 处Hugging Face 推出 “OpenAI前CTO新创业公司

最新文章 黑客利用 “损坏” pi刚刚,Sam Altman深夜 重磅内测,天猫试行微信私域直连2025年,MCN走到了“分水岭”京东外卖“低佣”入局,美团回应“30%高佣”去年近 60 家 AI 初创公司成立一年内获投,

人气排行 2020年放假安排时间表全年图 2020年法定节假2021年放假安排时间表全年图 2021年法定节假微信公众号怎么申请 微信公众号申请要钱吗zune怎么用?zune使用攻略!2014台式机装机配置推荐微信朋友圈三天可见怎么破解 朋友圈仅展示三snmp协议在windows下的安装与配置2016猴年邮票多少钱一套 2016猴年邮票价格表