AI 编程助手能通过规则文件生成后门


Pillar Security 研究人员报告,通过分发恶意规则配置文件,GitHub Copilot 和 Cursor 等 AI 编程助手能被操纵生成包含后门、漏洞和其它安全问题的代码。AI 编程智能体(AI agent)使用规则文件指导在生成或编辑代码时的行为。例如规则文件可能包含指示助手遵循某些编程最佳实践、使用特定格式或以特定语言输出响应的指令。Pillar 研究人员的攻击技术被称为“规则文件后门(Rules File Backdoor)”,通过向规则文件注入人类用户不可见但 AI 智能体可读的指令,武器化规则文件。一旦将含毒的规则文件导入 GitHub Copilot 或 Cursor,AI 智能体在帮助受害者编程的同时阅读并遵循攻击者的指令。


© 版权声明
文章版权归作者所有,未经允许请勿转载。

前一篇:

后一篇:

发表回复