译者 | 核子可乐
审校 | 重楼
随着市场热情接纳ChatGPT、Claude、Cursor和GitHub Copilot等AI驱动编程智能体的过程中,许多开发者似乎忘记了一个基本事实:代码的意义不止在于是否有效,更应重视安全性、可靠性与可维护性。
本文将结合实践经验,探讨AI辅助开发可能造成的隐患,并提供清晰可行的规避策略。
风险一:看似正确的代码却可能埋下“暗雷”
AI往往会生成语法正确、能够顺利编译及运行,但在特定条件下却会引发行为异常的代码。
真实案例:AI建议的函数中暗藏数据损坏风险。
看着没毛病,对吧?但其不会更新数据库——因为find()返回的是副本,而非引用。这可能会悄悄破坏整个生产环境中的数据逻辑。
修复:
规避方法: 坚持验证所使用数据模型及数据库方法。请记住,AI无法识别你的数据架构。
风险二:上下文缺失导致的安全漏洞
AI经常会忽略掉关键上下文,例如身份验证、授权与数据清洗,这些问题在动态路由或表单中体现得尤其明显。
真实案例:Admin Route中未进行授权检查。
没有中间件、也没有访问控制,因此该路由可能在生产环境中暴露。
修复:
规避方法:添加安全提示词,而后手动检查各路由的访问控制。
风险三:使用不受信的输入进行依赖项注入
AI可能在不知不觉中建议将用户控制的变量注入至不安全的上下文当中。
真实案例:通过未转义的变量进行模板注入
修复:
规避方法:
切勿盲目信任由用户输出生成的输出——注意进行转义或代码净化。
如何避免落入上述陷阱
谨慎处理提示词: 在提示词中包含“安全”、“可靠”、“类型检查”及“惯用”等术语。
审查所有内容: 默认所有内容都无法达到生产环境要求。审查代码的正确性、安全性及上下文。
结合静态分析: 使用ESLint、SonarQube或SAST等工具来捕捉结构性缺陷。
编写测试(配合AI):要求AI生成边缘用例测试,而后自动扩展。
注意,AI只是我们的辅助“大脑”,而非辅助工程师。
写在最后
AI智能体的确擅长提出新思路并显著提升效率。然而,在代码的安全性和可维护性方面,人类仍将长期占据主导。
总之,请相信你自己的判断,而非过度依赖自动补全。
原文标题:The Hidden Risks of Coding with AI Agents (and How to Avoid Them),作者:Irvan Gerhana Septiyana
还没有评论,来说两句吧...