如何给 GitHub Copilot "洗脑”,让 AI 精准遵循指令产出高质量代码
引子
最近在项目中使用 GitHub Copilot 的过程中,我发现了一个很有趣的现象。
当我让 Copilot 帮我写代码时,它总是热情满满地给出一大段实现。但当我仔细审视这些代码时,却经常会发现各种小问题——缺少错误处理、异常情况没考虑、命名不规范、没有单元测试,有时甚至会出现一些”魔法数字”。
这让我想起了那些刚入行的程序员,技术不错,但是对软件工程的规范和最佳实践还不够了解。他们写出来的代码能跑,但总让资深工程师皱眉头。
这些 AI 工具确实能提高效率,但如何让它们不仅提高效率,更能精准地产出符合工程实践的高质量代码,甚至达到一种”洗脑”般的效果,让它们乖乖听话,这成了一个值得思考的问题。