为何大语言模型不会取代码农?( 二 )


但回到当前存在的问题……
GenAI会取代人类吗?这些GenAI工具有可能代替真正的程序员吗?除非模型提供的编程答案具有的准确性提高到了可接受的误差范围内(即98%-100%) , 否则可能代替不了 。
不过为了便于讨论,我们假设GenAI确实达到了这个误差范围 。那么这是否意味着软件工程的角色将发生转变,您只需审查和验证AI生成的代码,而不是编写代码?如果四眼原则(four-eyes principle)适用的话 , 这样的假设可能是错误的 。这是内部风险控制最重要的机制之一,要求任何实质性风险的活动(比如交付软件)都要由第二个、独立的、有能力的人进行审查和复核 。除非AI被重新归类是一种独立的、有能力的生命体,否则它短期内应该没有资格成为四眼原则中的另一双眼睛 。
如果GenAI将来有能力进行端到端开发和构建人机界面,那也不会是在不久的将来 。LLM可以充分地与文本和图像元素进行交互 。甚至现在就有工具可以将网页设计转换成前端代码 。然而与编码相比,AI单独承担与图形和UI/UX工作流程相关的设计要困难得多,尽管并非不可能 。编码也只是开发的其中一部分 。剩余的工作就是另辟蹊径,弄清楚谁是受众,将想法转化为可以构建的产品 , 然后加以完善和改进,这正是人类发挥作用的地方 。
不管LLM变得有多好 , 对于程序员来说,有一条原则应该始终不变:像对待自己编写的代码一样对待每一段代码 。请同行评审 , 询问同事“这是好的代码吗?” 。永远不要盲目相信代码 。
原文标题:Why Large Language Models Won’t Replace Human Coders,作者:Peter Schneider




推荐阅读