Meta FAIR最近发布的一项研究直指这个问题,他们提到:传统大语言模型在训练时,通常将代码视为一种特殊的静态文本。模型学习的是代码从左到右、从上到下的文本预测。这种方法存在一个根本性的缺陷:它只学到了代码的“静态语法 ...