Limfang

A3-CodGen A Repository-Level Code Generation Framework

代码生成框架A3-CodGen的深度解析与思考 一、研究背景与动机 核心痛点分析 当前主流LLM(如ChatGPT、GitHub Copilot)在代码生成中存在三大关键缺陷: 本地信息盲区: 无法感知当前模块的变量定义、类成员、函数签名等结构信息 导致生成代码时出现变量未声明、函数重名等基础错误(如”忘记提取标签文本再判断是否为列表项”的案例) ...

Xnorm and Code

Xnorm 规范化(Normalization)的核心是为了让不同层的输入取值范围或者分布能够比较一致。 在堆叠式的神经网络中,高层的网络会受到之前所有底层网络参数变化的影响,导致该高层网络的输入的分布产生较大的改变,这种现象被称为内部协变量偏移(Internal Covariate Shift)。随着网络深度的增大,这种差异会变得更加显著,从而影响模型的训练速度和最终性能。 输入分布变...

SFT RLHF DPO

SFT RLHF DPO 大模型训练三步走,pre-training、SFT、RLHF。 1 LLM的SFT 参考资料 微调是一种有监督的技术手段,是在已具备广泛知识基础的大型预训练语言模型上(基座LLM),利用针对性的数据集实施额外的训练过程,旨在使模型更精准地契合特定任务需求或深入某一专业领域。微调的核心目标在于实现知识的精细化灌输与指令系统的精确匹配,所以SFT的重点是学习样式和指...

Trending Tags