LLaMA 2:开放基础和微调聊天模型
LLaMA 2是LLaMA的第二代版本,提供7B、13B和70B参数规模的模型。与第一代相比,训练数据量翻倍(2T token),上下文长度从2K扩展到4K。LLaMA 2引入了经过指令微调的聊天模型(LLaMA 2 Chat),通过人类反馈强化学习(RLHF)优化对话能力。Meta还开放了LLaMA 2的商业使用许可。
LLaMA 2 is the second generation of LLaMA, offering models at 7B, 13B, and 70B parameter scales. Compared to the first generation, it doubles the training data (2T tokens) and extends context length from 2K to 4K. LLaMA 2 introduces instruction-tuned chat models optimized through RLHF. Meta also opened commercial licensing for LLaMA 2.