michael-wzhu / Chinese-LlaMA2
- суббота, 22 июля 2023 г. в 00:00:09
Repo for adapting Meta LlaMA2 in Chinese! META最新发布的LlaMA2的汉化版! (完全开源可商用)
就在不久前,Meta最新开源了Llama 2模型,完全可商用,看来Meta势必要与OpenAI (ClosedAI) 硬刚到底。虽然Llama 2对原版的LlaMA模型做了升级,但是其仍然对中文没有太好的支持,需要在中文上做定制化。所以我们决定在次开展Llama 2的中文汉化工作:
同时我们也考虑更为快速的中文适配方案:
注意,为了遵循相应的许可,我们将不会发布完整的模型权重,只发布LoRA权重,其与Meta的LlaMA2权重合并即可形成Chinese-LlaMA2模型。
同时,我们将会围绕Chinese-LlaMA2打造各种垂直领域模型:
2023/07/19 启动LlaMA-2中文大模型;
现在LlaMA-2权重需要在Meta指定的官方网站申请,具体说明见LlaMA-的hf页面。当你没有通过申请时,在这个网页上看到的是一个申请表,你需要根据他的说明进行申请,申请通过后就可以看到权重文件了。
我们现在采用的方案是:使用Chinese-LLaMA的词表,该词表是对llama原始词表的扩充,将词汇量从32000扩展到49953大小。同时LlaMA-2模型会进行embedding层的resize,即采用随机初始化的参数扩展embedding层和lm_head层。
在一些我们关注的垂直领域,我们后续也会自己训一个sentencepiece模型来更新llama-2的词表。
由于扩展词表后,LlaMA-2的embedding层和lm_head层会有随机初始化的参数,所以我们需要采用大规模的预训练学习中文语料的知识。预训练运行以下命令(数据,模型的路径,卡数等需要自行配置):
CUDA_VISIBLE_DEVICES="2,3" ./src/further_ft/run_train.sh
PromptCBLUE与大模型技术交流微信交流群二维码(截止至7月23日有效):
本项目由华东师范大学计算机科学与技术学院智能知识管理与服务团队完成,团队指导老师为王晓玲教授。