项目简介
Meta的Code LLaMA 已发布 ,可以免费商用,这是一个针对编码任务进行fine-tuning的Llama2版本 与Llama2相同的许可证,可用于商业用途 发布了3个版本 Code Llama:基础模型。Code Llama Python:专门针对Python的模型。Code Llama Instruct:针对指令跟随进行的fine-tuning。Meta发布的Code LLaMA代表了AI在编程领域的一个巨大飞跃。这不仅仅是一个常规的大型语言模型,而是针对特定编码任务经过优化的模型,预示着未来编程的新时代。首先,这意味着开发者可以期待更精确、更高效的代码生成和建议。专门针对Python的版本可能会为Python开发者带来更具针对性的帮助,而“指令跟随”版本则为那些需要模型按照特定指令行为的开发者提供支持。更为重要的是,这可能标志着AI与人类开发者之间协作的新时代的开始。在这个时代中,AI不再只是一个简单的工具,而是一个合作伙伴,可以理解复杂的编程任务,提供专家级的建议,并根据开发者的需求生成代码。总的来说,Code LLaMA的发布可能预示着一个时代的转变,其中AI成为软件开发的核心,助力开发者更快、更有效地创新和解决问题。
下载
要下载模型权重和标记器,请访问 Meta AI 网站并接受我们的许可证。
一旦您的请求获得批准,您将通过电子邮件收到签名的 URL。然后运行 download.sh 脚本,并在提示开始下载时传递提供的 URL。确保复制 URL 文本本身,右键单击 URL 时不要使用“复制链接地址”选项。如果复制的 URL 文本以:https://download.llamameta.net 开头,则您复制正确。如果复制的 URL 文本以:https://l.facebook.com 开头,则您复制的方式错误。
先决条件:确保您已安装 wget 和 md5sum 。然后运行脚本: bash download.sh 。
请记住,链接将在 24 小时和一定下载量后过期。如果您开始看到诸如 403: Forbidden 之类的错误,您可以随时重新请求链接。
安装
在具有 PyTorch / CUDA 的 conda 环境中,克隆存储库并在顶级目录中运行:
pip install -e .推理
不同的模型需要不同的模型并行 (MP) 值:
Model 模型MP 国会议员
7B 7b 1
13B 13b 2
34B 34B 4
所有模型都支持高达 100,000 个令牌的序列长度,但我们根据 max_seq_len 和 max_batch_size 值预先分配缓存。因此,请根据您的硬件和用例进行设置。
项目链接
https://ai.meta.com/blog/code-llama-large-language-model-coding/
https://github.com/facebookresearch/codellama
悟空CRM产品更多介绍:www.5kcrm.com