torchtune.models¶
llama3.3¶
仅文本模型来自Llama3系列的3.3版本。
重要提示:在下载之前,您需要先在 Hugging Face 上申请访问权限。
要下载 Llama-3.3-70B-Instruct 模型:
tune download meta-llama/Llama-3.3-70B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>
用于创建使用默认 70B 参数值初始化的 Llama3.3 模型的构建器。 |
|
用于创建启用 LoRA 的 Llama3.3 70B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama3.3 70B 模型的构建器。 |
注意
Llama3.3 分词器重用了 llama3_tokenizer 类。
llama3.2¶
仅文本模型来自Llama3系列的3.2版本。
重要提示:在下载之前,您需要先在 Hugging Face 上申请访问权限。
要下载 Llama-3.2-1B-Instruct 模型:
tune download meta-llama/Llama-3.2-1B-Instruct --output-dir /tmp/Llama-3.2-1B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>
要下载 Llama-3.2-3B-Instruct 模型:
tune download meta-llama/Llama-3.2-3B-Instruct --output-dir /tmp/Llama-3.2-3B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
用于创建以默认 10 亿参数值初始化的 Llama3.2 模型的构建器。 |
|
用于创建以默认 30 亿参数值初始化的 Llama3.2 模型的构建器。 |
|
用于创建启用 LoRA 的 Llama3.2 1B 模型的构建器。 |
|
用于创建启用 LoRA 的 Llama3.2 3B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama3.2 1B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama3.2 3B 模型的构建器。 |
注意
Llama3.2 分词器重用了 llama3_tokenizer 类。
llama3.2 Vision¶
从Llama3系列的3.2版本中获得的视觉-语言模型。
重要提示:在下载之前,您需要先在 Hugging Face 上申请访问权限。
要下载 Llama-3.2-11B-Instruct 模型:
tune download meta-llama/Llama-3.2-11B-Vision-Instruct --output-dir /tmp/Llama-3.2-11B-Vision-Instruct --hf-token <HF_TOKEN>
Llama 3.2 视觉 11B 模型 |
|
Llama3 视觉模型的数据变换(包括分词器)。 |
|
返回一个应用了LoRA的Llama3.2视觉版本( |
|
用于创建启用 QLoRA 的 Llama3.2 视觉 11B 模型的构建器。 |
|
构建与 Llama3 模型关联的解码器,并添加额外的融合交叉注意力层。 |
|
通过结合 CLIP 图像模型与额外的投影头融合模块,构建 Llama 3.2 视觉编码器。 |
|
构建与 Llama3 模型关联的解码器,并添加额外的融合交叉注意力层。 |
|
通过结合 CLIP 图像模型与额外的投影头融合模块,构建 Llama 3.2 视觉编码器。 |
|
Llama 3.2 Vision 的视觉编码器模型。 |
|
投影 Transformer,用于将预训练冻结编码器(CLIP)的输出适配到预训练的解码器模型。 |
|
此变换结合了 Llama 3.2 Vision 不同模态的变换。 |
注意
Llama3.2 分词器重用了 llama3_tokenizer 类。
llama3 & llama3.1¶
Llama3系列的模型3和3.1。
重要提示:在下载之前,您需要先在 Hugging Face 上申请访问权限。
要下载 Llama3.1-8B-Instruct 模型:
tune download meta-llama/Meta-Llama-3.1-8B-Instruct --output-dir /tmp/Meta-Llama-3.1-8B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>
要下载 Llama3.1-70B-Instruct 模型:
tune download meta-llama/Meta-Llama-3.1-70B-Instruct --output-dir /tmp/Meta-Llama-3.1-70B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
要下载 Llama3.1-405B-Instruct 模型:
tune download meta-llama/Meta-Llama-3.1-405B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
要下载上述模型的 Llama3 权重,您可以改为从 Meta-Llama-3-8B-Instruct 和 Meta-Llama-3-70B-Instruct 下载,并移除忽略模式标志。
构建与 Llama3 模型关联的解码器。 |
|
返回一个应用了LoRA的Llama3版本( |
|
用于创建使用默认 80 亿参数值初始化的 Llama3 模型的构建器。 |
|
用于创建启用 LoRA 的 Llama3 8B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama3 8B 模型的构建器。 |
|
用于创建使用默认 70B 参数值初始化的 Llama3 模型的构建器。 |
|
用于创建启用 LoRA 的 Llama3 70B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama3 70B 模型的构建器。 |
|
Llama3 的分词器。 |
|
构建与 Llama3.1 模型关联的解码器。 |
|
返回一个应用了LoRA的Llama3.1版本( |
|
用于创建使用默认 80 亿参数值初始化的 Llama3.1 模型的构建器。 |
|
用于创建启用 LoRA 的 Llama3.1 8B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama3.1 8B 模型的构建器。 |
|
用于创建使用默认 70B 参数值初始化的 Llama3.3 模型的构建器。 |
|
用于创建启用 LoRA 的 Llama3.3 70B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama3.3 70B 模型的构建器。 |
|
用于创建使用默认 405B 参数值初始化的 Llama3.1 模型的构建器。 |
|
用于创建启用 LoRA 的 Llama3.1 405B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama3.1 405B 模型的构建器。 |
注意
Llama3.1 分词器重用了 llama3.llama3_tokenizer 构建器类。
llama2¶
Llama2系列的所有模型。
重要提示:在下载之前,您需要先在 Hugging Face 上申请访问权限。
下载 Llama2-7B 模型:
tune download meta-llama/Llama-2-7b-hf --output-dir /tmp/Llama-2-7b-hf --hf-token <HF_TOKEN>
要下载 Llama2-13B 模型:
tune download meta-llama/Llama-2-13b-hf --output-dir /tmp/Llama-2-13b-hf --hf-token <HF_TOKEN>
要下载 Llama2-70B 模型:
tune download meta-llama/Llama-2-70b-hf --output-dir /tmp/Llama-2-70b-hf --hf-token <HF_TOKEN>
构建与 Llama2 模型关联的解码器。 |
|
返回一个应用了LoRA的Llama2版本( |
|
用于创建 Llama2 模型的构建器,使用来自 https://arxiv.org/abs/2307.09288 的默认 7B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Llama2 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama2 7B 模型的构建器。 |
|
用于创建 Llama2 模型的构建器,使用来自 https://arxiv.org/abs/2307.09288 的默认 13B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Llama2 13B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama2 13B 模型的构建器。 |
|
用于创建 Llama2 模型的构建器,使用来自 https://arxiv.org/abs/2307.09288 的默认 70B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Llama2 70B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama2 70B 模型的构建器。 |
|
Llama2 的分词器。 |
|
用于创建Llama2模型的构建器,使用来自https://arxiv.org/abs/2307.09288的默认7B参数值进行初始化,其中输出层是一个分类层,将投影到单个类别以进行奖励建模。 |
|
用于创建启用 LoRA 的 Llama2 7B 奖励模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama2 奖励 7b 模型的构建器。 |
|
使用 Llama2 预训练中所用标签的提示模板,用于格式化人类和系统提示的对话数据。 |
代码大模型¶
来自 Code Llama 系列 的模型。
重要提示:在下载之前,您需要先在 Hugging Face 上申请访问权限。
要下载 CodeLlama-7B 模型:
tune download meta-llama/CodeLlama-7b-hf --output-dir /tmp/CodeLlama-7b-hf --hf-token <HF_TOKEN>
用于创建 Code-Llama2 模型的构建器,使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 7B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Code-Llama2 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Code-Llama2 7B 模型的构建器。 |
|
用于创建 Code-Llama2 模型的构建器,使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 13B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Code-Llama2 13B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Code-Llama2 13B 模型的构建器。 |
|
用于创建 Code-Llama2 模型的构建器,使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 70B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Code-Llama2 70B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Code-Llama2 70B 模型的构建器。 |
qwen-2.5¶
来自Qwen2.5系列的0.5B、1.5B、3B、7B、14B、32B和72B模型。
例如,要下载 Qwen2.5 1.5B 模型:
tune download Qwen/Qwen2.5-1.5B-Instruct --output-dir /tmp/Qwen2_5-1_5B-Instruct
用于创建 Qwen2.5 模型(基础版或指令版)的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct 的默认 0.5B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2.5 0.5B 模型(基础版或指令微调版)的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-1.5B 的默认 15亿参数值进行初始化 |
|
用于创建 Qwen2.5 指令模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-1.5B-Instruct 的默认 15 亿参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2.5 1.5B 基础模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2.5 1.5B 指令模型的构建器。 |
|
用于创建 Qwen2.5 模型(基础版或指令版)的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-3B-Instruct 的默认 3B 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Qwen2.5 3B 模型(基础版或指令微调版)的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-7B 的默认 7B 参数值进行初始化 |
|
用于创建 Qwen2.5 指令模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-7B-Instruct 的默认 7B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2.5 7B 基础模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2.5 7B 指令微调模型的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-14B 的默认 14B 参数值进行初始化 |
|
用于创建 Qwen2.5 指令模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-14B-Instruct 的默认 14B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2.5 14B 基础模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2.5 14B 指令微调模型的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-32B 的默认 320 亿参数值进行初始化。 |
|
用于创建 Qwen2.5 指令模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-32B-Instruct 的默认 32B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2.5 32B 基础模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2.5 32B 指令微调模型的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-72B 的默认 720 亿参数值进行初始化 |
|
用于创建 Qwen2.5 指令模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2.5-72B-Instruct 的默认 720 亿参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2.5 72B 基础模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2.5 72B 指令微调模型的构建器。 |
|
Qwen2.5 的分词器。 |
qwen-2¶
Qwen2 系列的 0.5B、1.5B 和 7B 规模模型。
例如,要下载 Qwen2 1.5B 模型:
tune download Qwen/Qwen2-1.5B-Instruct --output-dir /tmp/Qwen2-1.5B-Instruct
构建与 Qwen2 模型关联的解码器。 |
|
返回一个应用了LoRA的Qwen2版本( |
|
用于创建 Qwen2 模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2-0.5B-Instruct 的默认 0.5B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2 0.5B 模型的构建器。 |
|
用于创建 Qwen2 模型的构建器,使用来自 https://huggingface.co/Qwen/Qwen2-1.5B-Instruct 的默认 15亿参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2 1.5B 模型的构建器。 |
|
用于创建 Qwen2 模型的构建器,使用默认的 7B 参数值初始化,来自 https://huggingface.co/Qwen/Qwen2-7B-Instruct |
|
用于创建启用 LoRA 的 Qwen2 7B 模型的构建器。 |
|
Qwen2 的分词器 |
phi-3¶
来自 Phi-3 mini 系列 的模型。
要下载 Phi-3 Mini 4k 指令模型:
tune download microsoft/Phi-3-mini-4k-instruct --output-dir /tmp/Phi-3-mini-4k-instruct --hf-token <HF_TOKEN>
|
|
返回一个应用了LoRA的Phi3版本( |
|
用于创建 Phi3 Mini 4K Instruct 模型的构建器。 |
|
用于创建启用 LoRA 的 Phi3 Mini(38 亿参数)模型的构建器。 |
|
用于创建启用 QLoRA 的 Phi3 mini 模型的构建器。 |
|
Phi-3 Mini 分词器。 |
mistral¶
所有来自 Mistral AI 系列 的模型。
重要提示:您需要在 Hugging Face 上申请访问权限才能下载此模型。
要下载 Mistral 7B v0.1 模型:
tune download mistralai/Mistral-7B-v0.1 --output-dir /tmp/Mistral-7B-v0.1 --ignore-patterns "*.safetensors" --hf-token <HF_TOKEN>
构建与 Mistral 模型关联的解码器。 |
|
返回一个应用了LoRA的Mistral版本( |
|
构建一个带有附加分类层的基座 Mistral 模型。 |
|
返回一个应用了LoRA的Mistral分类器版本( |
|
用于创建 Mistral 7B 模型的构建器,使用来自 https://mistral.ai/news/announcing-mistral-7b/ 的默认 7B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Mistral 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Mistral 模型的构建器。 |
|
用于创建 Mistral 7B 模型的构建器,使用默认的 7b 参数值初始化: https://huggingface.co/Ray2333/reward-model-Mistral-7B-instruct-Unified-Feedback,其中输出层是一个分类层,投影到单个类别以进行奖励建模。 |
|
用于创建启用 LoRA 的 Mistral reward 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Mistral reward 7B 模型的构建器。 |
|
Mistral 模型的词元化器。 |
|
根据Mistral的指令模型格式。 |
gemma¶
Gemma系列的20亿参数和70亿参数模型。
重要提示:您需要在 Hugging Face 上申请访问权限才能使用此模型。
要下载 Gemma 2B 模型(非 Gemma2):
tune download google/gemma-2b --ignore-patterns "gemma-2b.gguf" --hf-token <HF_TOKEN>
要下载 Gemma 7B 模型:
tune download google/gemma-7b --ignore-patterns "gemma-7b.gguf" --hf-token <HF_TOKEN>
构建与 Gemma 模型关联的解码器。 |
|
根据传入的配置,返回一个应用了 LoRA 的 Gemma 版本。 |
|
用于创建Gemma 2B模型的构建器,使用默认的2B参数值初始化: https://blog.google/technology/developers/gemma-open-models/ |
|
用于创建启用 LoRA 的 Gemma 2B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Gemma 模型的构建器。 |
|
用于创建Gemma 7B模型的构建器,使用默认的7b参数值初始化: https://blog.google/technology/developers/gemma-open-models/ |
|
用于创建启用 LoRA 的 Gemma 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Gemma 模型的构建器。 |
|
Gemma 的分词器。 |
gemma2 :¶
Gemma系列的2B、9B和27B模型。
重要提示:您需要在 Hugging Face 上申请访问权限才能使用此模型。
要下载 Gemma2 2B、9B、27B 模型:
tune download google/gemma-2-<MODEL_SIZE>b --ignore-patterns "gemma-2-<MODEL_SIZE>b.gguf" --hf-token <HF_TOKEN>
构建与 gemma2 模型关联的解码器。 |
|
根据传入的配置,返回一个应用了 LoRA 的 Gemma 版本。 |
|
用于创建 Gemma2 2B 模型的构建器,使用默认的 2B 参数值初始化: https://github.com/google/gemma_pytorch/blob/main/gemma/config.py |
|
用于创建启用 LoRA 的 Gemma2 2B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Gemma2 模型的构建器。 |
|
用于创建 Gemma2 9B 模型的构建器,使用默认的 9b 参数值初始化: https://github.com/google/gemma_pytorch/blob/main/gemma/config.py |
|
用于创建启用 LoRA 的 Gemma 9B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Gemma 模型的构建器。 |
|
用于创建 Gemma2 27B 模型的构建器,使用默认的 27b 参数值初始化: https://github.com/google/gemma_pytorch/blob/main/gemma/config.py |
|
用于创建启用 LoRA 的 Gemma2 27B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Gemma 模型的构建器。 |
|
Gemma 的分词器。 |
剪切¶
支持使用CLIP编码器的多模态视觉组件。
构建与 CLIP 模型关联的视觉编码器。 |
|
用于图像的令牌位置嵌入,图像中每个令牌的嵌入各不相同。 |
|
用于平铺图像的令牌位置嵌入,每个图块不同,每个令牌也不同。 |
|
瓦片的 positional embedding,每个瓦片不同,同一瓦片内的每个 token 相同。 |