torchtune.models¶
羊驼3.3¶
来自 Llama3 系列 3.3 版本的纯文本模型。
重要提示:您需要在下载 Hugging Face 之前请求访问权限。
要下载 Llama-3.3-70B-Instruct 模型:
tune download meta-llama/Llama-3.3-70B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>
用于创建使用默认 70B 参数值初始化的 Llama3.3 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.3 70B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.3 70B 模型的构建器。 |
美洲驼3.2¶
来自 Llama3 系列 3.2 版本的纯文本模型。
重要提示:您需要在下载 Hugging Face 之前请求访问权限。
要下载 Llama-3.2-1B-Instruct 模型:
tune download meta-llama/Llama-3.2-1B-Instruct --output-dir /tmp/Llama-3.2-1B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>
要下载 Llama-3.2-3B-Instruct 模型:
tune download meta-llama/Llama-3.2-3B-Instruct --output-dir /tmp/Llama-3.2-3B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
用于创建使用默认 1b 参数值初始化的 Llama3.2 模型的构建器。 |
|
用于创建使用默认 3b 参数值初始化的 Llama3.2 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.2 1B 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.2 3B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Llama3.2 1B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.2 3B 模型的构建器。 |
llama3.2 愿景¶
来自 Llama3 系列 3.2 版本的视觉语言模型。
重要提示:您需要在下载 Hugging Face 之前请求访问权限。
要下载 Llama-3.2-11B-Instruct 模型,请执行以下操作:
tune download meta-llama/Llama-3.2-11B-Vision-Instruct --output-dir /tmp/Llama-3.2-11B-Vision-Instruct --hf-token <HF_TOKEN>
Llama 3.2 Vision 11B 模型 |
|
Llama3 Vision 的数据转换(包括 Tokenizer)。 |
|
用于创建启用了 QLoRA 的 Llama3.2 Vision 11B 模型的构建器。 |
|
使用额外的融合交叉注意力层构建与 Llama3 模型关联的解码器。 |
|
通过将 CLIP 图像模型与额外的投影头融合模块相结合,构建 Llama 3.2 视觉编码器。 |
|
使用额外的融合交叉注意力层构建与 Llama3 模型关联的解码器。 |
|
通过将 CLIP 图像模型与额外的投影头融合模块相结合,构建 Llama 3.2 视觉编码器。 |
|
用于 Llama 3.2 Vision 的视觉编码器模型。 |
|
Projection transformer 将预训练的冻结编码器 (CLIP) 的输出适应预训练的解码器模型。 |
|
此转换结合了 Llama 3.2 Vision 不同模式的转换。 |
羊驼3 & 羊驼3.1¶
来自 Llama3 系列的型号 3 和 3.1。
重要提示:您需要在下载 Hugging Face 之前请求访问权限。
要下载 Llama3.1-8B-Instruct 模型:
tune download meta-llama/Meta-Llama-3.1-8B-Instruct --output-dir /tmp/Meta-Llama-3.1-8B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>
要下载 Llama3.1-70B-Instruct 模型:
tune download meta-llama/Meta-Llama-3.1-70B-Instruct --output-dir /tmp/Meta-Llama-3.1-70B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
要下载 Llama3.1-405B-Instruct 模型:
tune download meta-llama/Meta-Llama-3.1-405B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
要下载上述模型的 Llama3 权重,您可以从 Meta-Llama-3-8B-Instruct 和 Meta-Llama-3-70B-Instruct 下载,并删除忽略模式标志。
构建与 Llama3 模型关联的解码器。 |
|
用于创建使用默认 8b 参数值初始化的 Llama3 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3 8B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Llama3 8B 模型的生成器。 |
|
用于创建使用默认 70B 参数值初始化的 Llama3 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3 70B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Llama3 70B 模型的构建器。 |
|
Llama3 的 Tokenizer。 |
|
构建与 Llama3.1 模型关联的解码器。 |
|
用于创建使用默认 8b 参数值初始化的 Llama3.1 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.1 8B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.1 8B 模型的构建器。 |
|
用于创建使用默认 70B 参数值初始化的 Llama3.3 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.3 70B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.3 70B 模型的构建器。 |
|
用于创建使用默认 405B 参数值初始化的 Llama3.1 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.1 405B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Llama3.1 405B 模型的构建器。 |
注意
Llama3.1 分词器重用 llama3.llama3_tokenizer builder 类。
美洲驼2¶
所有型号均来自 Llama2 系列。
重要提示:您需要在下载 Hugging Face 之前请求访问权限。
要下载 Llama2-7B 模型:
tune download meta-llama/Llama-2-7b-hf --output-dir /tmp/Llama-2-7b-hf --hf-token <HF_TOKEN>
要下载 Llama2-13B 型号:
tune download meta-llama/Llama-2-13b-hf --output-dir /tmp/Llama-2-13b-hf --hf-token <HF_TOKEN>
要下载 Llama2-70B 型号:
tune download meta-llama/Llama-2-70b-hf --output-dir /tmp/Llama-2-70b-hf --hf-token <HF_TOKEN>
构建与 Llama2 模型关联的解码器。 |
|
用于创建 Llama2 模型的构建器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 7B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Llama2 7B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Llama2 7B 模型的生成器。 |
|
用于创建 Llama2 模型的生成器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 13B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Llama2 13B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama2 13B 模型的生成器。 |
|
用于创建 Llama2 模型的构建器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 70B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Llama2 70B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Llama2 70B 模型的生成器。 |
|
Llama2 的 Tokenizer。 |
|
用于创建 Llama2 模型的构建器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 7B 参数值进行初始化,其中输出层是投影到单个类以进行奖励建模的分类层。 |
|
用于创建启用了 LoRA 的 Llama2 7B 奖励模型的生成器。 |
|
用于创建启用了 QLoRA 的 Llama2 奖励 7b 模型的生成器。 |
|
提示模板,使用 Llama2 预训练中使用的适当标签对人工和系统提示的聊天数据进行格式化。 |
代码羊驼¶
来自 Code Llama 系列的模型。
重要提示:您需要在下载 Hugging Face 之前请求访问权限。
要下载 CodeLlama-7B 模型:
tune download meta-llama/CodeLlama-7b-hf --output-dir /tmp/CodeLlama-7b-hf --hf-token <HF_TOKEN>
用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 7B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Code-Llama2 7B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Code-Llama2 7B 模型的生成器。 |
|
用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 13B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Code-Llama2 13B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Code-Llama2 13B 模型的构建器。 |
|
用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 70B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Code-Llama2 70B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Code-Llama2 70B 模型的构建器。 |
QWEN-2.5¶
来自 Qwen2.5 系列的 0.5B、1.5B、3B、7B、14B、32B、72B 型号。
要下载 Qwen2.5 1.5B 模型,例如:
tune download Qwen/Qwen2.5-1.5B-Instruct --output-dir /tmp/Qwen2_5-1_5B-Instruct
用于创建 Qwen2.5 模型(base 或 instruct)的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct 中的默认 0.5B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2.5 0.5B 模型(base 或 instruct)的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-1.5B 中的默认 1.5B 参数值进行初始化 |
|
用于创建 Qwen2.5 instruct 模型的构建器,使用 https://huggingface.co/Qwen/Qwen2.5-1.5B-Instruct 中的默认 1.5B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2.5 1.5B 基础模型的构建器。 |
|
用于创建启用了 LoRA 的 Qwen2.5 1.5B 指示模型的构建器。 |
|
用于创建 Qwen2.5 模型(base 或 instruct)的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-3B-Instruct 中的默认 3B 参数值进行初始化 |
|
用于创建启用 LoRA 的 Qwen2.5 3B 模型(基础或指令)的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-7B 中的默认 7B 参数值进行初始化 |
|
用于创建 Qwen2.5 指令模型的构建器使用 https://huggingface.co/Qwen/Qwen2.5-7B-Instruct 中的默认 7B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2.5 7B 基础模型的构建器。 |
|
用于创建启用了 LoRA 的 Qwen2.5 7B 指示模型的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-14B 中的默认 14B 参数值进行初始化 |
|
用于创建 Qwen2.5 instruct 模型的构建器,使用 https://huggingface.co/Qwen/Qwen2.5-14B-Instruct 中的默认 14B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2.5 14B 基础模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2.5 14B 指示模型的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-32B 中的默认 32B 参数值进行初始化 |
|
用于创建 Qwen2.5 指令模型的构建器,使用 https://huggingface.co/Qwen/Qwen2.5-32B-Instruct 中的默认 32B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2.5 32B 基础模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2.5 32B 指示模型的构建器。 |
|
用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-72B 中的默认 72B 参数值进行初始化 |
|
用于创建 Qwen2.5 指令模型的构建器,使用 https://huggingface.co/Qwen/Qwen2.5-72B-Instruct 中的默认 72B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2.5 72B 基础模型的构建器。 |
|
用于创建启用了 LoRA 的 Qwen2.5 72B 指示模型的构建器。 |
|
Qwen2.5 的 Tokenizer。 |
qwen-2¶
来自 Qwen2 系列的 0.5B、1.5B 和 7B 大小的模型。
要下载 Qwen2 1.5B 模型,例如:
tune download Qwen/Qwen2-1.5B-Instruct --output-dir /tmp/Qwen2-1.5B-Instruct
构建与 Qwen2 模型关联的解码器。 |
|
返回 Qwen2 的版本(一个实例),其中 根据传入的配置应用了 LoRA。 |
|
用于创建 Qwen2 模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2-0.5B-Instruct 中的默认 0.5B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2 0.5B 模型的构建器。 |
|
用于创建 Qwen2 模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2-1.5B-Instruct 中的默认 1.5B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2 1.5B 模型的构建器。 |
|
用于创建 Qwen2 模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2-7B-Instruct 中的默认 7B 参数值进行初始化 |
|
用于创建启用了 LoRA 的 Qwen2 7B 模型的构建器。 |
|
Qwen2 的 Tokenizer。 |
PHI-3¶
来自 Phi-3 mini 系列的型号。
要下载 Phi-3 Mini 4k 指示模型:
tune download microsoft/Phi-3-mini-4k-instruct --output-dir /tmp/Phi-3-mini-4k-instruct --hf-token <HF_TOKEN>
|
|
用于创建 Phi3 Mini 4K Instruct 模型的构建器。 |
|
用于创建启用了 LoRA 的 Phi3 Mini (3.8b) 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Phi3 迷你模型的构建器。 |
|
Phi-3 迷你分词器。 |
米斯特拉尔¶
所有型号均来自 Mistral AI 系列。
重要提示:您需要在 Hugging Face 上请求访问权限才能下载此模型。
要下载 Mistral 7B v0.1 模型:
tune download mistralai/Mistral-7B-v0.1 --output-dir /tmp/Mistral-7B-v0.1 --ignore-patterns "*.safetensors" --hf-token <HF_TOKEN>
构建与 mistral 模型关联的解码器。 |
|
构建一个添加了分类层的基本 mistral 模型。 |
|
用于创建使用 https://mistral.ai/news/announcing-mistral-7b/ 中的默认 7b 参数值初始化的 Mistral 7B 模型的生成器 |
|
用于创建启用了 LoRA 的 Mistral 7B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Mistral 模型的构建器。 |
|
用于创建 Mistral 7B 模型的构建器,该模型使用默认 7b 参数值初始化:https://huggingface.co/Ray2333/reward-model-Mistral-7B-instruct-Unified-Feedback,其中输出层是投影到单个类以进行奖励建模的分类层。 |
|
用于创建启用了 LoRA 的 Mistral 奖励 7B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Mistral 奖励 7B 模型的构建器。 |
|
用于 Mistral 模型的 Tokenizer。 |
|
根据 Mistral 的 instruct 模型进行格式设置。 |
杰玛¶
来自 Gemma 系列的 2B 和 7B 尺寸模型。
重要提示:您需要在 Hugging Face 上请求访问权限才能使用此模型。
要下载 Gemma 2B 模型(不是 Gemma2),请执行以下操作:
tune download google/gemma-2b --ignore-patterns "gemma-2b.gguf" --hf-token <HF_TOKEN>
要下载 Gemma 7B 模型,请执行以下操作:
tune download google/gemma-7b --ignore-patterns "gemma-7b.gguf" --hf-token <HF_TOKEN>
构建与 gemma 模型关联的解码器。 |
|
返回基于传入配置应用了 LoRA 的 Gemma 版本。 |
|
用于创建 Gemma 2B 模型的构建器,该模型使用默认 2b 参数值初始化,来自:https://blog.google/technology/developers/gemma-open-models/ |
|
用于创建启用了 LoRA 的 Gemma 2B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Gemma 模型的构建器。 |
|
用于创建 Gemma 7B 模型的构建器,该模型使用默认 7b 参数值初始化,例如:https://blog.google/technology/developers/gemma-open-models/ |
|
用于创建启用了 LoRA 的 Gemma 7B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Gemma 模型的构建器。 |
|
Gemma 的 Tokenizer。 |
杰玛2 :¶
来自 Gemma 家族的尺寸为 2B、9B、27B 的模型。
重要提示:您需要在 Hugging Face 上请求访问权限才能使用此模型。
要下载 Gemma2 2B、9B、27B 型号:
tune download google/gemma-2-<MODEL_SIZE>b --ignore-patterns "gemma-2-<MODEL_SIZE>b.gguf" --hf-token <HF_TOKEN>
构建与 gemma2 模型关联的解码器。 |
|
返回基于传入配置应用了 LoRA 的 Gemma 版本。 |
|
用于创建 Gemma2 2B 模型的构建器,该模型使用默认 2b 参数值初始化,来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py |
|
用于创建启用了 LoRA 的 Gemma2 2B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Gemma2 模型的生成器。 |
|
用于创建 Gemma2 9B 模型的构建器,该模型使用默认 9b 参数值初始化,这些参数值来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py |
|
用于创建启用了 LoRA 的 Gemma 9B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Gemma 模型的构建器。 |
|
用于创建 Gemma2 27B 模型的构建器,该模型使用默认 27b 参数值初始化,来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py |
|
用于创建启用了 LoRA 的 Gemma2 27B 模型的生成器。 |
|
用于创建启用了 QLoRA 的 Gemma 模型的构建器。 |
|
Gemma 的 Tokenizer。 |
夹¶
使用 CLIP 编码器支持多模态的视觉组件。
构建与剪辑模型关联的视觉编码器。 |
|
图像的标记位置嵌入,图像中的每个标记都不同。 |
|
平铺图像的标记位置嵌入,每个图块不同,每个标记不同。 |
|
图块的位置嵌入,每个图块不同,图块中的每个标记都相同。 |