目录

torchtune.models

羊驼3 & 羊驼3.1

所有型号均来自 Llama3 系列

要下载 Llama3-8B-Instruct 模型:

tune download meta-llama/Meta-Llama-3-8B-Instruct --hf-token <HF_TOKEN>

要下载 Llama3-70B-Instruct 模型:

tune download meta-llama/Meta-Llama-3-70B-Instruct --hf-token <HF_TOKEN> --ignore-patterns "original/consolidated*"

要下载上述模型的 Llama3.1 权重,您可以从 Meta-Llama-3.1-8B-InstructMeta-Llama-3.1-70B-Instruct 下载。

羊驼3.llama3

构建与 Llama3 模型关联的解码器。

llama3.lora_llama3

返回 Llama3 的版本(一个实例),其中 根据传入的配置应用了 LoRA。

llama3.llama3_8b

用于创建使用默认 8b 参数值初始化的 Llama3 模型的构建器。

llama3.lora_llama3_8b

用于创建启用了 LoRA 的 Llama3 8B 模型的生成器。

llama3.qlora_llama3_8b

用于创建启用了 QLoRA 的 Llama3 8B 模型的生成器。

llama3.llama3_70b

用于创建使用默认 70B 参数值初始化的 Llama3 模型的构建器。

llama3.lora_llama3_70b

用于创建启用了 LoRA 的 Llama3 70B 模型的生成器。

llama3.qlora_llama3_70b

用于创建启用了 QLoRA 的 Llama3 70B 模型的构建器。

llama3.llama3_tokenizer

Llama3 的 Tokenizer。

美洲驼3.Llama3分词器

tiktoken token,配置了 Llama3 Instruct 的特殊令牌,如 https://llama.meta.com/docs/model-cards-and-prompt-formats/meta-llama-3 中所述

llama3_1.llama3_1

构建与 Llama3.1 模型关联的解码器。

llama3_1.lora_llama3_1

返回 Llama3.1 的版本(一个实例),其中 根据传入的配置应用了 LoRA。

llama3_1.llama3_1_8b

用于创建使用默认 8b 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_8b

用于创建启用了 LoRA 的 Llama3.1 8B 模型的构建器。

llama3_1.qlora_llama3_1_8b

用于创建启用了 QLoRA 的 Llama3.1 8B 模型的构建器。

llama3_1.llama3_1_70b

用于创建使用默认 70B 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_70b

用于创建启用了 LoRA 的 Llama3.1 70B 模型的构建器。

llama3_1.qlora_llama3_1_70b

用于创建启用了 QLoRA 的 Llama3.1 70B 模型的构建器。

注意

Llama3.1 分词器重用 llama3.llama3_tokenizer builder 类。

美洲驼2

所有型号均来自 Llama2 系列

要下载 Llama2-7B 模型:

tune download meta-llama/Llama-2-7b-hf --hf-token <HF_TOKEN>

要下载 Llama2-13B 型号:

tune download meta-llama/Llama-2-13b-hf --hf-token <HF_TOKEN>

要下载 Llama2-70B 型号:

tune download meta-llama/Llama-2-70b-hf --hf-token <HF_TOKEN>

羊驼2.羊驼2

构建与 Llama2 模型关联的解码器。

llama2.lora_llama2

返回 Llama2 的版本(实例),其中 LoRA 基于传入的配置应用。

llama2.llama2_7b

用于创建 Llama2 模型的构建器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 7B 参数值进行初始化

llama2.lora_llama2_7b

用于创建启用了 LoRA 的 Llama2 7B 模型的生成器。

llama2.qlora_llama2_7b

用于创建启用了 QLoRA 的 Llama2 7B 模型的生成器。

llama2.llama2_13b

用于创建 Llama2 模型的生成器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 13B 参数值进行初始化

llama2.lora_llama2_13b

用于创建启用了 LoRA 的 Llama2 13B 模型的构建器。

llama2.qlora_llama2_13b

用于创建启用了 QLoRA 的 Llama2 13B 模型的生成器。

llama2.llama2_70b

用于创建 Llama2 模型的构建器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 70B 参数值进行初始化

llama2.lora_llama2_70b

用于创建启用了 LoRA 的 Llama2 70B 模型的生成器。

llama2.qlora_llama2_70b

用于创建启用了 QLoRA 的 Llama2 70B 模型的生成器。

llama2.llama2_tokenizer

Llama2 的 Tokenizer。

美洲驼2.Llama2Tokenizer

Llama2 的 SentencePiece 分词器实现。

代码羊驼

来自 Code Llama 系列的模型。

要下载 CodeLlama-7B 模型:

tune download codellama/CodeLlama-7b-hf --hf-token <HF_TOKEN>

code_llama2.code_llama2_7b

用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 7B 参数值进行初始化

code_llama2.lora_code_llama2_7b

用于创建启用了 LoRA 的 Code-Llama2 7B 模型的构建器。

code_llama2.qlora_code_llama2_7b

用于创建启用了 QLoRA 的 Code-Llama2 7B 模型的生成器。

code_llama2.code_llama2_13b

用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 13B 参数值进行初始化

code_llama2.lora_code_llama2_13b

用于创建启用了 LoRA 的 Code-Llama2 13B 模型的生成器。

code_llama2.qlora_code_llama2_13b

用于创建启用了 QLoRA 的 Code-Llama2 13B 模型的构建器。

code_llama2.code_llama2_70b

用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 70B 参数值进行初始化

code_llama2.lora_code_llama2_70b

用于创建启用了 LoRA 的 Code-Llama2 70B 模型的生成器。

code_llama2.qlora_code_llama2_70b

用于创建启用了 QLoRA 的 Code-Llama2 70B 模型的构建器。

PHI-3

来自 Phi-3 mini 系列的型号。

要下载 Phi-3 Mini 4k 指示模型:

tune download microsoft/Phi-3-mini-4k-instruct --hf-token <HF_TOKEN> --ignore-patterns ""

phi3.phi3

参数 vocab_size:

词汇表中的标记数。

phi3.lora_phi3

返回 Phi3 的版本(一个实例),其中 LoRA 基于传入的配置应用。

phi3.phi3_mini

用于创建 Phi3 Mini 4K Instruct 模型的构建器。

phi3.lora_phi3_mini

用于创建启用了 LoRA 的 Phi3 Mini (3.8b) 模型的生成器。

phi3.qlora_phi3_mini

用于创建启用了 QLoRA 的 Phi3 迷你模型的构建器。

phi3.phi3_mini_tokenizer

Phi-3 迷你分词器。

phi3.Phi3MiniTokenizer 代币

SentencePiece 分词器配置了 Phi3 Mini 的特殊分词器。

米斯特拉尔

所有型号均来自 Mistral AI 系列

要下载 Mistral 7B v0.1 模型:

tune download mistralai/Mistral-7B-v0.1 --hf-token <HF_TOKEN>

mistral.mistral

构建与 mistral 模型关联的解码器。

mistral.lora_mistral

返回一个版本的 Mistral (一个实例 ),其中 LoRA 基于传入的配置应用。

mistral.mistral_classifier

构建一个添加了分类层的基本 mistral 模型。

mistral.lora_mistral_classifier

返回一个版本的 Mistral 分类器(一个实例),其中 LoRA 应用于其自我注意模块中的某些线性层。

mistral.mistral_7b

用于创建使用 https://mistral.ai/news/announcing-mistral-7b/ 中的默认 7b 参数值初始化的 Mistral 7B 模型的生成器

mistral.lora_mistral_7b

用于创建启用了 LoRA 的 Mistral 7B 模型的生成器。

mistral.qlora_mistral_7b

用于创建启用了 QLoRA 的 Mistral 模型的构建器。

mistral.mistral_classifier_7b

用于创建 Mistral 7B 分类器模型的构建器,该模型使用默认 7b 参数值初始化:https://huggingface.co/Ray2333/reward-model-Mistral-7B-instruct-Unified-Feedback

mistral.lora_mistral_classifier_7b

用于创建启用了 LoRA 的 Mistral 分类器 7B 模型的构建器。

mistral.qlora_mistral_classifier_7b

用于创建启用了 QLoRA 的 Mistral 分类器模型的构建器。

mistral.mistral_tokenizer

用于 Mistral 模型的 Tokenizer。

米斯特拉尔。MistralTokenizer

Mistral 的 SentencePiece 分词器实现

杰玛

来自 Gemma 系列的 2B 和 7B 尺寸模型。

要下载 Gemma 2B 模型,请执行以下操作:

tune download google/gemma-2b --hf-token <HF_TOKEN> --ignore-patterns ""

要下载 Gemma 7B 模型,请执行以下操作:

tune download google/gemma-7b --hf-token <HF_TOKEN> --ignore-patterns "gemma-7b.gguf"

杰玛.gemma

构建与 gemma 模型关联的解码器。

gemma.lora_gemma

返回基于传入配置应用了 LoRA 的 Gemma 版本。

gemma.gemma_2b

用于创建 Gemma 2B 模型的构建器,该模型使用默认 2b 参数值初始化,来自:https://blog.google/technology/developers/gemma-open-models/

gemma.lora_gemma_2b

用于创建启用了 LoRA 的 Gemma 2B 模型的生成器。

gemma.qlora_gemma_2b

用于创建启用了 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_7b

用于创建 Gemma 7B 模型的构建器,该模型使用默认 7b 参数值初始化,例如:https://blog.google/technology/developers/gemma-open-models/

gemma.lora_gemma_7b

用于创建启用了 LoRA 的 Gemma 7B 模型的生成器。

gemma.qlora_gemma_7b

用于创建启用了 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_tokenizer

Gemma 的 Tokenizer。

杰玛。GemmaTokenizer 的

Gemma 的 SentencePiece 分词器实现

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源