目录

torchtune.models

羊驼3.3

来自 Llama3 系列 3.3 版本的纯文本模型。

重要提示:您需要在下载 Hugging Face 之前请求访问权限。

要下载 Llama-3.3-70B-Instruct 模型:

tune download meta-llama/Llama-3.3-70B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>

llama3_3.llama3_3_70b

用于创建使用默认 70B 参数值初始化的 Llama3.3 模型的构建器。

llama3_3.lora_llama3_3_70b

用于创建启用了 LoRA 的 Llama3.3 70B 模型的构建器。

llama3_3.qlora_llama3_3_70b

用于创建启用了 QLoRA 的 Llama3.3 70B 模型的构建器。

注意

Llama3.3 分词器重用了该类。

美洲驼3.2

来自 Llama3 系列 3.2 版本的纯文本模型。

重要提示:您需要在下载 Hugging Face 之前请求访问权限。

要下载 Llama-3.2-1B-Instruct 模型:

tune download meta-llama/Llama-3.2-1B-Instruct --output-dir /tmp/Llama-3.2-1B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>

要下载 Llama-3.2-3B-Instruct 模型:

tune download meta-llama/Llama-3.2-3B-Instruct --output-dir /tmp/Llama-3.2-3B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

llama3_2.llama3_2_1b

用于创建使用默认 1b 参数值初始化的 Llama3.2 模型的构建器。

llama3_2.llama3_2_3b

用于创建使用默认 3b 参数值初始化的 Llama3.2 模型的构建器。

llama3_2.lora_llama3_2_1b

用于创建启用了 LoRA 的 Llama3.2 1B 模型的构建器。

llama3_2.lora_llama3_2_3b

用于创建启用了 LoRA 的 Llama3.2 3B 模型的生成器。

llama3_2.qlora_llama3_2_1b

用于创建启用了 QLoRA 的 Llama3.2 1B 模型的构建器。

llama3_2.qlora_llama3_2_3b

用于创建启用了 QLoRA 的 Llama3.2 3B 模型的构建器。

注意

Llama3.2 分词器重用该类。

llama3.2 愿景

来自 Llama3 系列 3.2 版本的视觉语言模型。

重要提示:您需要在下载 Hugging Face 之前请求访问权限。

要下载 Llama-3.2-11B-Instruct 模型,请执行以下操作:

tune download meta-llama/Llama-3.2-11B-Vision-Instruct --output-dir /tmp/Llama-3.2-11B-Vision-Instruct --hf-token <HF_TOKEN>

llama3_2_vision.llama3_2_vision_11b

Llama 3.2 Vision 11B 模型

llama3_2_vision.llama3_2_vision_transform

Llama3 Vision 的数据转换(包括 Tokenizer)。

llama3_2_vision.lora_llama3_2_vision_11b

返回 Llama3.2 vision 的版本(一个实例),其中根据传入的配置应用了 LoRA。

llama3_2_vision.qlora_llama3_2_vision_11b

用于创建启用了 QLoRA 的 Llama3.2 Vision 11B 模型的构建器。

llama3_2_vision.llama3_2_vision_decoder

使用额外的融合交叉注意力层构建与 Llama3 模型关联的解码器。

llama3_2_vision.llama3_2_vision_encoder

通过将 CLIP 图像模型与额外的投影头融合模块相结合,构建 Llama 3.2 视觉编码器。

llama3_2_vision.lora_llama3_2_vision_decoder

使用额外的融合交叉注意力层构建与 Llama3 模型关联的解码器。

llama3_2_vision.lora_llama3_2_vision_encoder

通过将 CLIP 图像模型与额外的投影头融合模块相结合,构建 Llama 3.2 视觉编码器。

llama3_2_vision。Llama3Vision编码器

用于 Llama 3.2 Vision 的视觉编码器模型。

llama3_2_vision。Llama3Vision投影云台

Projection transformer 将预训练的冻结编码器 (CLIP) 的输出适应预训练的解码器模型。

llama3_2_vision。Llama3VisionTransform

此转换结合了 Llama 3.2 Vision 不同模式的转换。

注意

Llama3.2 分词器重用该类。

羊驼3 & 羊驼3.1

来自 Llama3 系列的型号 3 和 3.1。

重要提示:您需要在下载 Hugging Face 之前请求访问权限。

要下载 Llama3.1-8B-Instruct 模型:

tune download meta-llama/Meta-Llama-3.1-8B-Instruct --output-dir /tmp/Meta-Llama-3.1-8B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>

要下载 Llama3.1-70B-Instruct 模型:

tune download meta-llama/Meta-Llama-3.1-70B-Instruct --output-dir /tmp/Meta-Llama-3.1-70B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

要下载 Llama3.1-405B-Instruct 模型:

tune download meta-llama/Meta-Llama-3.1-405B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

要下载上述模型的 Llama3 权重,您可以从 Meta-Llama-3-8B-InstructMeta-Llama-3-70B-Instruct 下载,并删除忽略模式标志。

羊驼3.llama3

构建与 Llama3 模型关联的解码器。

llama3.lora_llama3

返回 Llama3 的版本(一个实例),其中 根据传入的配置应用了 LoRA。

llama3.llama3_8b

用于创建使用默认 8b 参数值初始化的 Llama3 模型的构建器。

llama3.lora_llama3_8b

用于创建启用了 LoRA 的 Llama3 8B 模型的生成器。

llama3.qlora_llama3_8b

用于创建启用了 QLoRA 的 Llama3 8B 模型的生成器。

llama3.llama3_70b

用于创建使用默认 70B 参数值初始化的 Llama3 模型的构建器。

llama3.lora_llama3_70b

用于创建启用了 LoRA 的 Llama3 70B 模型的生成器。

llama3.qlora_llama3_70b

用于创建启用了 QLoRA 的 Llama3 70B 模型的构建器。

llama3.llama3_tokenizer

Llama3 的 Tokenizer。

llama3_1.llama3_1

构建与 Llama3.1 模型关联的解码器。

llama3_1.lora_llama3_1

返回 Llama3.1 的版本(一个实例),其中 根据传入的配置应用了 LoRA。

llama3_1.llama3_1_8b

用于创建使用默认 8b 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_8b

用于创建启用了 LoRA 的 Llama3.1 8B 模型的构建器。

llama3_1.qlora_llama3_1_8b

用于创建启用了 QLoRA 的 Llama3.1 8B 模型的构建器。

llama3_1.llama3_1_70b

用于创建使用默认 70B 参数值初始化的 Llama3.3 模型的构建器。

llama3_1.lora_llama3_1_70b

用于创建启用了 LoRA 的 Llama3.3 70B 模型的构建器。

llama3_1.qlora_llama3_1_70b

用于创建启用了 QLoRA 的 Llama3.3 70B 模型的构建器。

llama3_1.llama3_1_405b

用于创建使用默认 405B 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_405b

用于创建启用了 LoRA 的 Llama3.1 405B 模型的生成器。

llama3_1.qlora_llama3_1_405b

用于创建启用了 QLoRA 的 Llama3.1 405B 模型的构建器。

注意

Llama3.1 分词器重用 llama3.llama3_tokenizer builder 类。

美洲驼2

所有型号均来自 Llama2 系列

重要提示:您需要在下载 Hugging Face 之前请求访问权限。

要下载 Llama2-7B 模型:

tune download meta-llama/Llama-2-7b-hf --output-dir /tmp/Llama-2-7b-hf --hf-token <HF_TOKEN>

要下载 Llama2-13B 型号:

tune download meta-llama/Llama-2-13b-hf --output-dir /tmp/Llama-2-13b-hf --hf-token <HF_TOKEN>

要下载 Llama2-70B 型号:

tune download meta-llama/Llama-2-70b-hf --output-dir /tmp/Llama-2-70b-hf --hf-token <HF_TOKEN>

羊驼2.羊驼2

构建与 Llama2 模型关联的解码器。

llama2.lora_llama2

返回 Llama2 的版本(实例),其中 LoRA 基于传入的配置应用。

llama2.llama2_7b

用于创建 Llama2 模型的构建器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 7B 参数值进行初始化

llama2.lora_llama2_7b

用于创建启用了 LoRA 的 Llama2 7B 模型的生成器。

llama2.qlora_llama2_7b

用于创建启用了 QLoRA 的 Llama2 7B 模型的生成器。

llama2.llama2_13b

用于创建 Llama2 模型的生成器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 13B 参数值进行初始化

llama2.lora_llama2_13b

用于创建启用了 LoRA 的 Llama2 13B 模型的构建器。

llama2.qlora_llama2_13b

用于创建启用了 QLoRA 的 Llama2 13B 模型的生成器。

llama2.llama2_70b

用于创建 Llama2 模型的构建器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 70B 参数值进行初始化

llama2.lora_llama2_70b

用于创建启用了 LoRA 的 Llama2 70B 模型的生成器。

llama2.qlora_llama2_70b

用于创建启用了 QLoRA 的 Llama2 70B 模型的生成器。

llama2.llama2_tokenizer

Llama2 的 Tokenizer。

llama2.llama2_reward_7b

用于创建 Llama2 模型的构建器,该模型使用 https://arxiv.org/abs/2307.09288 中的默认 7B 参数值进行初始化,其中输出层是投影到单个类以进行奖励建模的分类层。

llama2.lora_llama2_reward_7b

用于创建启用了 LoRA 的 Llama2 7B 奖励模型的生成器。

llama2.qlora_llama2_reward_7b

用于创建启用了 QLoRA 的 Llama2 奖励 7b 模型的生成器。

美洲驼2.Llama2聊天模板

提示模板,使用 Llama2 预训练中使用的适当标签对人工和系统提示的聊天数据进行格式化。

代码羊驼

来自 Code Llama 系列的模型。

重要提示:您需要在下载 Hugging Face 之前请求访问权限。

要下载 CodeLlama-7B 模型:

tune download meta-llama/CodeLlama-7b-hf --output-dir /tmp/CodeLlama-7b-hf --hf-token <HF_TOKEN>

code_llama2.code_llama2_7b

用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 7B 参数值进行初始化

code_llama2.lora_code_llama2_7b

用于创建启用了 LoRA 的 Code-Llama2 7B 模型的构建器。

code_llama2.qlora_code_llama2_7b

用于创建启用了 QLoRA 的 Code-Llama2 7B 模型的生成器。

code_llama2.code_llama2_13b

用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 13B 参数值进行初始化

code_llama2.lora_code_llama2_13b

用于创建启用了 LoRA 的 Code-Llama2 13B 模型的生成器。

code_llama2.qlora_code_llama2_13b

用于创建启用了 QLoRA 的 Code-Llama2 13B 模型的构建器。

code_llama2.code_llama2_70b

用于创建 Code-Llama2 模型的构建器,该模型使用 https://arxiv.org/pdf/2308.12950.pdf 中的默认 70B 参数值进行初始化

code_llama2.lora_code_llama2_70b

用于创建启用了 LoRA 的 Code-Llama2 70B 模型的生成器。

code_llama2.qlora_code_llama2_70b

用于创建启用了 QLoRA 的 Code-Llama2 70B 模型的构建器。

QWEN-2.5

来自 Qwen2.5 系列的 0.5B、1.5B、3B、7B、14B、32B、72B 型号。

要下载 Qwen2.5 1.5B 模型,例如:

tune download Qwen/Qwen2.5-1.5B-Instruct --output-dir /tmp/Qwen2_5-1_5B-Instruct

qwen2_5.qwen2_5_0_5b

用于创建 Qwen2.5 模型(base 或 instruct)的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct 中的默认 0.5B 参数值进行初始化

qwen2_5.lora_qwen2_5_0_5b

用于创建启用了 LoRA 的 Qwen2.5 0.5B 模型(base 或 instruct)的构建器。

qwen2_5.qwen2_5_1_5b_base

用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-1.5B 中的默认 1.5B 参数值进行初始化

qwen2_5.qwen2_5_1_5b_instruct

用于创建 Qwen2.5 instruct 模型的构建器,使用 https://huggingface.co/Qwen/Qwen2.5-1.5B-Instruct 中的默认 1.5B 参数值进行初始化

qwen2_5.lora_qwen2_5_1_5b_base

用于创建启用了 LoRA 的 Qwen2.5 1.5B 基础模型的构建器。

qwen2_5.lora_qwen2_5_1_5b_instruct

用于创建启用了 LoRA 的 Qwen2.5 1.5B 指示模型的构建器。

qwen2_5.qwen2_5_3b

用于创建 Qwen2.5 模型(base 或 instruct)的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-3B-Instruct 中的默认 3B 参数值进行初始化

qwen2_5.lora_qwen2_5_3b

用于创建启用 LoRA 的 Qwen2.5 3B 模型(基础或指令)的构建器。

qwen2_5.qwen2_5_7b_base

用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-7B 中的默认 7B 参数值进行初始化

qwen2_5.qwen2_5_7b_instruct

用于创建 Qwen2.5 指令模型的构建器使用 https://huggingface.co/Qwen/Qwen2.5-7B-Instruct 中的默认 7B 参数值进行初始化

qwen2_5.lora_qwen2_5_7b_base

用于创建启用了 LoRA 的 Qwen2.5 7B 基础模型的构建器。

qwen2_5.lora_qwen2_5_7b_instruct

用于创建启用了 LoRA 的 Qwen2.5 7B 指示模型的构建器。

qwen2_5.qwen2_5_14b_base

用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-14B 中的默认 14B 参数值进行初始化

qwen2_5.qwen2_5_14b_instruct

用于创建 Qwen2.5 instruct 模型的构建器,使用 https://huggingface.co/Qwen/Qwen2.5-14B-Instruct 中的默认 14B 参数值进行初始化

qwen2_5.lora_qwen2_5_14b_base

用于创建启用了 LoRA 的 Qwen2.5 14B 基础模型的构建器。

qwen2_5.lora_qwen2_5_14b_instruct

用于创建启用 LoRA 的 Qwen2.5 14B 指示模型的构建器。

qwen2_5.qwen2_5_32b_base

用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-32B 中的默认 32B 参数值进行初始化

qwen2_5.qwen2_5_32b_instruct

用于创建 Qwen2.5 指令模型的构建器,使用 https://huggingface.co/Qwen/Qwen2.5-32B-Instruct 中的默认 32B 参数值进行初始化

qwen2_5.lora_qwen2_5_32b_base

用于创建启用了 LoRA 的 Qwen2.5 32B 基础模型的构建器。

qwen2_5.lora_qwen2_5_32b_instruct

用于创建启用 LoRA 的 Qwen2.5 32B 指示模型的构建器。

qwen2_5.qwen2_5_72b_base

用于创建 Qwen2.5 基础模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2.5-72B 中的默认 72B 参数值进行初始化

qwen2_5.qwen2_5_72b_instruct

用于创建 Qwen2.5 指令模型的构建器,使用 https://huggingface.co/Qwen/Qwen2.5-72B-Instruct 中的默认 72B 参数值进行初始化

qwen2_5.lora_qwen2_5_72b_base

用于创建启用了 LoRA 的 Qwen2.5 72B 基础模型的构建器。

qwen2_5.lora_qwen2_5_72b_instruct

用于创建启用了 LoRA 的 Qwen2.5 72B 指示模型的构建器。

qwen2_5.qwen2_5_tokenizer

Qwen2.5 的 Tokenizer。

qwen-2

来自 Qwen2 系列的 0.5B、1.5B 和 7B 大小的模型。

要下载 Qwen2 1.5B 模型,例如:

tune download Qwen/Qwen2-1.5B-Instruct --output-dir /tmp/Qwen2-1.5B-Instruct

qwen2.qwen2

构建与 Qwen2 模型关联的解码器。

qwen2.lora_qwen2

返回 Qwen2 的版本(一个实例),其中 根据传入的配置应用了 LoRA。Qwen2TransformerDecoder()

qwen2.qwen2_0_5b

用于创建 Qwen2 模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2-0.5B-Instruct 中的默认 0.5B 参数值进行初始化

qwen2.lora_qwen2_0_5b

用于创建启用了 LoRA 的 Qwen2 0.5B 模型的构建器。

qwen2.qwen2_1_5b

用于创建 Qwen2 模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2-1.5B-Instruct 中的默认 1.5B 参数值进行初始化

qwen2.lora_qwen2_1_5b

用于创建启用了 LoRA 的 Qwen2 1.5B 模型的构建器。

qwen2.qwen2_7b

用于创建 Qwen2 模型的构建器,该模型使用 https://huggingface.co/Qwen/Qwen2-7B-Instruct 中的默认 7B 参数值进行初始化

qwen2.lora_qwen2_7b

用于创建启用了 LoRA 的 Qwen2 7B 模型的构建器。

qwen2.qwen2_tokenizer

Qwen2 的 Tokenizer。

PHI-3

来自 Phi-3 mini 系列的型号。

要下载 Phi-3 Mini 4k 指示模型:

tune download microsoft/Phi-3-mini-4k-instruct --output-dir /tmp/Phi-3-mini-4k-instruct --hf-token <HF_TOKEN>

phi3.phi3

参数 vocab_size:

词汇表中的标记数。

phi3.lora_phi3

返回 Phi3 的版本(一个实例),其中 LoRA 基于传入的配置应用。

phi3.phi3_mini

用于创建 Phi3 Mini 4K Instruct 模型的构建器。

phi3.lora_phi3_mini

用于创建启用了 LoRA 的 Phi3 Mini (3.8b) 模型的生成器。

phi3.qlora_phi3_mini

用于创建启用了 QLoRA 的 Phi3 迷你模型的构建器。

phi3.phi3_mini_tokenizer

Phi-3 迷你分词器。

米斯特拉尔

所有型号均来自 Mistral AI 系列

重要提示:您需要在 Hugging Face 上请求访问权限才能下载此模型。

要下载 Mistral 7B v0.1 模型:

tune download mistralai/Mistral-7B-v0.1 --output-dir /tmp/Mistral-7B-v0.1 --ignore-patterns "*.safetensors" --hf-token <HF_TOKEN>

mistral.mistral

构建与 mistral 模型关联的解码器。

mistral.lora_mistral

返回一个版本的 Mistral (一个实例 ),其中 LoRA 基于传入的配置应用。

mistral.mistral_classifier

构建一个添加了分类层的基本 mistral 模型。

mistral.lora_mistral_classifier

返回一个版本的 Mistral 分类器(一个实例),其中 LoRA 应用于其自我注意模块中的某些线性层。

mistral.mistral_7b

用于创建使用 https://mistral.ai/news/announcing-mistral-7b/ 中的默认 7b 参数值初始化的 Mistral 7B 模型的生成器

mistral.lora_mistral_7b

用于创建启用了 LoRA 的 Mistral 7B 模型的生成器。

mistral.qlora_mistral_7b

用于创建启用了 QLoRA 的 Mistral 模型的构建器。

mistral.mistral_reward_7b

用于创建 Mistral 7B 模型的构建器,该模型使用默认 7b 参数值初始化:https://huggingface.co/Ray2333/reward-model-Mistral-7B-instruct-Unified-Feedback,其中输出层是投影到单个类以进行奖励建模的分类层。

mistral.lora_mistral_reward_7b

用于创建启用了 LoRA 的 Mistral 奖励 7B 模型的构建器。

mistral.qlora_mistral_reward_7b

用于创建启用了 QLoRA 的 Mistral 奖励 7B 模型的构建器。

mistral.mistral_tokenizer

用于 Mistral 模型的 Tokenizer。

米斯特拉尔。MistralChat模板

根据 Mistral 的 instruct 模型进行格式设置。

杰玛

来自 Gemma 系列的 2B 和 7B 尺寸模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能使用此模型。

要下载 Gemma 2B 模型(不是 Gemma2),请执行以下操作:

tune download google/gemma-2b --ignore-patterns "gemma-2b.gguf"  --hf-token <HF_TOKEN>

要下载 Gemma 7B 模型,请执行以下操作:

tune download google/gemma-7b --ignore-patterns "gemma-7b.gguf"  --hf-token <HF_TOKEN>

杰玛.gemma

构建与 gemma 模型关联的解码器。

gemma.lora_gemma

返回基于传入配置应用了 LoRA 的 Gemma 版本。

gemma.gemma_2b

用于创建 Gemma 2B 模型的构建器,该模型使用默认 2b 参数值初始化,来自:https://blog.google/technology/developers/gemma-open-models/

gemma.lora_gemma_2b

用于创建启用了 LoRA 的 Gemma 2B 模型的生成器。

gemma.qlora_gemma_2b

用于创建启用了 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_7b

用于创建 Gemma 7B 模型的构建器,该模型使用默认 7b 参数值初始化,例如:https://blog.google/technology/developers/gemma-open-models/

gemma.lora_gemma_7b

用于创建启用了 LoRA 的 Gemma 7B 模型的生成器。

gemma.qlora_gemma_7b

用于创建启用了 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_tokenizer

Gemma 的 Tokenizer。

杰玛2 :

来自 Gemma 家族的尺寸为 2B、9B、27B 的模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能使用此模型。

要下载 Gemma2 2B、9B、27B 型号:

tune download google/gemma-2-<MODEL_SIZE>b --ignore-patterns "gemma-2-<MODEL_SIZE>b.gguf"  --hf-token <HF_TOKEN>

gemma2.gemma2

构建与 gemma2 模型关联的解码器。

gemma2.lora_gemma2

返回基于传入配置应用了 LoRA 的 Gemma 版本。

gemma2.gemma2_2b

用于创建 Gemma2 2B 模型的构建器,该模型使用默认 2b 参数值初始化,来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py

gemma2.lora_gemma2_2b

用于创建启用了 LoRA 的 Gemma2 2B 模型的生成器。

gemma2.qlora_gemma2_2b

用于创建启用了 QLoRA 的 Gemma2 模型的生成器。

gemma2.gemma2_9b

用于创建 Gemma2 9B 模型的构建器,该模型使用默认 9b 参数值初始化,这些参数值来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py

gemma2.lora_gemma2_9b

用于创建启用了 LoRA 的 Gemma 9B 模型的生成器。

gemma2.qlora_gemma2_9b

用于创建启用了 QLoRA 的 Gemma 模型的构建器。

gemma2.gemma2_27b

用于创建 Gemma2 27B 模型的构建器,该模型使用默认 27b 参数值初始化,来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py

gemma2.lora_gemma2_27b

用于创建启用了 LoRA 的 Gemma2 27B 模型的生成器。

gemma2.qlora_gemma2_27b

用于创建启用了 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_tokenizer

Gemma 的 Tokenizer。

使用 CLIP 编码器支持多模态的视觉组件。

clip.clip_vision_encoder

构建与剪辑模型关联的视觉编码器。

夹。TokenPositionalEmbedding

图像的标记位置嵌入,图像中的每个标记都不同。

夹。TiledTokenPositionalEmbedding

平铺图像的标记位置嵌入,每个图块不同,每个标记不同。

夹。TilePositionalEmbedding

图块的位置嵌入,每个图块不同,图块中的每个标记都相同。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源