目录

TS 包

子包

子模块

ts.arg_parser模块

此模块解析通过 torchserve 命令行给出的参数。这由 model-server 使用 在运行时。

ts.arg_parser 类ArgParser[来源]

基地:

torchserve 和 torchserve-export 命令的参数解析器 TODO : 添加自述文件 url

static extract_argsargs=None[来源]
静态 model_service_worker_args)[来源]

ArgParser 用于后端 worker。采用套接字名称和套接字类型。 :返回:

静态 ts_parser)[来源]

torchserve 启动服务的参数解析器

ts.context 模块

传入请求的 Context 对象

ts.context 中。上下文model_namemodel_dir清单batch_sizegpumms_versionlimit_max_image_pixels=True指标=model_yaml_config=[来源]

基地:

Context 存储与模型相关的 worker 信息 有些在加载期间是固定的,有些则由服务设置

get_all_request_headeridx int Dict[str str][来源]
get_request_headeridx intkey str 可选[str][来源]
get_request_ididx int = 0 可选[str][源代码]
get_response_content_typeidx int 可选[str][来源]
get_response_headersidx int Dict[str str][来源]
get_response_statusidx int Tuple[int str][来源]
get_sequence_ididx int str[来源]
属性指标
属性 request_processor
set_all_response_status代码 int = 200短语 str = '' 没有[来源]

设置单个请求的状态代码 :p aram 短语: :p aram 代码: :返回:

set_response_content_typeidx intvalue str None[来源]
set_response_headeridxkeyvalue[来源]
set_response_status代码 int = 200短语 str = ''idx int = 0[来源]

设置单个请求的状态代码 :p aram 短语: :p aram idx: 发送到 handle() 方法的 list(data) 中的索引数据 :p aram 代码: :返回:

属性 system_properties
ts.context 中。RequestProcessorrequest_header: dict[来源]

基地:

请求处理器

add_response_propertystrstr[来源]
get_request_properties dict[来源]
get_request_propertykey str 可选[str][源代码]
get_response_headerkey str 可选[str][源代码]
get_response_headers dict[来源]
get_response_status_code int[来源]
get_response_status_phrase 可选[str][来源]
report_statuscodereason_phrase=None None[来源]

ts.model_loader模块

模型加载器。

ts.model_loader 类ModelLoader[来源]

基地:

Base Model Loader 类。

抽象 loadmodel_name strmodel_dir: strhandler 可选[str] = gpu_id可选[int] = batch_size: 可选[int] = 信封可选[str] = limit_max_image_pixels可选[bool] = True[来源]

从文件加载模型。

参数
  • model_name

  • model_dir

  • handler (处理程序) –

  • gpu_id

  • batch_size

  • 信封

  • limit_max_image_pixels

结果

ts.model_loader 类ModelLoaderFactory[来源]

基地:

静态 get_model_loader)[来源]
ts.model_loader 类TsModelLoader[来源]

基地:

TorchServe 1.0 模型加载器

loadmodel_name: strmodel_dir strhandler 可选[str] = gpu_id:可选[int] = batch_size:可选[int] = 信封可选[str] = limit_max_image_pixels 可选[bool] = true,metrics_cache: 可选[MetricsCacheYamlImpl] = 服务[来源]

从文件加载 TorchServe 1.0 模型。

参数
  • model_name

  • model_dir

  • handler (处理程序) –

  • gpu_id

  • batch_size

  • 信封

  • limit_max_image_pixels

  • metrics_cache – MetricsCacheYamlImpl 对象

结果

ts.model_server模块

用于定义 Model Server 入口点的文件

ts.model_server。load_propertiesfile_path: str Dict[str str][来源]

将属性文件读入 map。

ts.model_server。start None[来源]

这是 Model Server 的入口点 :返回:

ts.model_service_worker模块

ModelServiceWorker 是由 MMS 前端启动的工作程序。 通信消息格式:二进制编码

ts.model_service_worker 类TorchModelServiceWorkers_type: 可选[str] = s_name: 可选[str] = host_addr可选[str] = port_num 可选[int] = metrics_config:可选[str] = async_comm可选[bool] = False[来源]

基地:

用于处理 Model Server 的 python 服务代码的后端工作程序

handle_connectioncl_socket[来源]

手柄插槽连接。

参数

cl_socket

结果

handle_connection_asynccl_socket[来源]

手柄插槽连接。

参数

cl_socket

结果

load_modelload_model_request[来源]

预期命令 {

“command” : “load”, 字符串 “modelPath” : “/path/to/model/file”, 字符串 “modelName” : “name”, 字符串 “gpu” : 如果 CPU else gpu_id, int 则无 “handler” : 服务处理程序入口点(如果提供)、字符串 “envelope” : 请求数据的包装器/解包装器名称(如果提供),字符串 “batchSize” : 批量大小,int “limitMaxImagePixels”: 限制枕头图像 max_image_pixels,bool

}

参数

load_model_request

结果

run_server[来源]

运行 backend worker 进程并侦听套接字 :返回:

ts.service 模块

CustomService 类定义

ts.service 中。Servicemodel_namemodel_dirmanifestentry_pointgpubatch_sizelimit_max_image_pixels=Truemetrics_cache=没有[来源]

基地:

自定义entry_point包装器

property 上下文
predictbatch[来源]
预测命令 = {

“command”: “预测”, “批处理”: [ REQUEST_INPUT ]

} :p aram batch:请求列表 :返回:

static retrieve_data_for_inferencebatch[来源]
REQUEST_INPUT = {

“requestId”: “111-222-3333”, /请求 ID “参数” : [ 参数 ]

}

参数 = {

“name” : 参数名称 “contentType”: “http-content-types”, / “值”: “值 1”

}

参数

批次

结果

set_cl_socketcl_socket[来源]
ts.service 的 API 服务。emit_metrics指标[来源]

发出提供的 Dictionary 中的指标

参数
  • metrics所有字典) –

  • 计量指标

  • metric_name当 key 为 时) –

  • 对象value 是一个指标) –

ts.version 模块

这是 TorchServe 的当前版本

模块内容

此模块执行以下操作: a. 启动 model-server。 b.根据配置的模型创建端点。 c. 公开标准的“ping”和“api-description”端点。 d. 等待处理推理请求。

文档

访问 PyTorch 的全面开发人员文档

查看文档

教程

获取面向初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并解答您的问题

查看资源