import torch
  class MyModule(torch.nn.Module):

    def __init__(self, N, M):
      super(MyModule, self).__init__()
      self.weight = torch.nn.Parameter(torch.rand(N, M))

    def forward(self, input):
      if input.sum() > 0:
        output = self.weight.mv(input)
      else:
        output = self.weight + input
      return output

    # Compile the model code to a static representation
    my_script_module = torch.jit.script(MyModule(3, 4))

    # Save the compiled code and model data so it can be loaded elsewhere
    my_script_module.save("my_script_module.pt")

生产就绪

通过 TorchScript,PyTorch 在急切模式下提供了易用性和灵活性,同时在 C++ 运行时环境中无缝过渡到图模式,以提高速度、优化和功能。

TorchServe

TorchServe 是一个方便易用的工具,用于大规模部署 PyTorch 模型。它与云和环境无关,支持多模型服务、日志记录、度量以及为应用程序集成创建 RESTful 端点等功能。

  ## Convert the model from PyTorch to TorchServe format
  torch-model-archiver --model-name densenet161 \
  --version 1.0 --model-file serve/examples/image_classifier/densenet_161/model.py \
  --serialized-file densenet161-8d451a50.pth \
  --extra-files serve/examples/image_classifier/index_to_name.json \
  --handler image_classifier

  ## Host your PyTorch model

 torchserve --start --model-store model_store --models densenet161=densenet161.mar
  import torch.distributed as dist
  from torch.nn.parallel import DistributedDataParallel
  
  dist.init_process_group(backend='gloo')
  model = DistributedDataParallel(model)

分布式训练

通过利用原生支持的异步执行集合操作和点对点通信,从而优化研究和生产中的性能,在 Python 和 C++ 中都可以访问。

移动端 (实验阶段)

PyTorch 支持从 Python 到在 iOS 和 Android 上部署的端到端工作流程。它扩展了 PyTorch API,以涵盖在移动应用程序中集成 ML 所需的常见预处理和集成任务。

  ## Save your model
  torch.jit.script(model).save("my_mobile_model.pt")

  ## iOS prebuilt binary
  pod LibTorch
  ## Android prebuilt binary
  implementation 'org.pytorch:pytorch_android:1.3.0'

  ## Run your model (Android example)
  Tensor input = Tensor.fromBlob(data, new long[]{1, data.length});
  IValue output = module.forward(IValue.tensor(input));
  float[] scores = output.getTensor().getDataAsFloatArray();
  import torchvision.models as models
  resnet18 = models.resnet18(pretrained=True)
  alexnet = models.alexnet(pretrained=True)
  squeezenet = models.squeezenet1_0(pretrained=True)
  vgg16 = models.vgg16(pretrained=True)
  densenet = models.densenet161(pretrained=True)
  inception = models.inception_v3(pretrained=True)

强大的生态系统

一支由研究人员和开发者组成的活跃社区已经构建了丰富的工具和库生态系统,用于扩展 PyTorch 并支持从计算机视觉到强化学习等领域的开发。

原生 ONNX 支持

将模型导出为标准的 ONNX(开放神经网络交换)格式,以便直接在兼容 ONNX 平台、运行时、可视化工具等上访问。

  import torch.onnx
  import torchvision

  dummy_input = torch.randn(1, 3, 224, 224)
  model = torchvision.models.alexnet(pretrained=True)
  torch.onnx.export(model, dummy_input, "alexnet.onnx")
  #include <torch/torch.h>

  torch::nn::Linear model(num_features, 1);
  torch::optim::SGD optimizer(model->parameters());
  auto data_loader = torch::data::data_loader(dataset);

  for (size_t epoch = 0; epoch < 10; ++epoch) {
    for (auto batch : data_loader) {
      auto prediction = model->forward(batch.data);
      auto loss = loss_function(prediction, batch.target);
      loss.backward();
      optimizer.step();
    }
  }

C++ 前端

C++ 前端是 PyTorch 的纯 C++ 接口,遵循已建立的 Python 前端的设计和架构。它旨在实现在高性能、低延迟和裸机 C++ 应用中的研究。

云支持

PyTorch 在主要的云平台上得到了良好的支持,提供了无缝开发和简便扩展的功能,包括预构建的镜像、大规模的 GPU 训练、在生产环境中运行模型的能力等。

  export IMAGE_FAMILY="pytorch-latest-cpu"
  export ZONE="us-west1-b"
  export INSTANCE_NAME="my-instance"
  
  gcloud compute instances create $INSTANCE_NAME \
    --zone=$ZONE \
    --image-family=$IMAGE_FAMILY \
    --image-project=deeplearning-platform-release