As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Tipos e estruturas de instância compatíveis

SageMaker O Amazon Neo oferece suporte a estruturas populares de aprendizado profundo para compilação e implantação. Você pode implantar seu modelo em instâncias de nuvem, tipos de instância de Inferentia da AWS ou aceleradores Amazon Elastic Inference.

A seguir, descrevemos as estruturas suportadas pelo SageMaker Neo e as instâncias de nuvem de destino nas quais você pode compilar e implantar. Para obter informações sobre como implantar seu modelo compilado em uma instância de nuvem ou Inferentia, consulte Implantar um modelo com instâncias de nuvem. Para obter informações sobre como implantar seu modelo compilado com os aceleradores do Elastic Inference, consulte Use EI em endpoints SageMaker hospedados pela Amazon.

Instâncias de nuvem

SageMaker O Neo oferece suporte às seguintes estruturas de aprendizado profundo para instâncias de nuvem de CPU e GPU:

Framework Versão da estrutura Versão do modelo Modelos Formatos de modelo (empacotados em *.tar.gz) Kits de ferramentas
MXNet 1.8.0 Compatível com 1.8.0 ou anterior Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades Um arquivo de símbolos (.json) e um arquivo de parâmetros (.params) GluonCV v0.8.0
ONNX 1.7.0 Compatível com 1.7.0 ou anterior Classificação de imagens, SVM Um arquivo de modelo (.onnx)
Keras 2.2.4 Compatível com 2.2.4 ou anterior Classificação de imagens Um arquivo de definição de modelo (.h5)
PyTorch 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13, ou 2.0 Compatível com 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13, e 2.0

Classificação de imagens

As versões 1.13 e 2.0 suportam Detecção de Objetos, Transformador de Visão e HuggingFace

Um arquivo de definição de modelo (.pt ou .pth) com dtype de entrada de float32
TensorFlow 1.15.3 ou 2.9 Compatível com 1.15.3 e 2.9 Classificação de imagens

Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis

Para modelos congelados, apenas um arquivo .pb ou .pbtxt

XGBoost 1.3.3 Compatível com 1.3.3 ou anterior Árvores de decisão Um arquivo de modelo XGBoost (.model) em que o número de nós em uma árvore é menor que 2^31
nota

“Versão do modelo” é a versão da estrutura usada para treinar e exportar o modelo.

Instance Types (Tipos de instâncias)

Você pode implantar seu modelo SageMaker compilado em uma das instâncias de nuvem listadas abaixo:

Instância Tipo de computação

ml_c4

Padrão

ml_c5

Padrão

ml_m4

Padrão

ml_m5

Padrão

ml_p2

Computação acelerada

ml_p3

Computação acelerada

ml_g4dn

Computação acelerada

Para obter informações sobre a vCPU, a memória e o preço por hora disponíveis para cada tipo de instância, consulte Amazon SageMaker Pricing.

nota

Ao compilar para ml_* instâncias usando a PyTorch estrutura, use o campo de opções do compilador na Configuração de saída para fornecer o tipo de dados correto (dtype) da entrada do modelo.

O padrão é definido como "float32".

AWS Inferência

SageMaker O Neo oferece suporte às seguintes estruturas de aprendizado profundo para o Inf1:

Framework Versão da estrutura Versão do modelo Modelos Formatos de modelo (empacotados em *.tar.gz) Kits de ferramentas
MXNet 1.5 or 1.8 Compatível com 1.8, 1.5 ou anterior Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades Um arquivo de símbolos (.json) e um arquivo de parâmetros (.params) GluonCV v0.8.0
PyTorch 1.7, 1.8 or 1.9 Compatível com 1.9 ou anterior Classificação de imagens Um arquivo de definição de modelo (.pt ou .pth) com dtype de entrada de float32
TensorFlow 1.15 ou 2.5 Compatível com 2.5, 1.15 ou anterior Classificação de imagens

Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis

Para modelos congelados, apenas um arquivo .pb ou .pbtxt

nota

“Versão do modelo” é a versão da estrutura usada para treinar e exportar o modelo.

Você pode implantar seu modelo SageMaker compilado pelo NEO em instâncias Amazon EC2 AWS Inf1 baseadas em Inferencia. AWS O Inferentia é o primeiro chip de silício personalizado da Amazon projetado para acelerar o aprendizado profundo. Atualmente, você pode usar a instância ml_inf1 para implantar seus modelos compilados.

AWS Inferentia2 e Trainium AWS

Atualmente, você pode implantar seu modelo SageMaker neocompilado em instâncias Amazon EC2 AWS Inf2 baseadas em Inferentia2 (na região Leste dos EUA (Ohio)) e em instâncias Amazon EC2 Trn1 AWS baseadas em Trainium (na região Leste dos EUA (Norte da Virgínia)). Para obter mais informações sobre os modelos compatíveis nessas instâncias, consulte as Diretrizes de ajuste da arquitetura de modelos na documentação do AWS Neuron e os exemplos no repositório Neuron Github.

Amazon Elastic Inference

SageMaker O Neo oferece suporte às seguintes estruturas de aprendizado profundo para Elastic Inference:

Framework Versão da estrutura Versão do modelo Modelos Formatos de modelo (empacotados em *.tar.gz)
TensorFlow 2.3.2 Compatível com 2.3 Classificação de imagens, detecção de objetos, segmentação semântica, estimativa de pose, reconhecimento de atividades

Para os modelos salvos, um arquivo .pb ou um arquivo .pbtxt e um diretório de variáveis que contenha variáveis.

Para modelos congelados, apenas um arquivo .pb ou .pbtxt.

Você pode implantar seu modelo SageMaker compilado pelo NEO em um Elastic Inference Accelerator. Para ter mais informações, consulte Use EI em endpoints SageMaker hospedados pela Amazon.