Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Tipos de instancias y marcos compatibles

Amazon SageMaker Neo es compatible con los marcos de aprendizaje profundo más populares tanto para la compilación como para la implementación. Puede implementar su modelo en instancias de nube, tipos de instancias de Inferentia AWS o aceleradores de Amazon Elastic Inference.

A continuación, se describen los marcos compatibles con SageMaker Neo y las instancias de nube de destino en las que puede compilar e implementar. Para obtener información sobre cómo implementar su modelo compilado en una instancia de nube o de Inferentia, consulte Implementación de un modelo con instancias de nube. Para obtener información sobre cómo implementar el modelo compilado con aceleradores de Inferencia elástica, consulte Utilice EI en Amazon SageMaker Hosted Endpoints.

Instancias en la nube

SageMaker Neo admite los siguientes marcos de aprendizaje profundo para las instancias de nube de CPU y GPU:

Marcos Versión de marco Versión del modelo Modelos Formatos de modelo (empaquetados en *.tar.gz) Kits de herramientas
MXNet 1.8.0 Compatible con 1.8.0 o versiones anteriores Clasificación de imágenes, detección de objetos, segmentación semántica, estimación de poses, reconocimiento de actividades Un archivo de símbolos (.json) y un archivo de parámetros (.params) GluonCV v0.8.0
ONNX 1.7.0 Compatible con 1.7.0 o versiones anteriores Clasificación de imágenes, SVM Un archivo de modelos (.onnx)
Keras 2.2.4 Compatible con 2.2.4 o versiones anteriores Clasificación de imágenes Un archivo de definición de modelo (.h5)
PyTorch 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13 o 2.0 Compatible con 1.4, 1.5, 1.6, 1.7, 1.8, 1.12, 1.13 y 2.0

Clasificación de imágenes

Las versiones 1.13 y 2.0 son compatibles con Object Detection, Vision Transformer y HuggingFace

Un archivo de definición de modelo (.pt o.pth) con la entrada dtype de float32
TensorFlow 1.15.3 o 2.9 Compatible con 1.15.3 y 2.9 Clasificación de imágenes

En el caso de los modelos guardados, un archivo .pb o .pbtxt y un directorio de variables que contiene variables

En el caso de los modelos congelados, un solo archivo .pb o .pbtxt

XGBoost 1.3.3 Compatible con 1.3.3 o versiones anteriores Árboles de decisión Un archivo de modelo de XGBoost (.model) en el que el número de nodos de un árbol es inferior a 2^31
nota

La “versión del modelo” es la versión del marco utilizada para formar y exportar el modelo.

Tipos de instancias

Puede implementar su modelo SageMaker compilado en una de las instancias de nube que se indican a continuación:

Instancia Tipo de computación

ml_c4

Estándar

ml_c5

Estándar

ml_m4

Estándar

ml_m5

Estándar

ml_p2

Computación acelerada

ml_p3

Computación acelerada

ml_g4dn

Computación acelerada

Para obtener información sobre la vCPU, la memoria y el precio por hora disponibles para cada tipo de instancia, consulta los precios de Amazon SageMaker .

nota

Al compilar ml_* instancias mediante un PyTorch marco, utilice el campo de opciones del compilador en la configuración de salida para proporcionar el tipo de datos correcto (dtype) de la entrada del modelo.

El valor predeterminado se establece en "float32".

AWS Inferencia

SageMaker Neo es compatible con los siguientes marcos de aprendizaje profundo para Inf1:

Marcos Versión de marco Versión del modelo Modelos Formatos de modelo (empaquetados en *.tar.gz) Kits de herramientas
MXNet 1.5 o 1.8 Compatible con 1.8, 1.5 y versiones anteriores Clasificación de imágenes, detección de objetos, segmentación semántica, estimación de poses, reconocimiento de actividades Un archivo de símbolos (.json) y un archivo de parámetros (.params) GluonCV v0.8.0
PyTorch 1.7, 1.8 o 1.9 Compatible con 1.9 y versiones anteriores Clasificación de imágenes Un archivo de definición de modelo (.pt o.pth) con la entrada dtype de float32
TensorFlow 1.15 o 2.5 Compatible con 2.5, 1.15 y versiones anteriores Clasificación de imágenes

En el caso de los modelos guardados, un archivo .pb o .pbtxt y un directorio de variables que contiene variables

En el caso de los modelos congelados, un solo archivo .pb o .pbtxt

nota

La “versión del modelo” es la versión del marco utilizada para formar y exportar el modelo.

Puede implementar su modelo SageMaker compilado en NEO en instancias Inf1 de AWS Amazon EC2 basadas en Inferencia. AWS Inferentia es el primer chip de silicio personalizado de Amazon diseñado para acelerar el aprendizaje profundo. Actualmente, puede usar la instancia ml_inf1 para implementar sus modelos compilados.

AWS Inferentia2 y Trainium AWS

Actualmente, puede implementar su modelo SageMaker compilado en NEO en instancias Amazon EC2 Inf2 AWS basadas en Inferentia2 (en la región EE.UU. Este (Ohio)) y en instancias Amazon EC2 Trn1 AWS basadas en Trainium (en la región EE.UU. Este (Norte de Virginia)). Para obtener más información sobre los modelos compatibles con estas instancias, consulte las pautas de ajuste de la arquitectura de modelos en la documentación de Neuron y los ejemplos del repositorio de Github de Neuron. AWS

Amazon Elastic Inference

SageMaker Neo admite los siguientes marcos de aprendizaje profundo para Elastic Inference:

Marcos Versión de marco Versión del modelo Modelos Formatos de modelo (empaquetados en *.tar.gz)
TensorFlow 2.3.2 Compatible con 2.3 Clasificación de imágenes, detección de objetos, segmentación semántica, estimación de poses, reconocimiento de actividades

En el caso de los modelos guardados, un archivo .pb o .pbtxt y un directorio de variables que contiene variables.

En el caso de los modelos congelados, un solo archivo .pb o .pbtxt.

Puede implementar su modelo SageMaker compilado en NEO en un Elastic Inference Accelerator. Para obtener más información, consulte Utilice EI en Amazon SageMaker Hosted Endpoints.