¿Qué es Amazon SageMaker Neo?
Amazon SageMaker Neo permite a los desarrolladores optimizar los modelos de aprendizaje automático (ML) para realizar inferencias con SageMaker en la nube y en dispositivos compatibles en el borde.
La inferencia de aprendizaje automático es el proceso que consiste en utilizar un modelo de aprendizaje automático entrenado para efectuar predicciones. Luego de entrenar un modelo para lograr que tenga una precisión alta, los desarrolladores suelen dedicar mucho tiempo y esfuerzo a ajustar el modelo para obtener un alto rendimiento. Para realizar inferencias en la nube, los desarrolladores suelen optar por utilizar grandes instancias con mucha capacidad de memoria e importantes capacidades de procesamiento a costos más altos para lograr un rendimiento mejor. Para efectuar inferencias en los dispositivos de borde con capacidades de memoria y cómputo limitadas, los desarrolladores suelen dedicar meses al ajuste manual del modelo para lograr un rendimiento aceptable dentro de las limitaciones que presenta el hardware del dispositivo.
Amazon SageMaker Neo optimiza automáticamente los modelos de aprendizaje automático para que las inferencias que se realicen en las instancias en la nube y en los dispositivos de borde se lleven a cabo más rápido y sin ninguna pérdida de precisión. Comience con un modelo de machine learning que ya se haya creado con DarkNet, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite, ONNX o XGBoost y que se haya entrenado con Amazon SageMaker o cualquier otra herramienta. Luego, elija la plataforma de equipos de destino, que puede ser una instancia de alojamiento de SageMaker o un dispositivo periférico basado en procesadores de Ambarella, Apple, ARM, Intel, MediaTek, Nvidia, NXP, Qualcomm, RockChip o Texas Instruments. Con un solo clic, SageMaker Neo optimiza el modelo entrenado y lo compila en un archivo ejecutable. El compilador utiliza un modelo de aprendizaje automático para aplicar las optimizaciones de rendimiento que extraen el mejor rendimiento disponible para su modelo en la instancia en la nube o el dispositivo de borde. Luego, implemente el modelo como un punto de enlace de SageMaker o en dispositivos de borde compatibles y comience a efectuar predicciones.
Para la realización de inferencias en la nube, SageMaker Neo acelera el proceso y ahorra costos al crear un contenedor optimizado para la inferencia en el alojamiento de SageMaker. Para la realización de inferencias en el borde, SageMaker Neo ahorra a los desarrolladores meses de trabajo manual al ajustar el modelo automáticamente para el sistema operativo y el hardware de procesador seleccionados.
Amazon SageMaker Neo utiliza Apache TVM y compiladores y bibliotecas de aceleración proporcionados por socios para ofrecer el mejor rendimiento disponible para un modelo y un destino de hardware determinados. AWS aporta el código del compilador al proyecto de Apache TVM y el código de tiempo de ejecución al proyecto de código abierto de Neo-AI, bajo la licencia de software de Apache, para permitir a los proveedores de procesadores y los fabricantes de dispositivos efectuar innovaciones con rapidez en un tiempo de ejecución compacto común.