AWS es un amplificador de su viaje de flujo de trabajo de ML
PyTorch es una biblioteca de aprendizaje profundo que se origina en Facebook, pero ahora es de código abierto. La característica principal de PyTorch es hacer que su cálculo matricial sea más rápido en las instancias de GPU. Red neuronal profunda basada en un sistema de autograduación basado en cinta.
Citas del sitio web de PyTorch.
PyTorch 2.0 ofrece el mismo desarrollo en modo entusiasta y la misma experiencia de usuario, al tiempo que cambia y mejora fundamentalmente la forma en que PyTorch opera a nivel de compilador bajo el capó con un rendimiento más rápido y soporte para formas dinámicas y distribuidas.
También te puede interesarCómo usar el generador de texto en imagen de Picsart para crear imágenes de IA
Las redes neuronales son un concepto muy común en inteligencia artificial. Al igual que el cerebro humano, transmitimos y procesamos información mediante señales neuronales. La IA también usa neuronas para procesar y entrenar la información. El objetivo de todo el flujo de trabajo de ML es entrenar su modelo para lograr la mejor pérdida y cobertura posibles en el resultado final.
¿Qué son los tensores?
Un PyTorch Tensor es básicamente lo mismo que una matriz numpy: no sabe nada sobre aprendizaje profundo o gráficos o gradientes computacionales, y es solo una matriz n-dimensional genérica que se usará para el cálculo numérico arbitrario.
Tensores en la estructura de datos de almacenamiento más pequeña para almacenar la matriz n-dimensional. Todo el cálculo siguiente se basará en la transformación de tensores.
¿Cómo ocurre el entrenamiento en PyTorch?
El entrenamiento ocurre en PyTorch en dos pasos. Propagación hacia adelante y propagación hacia atrás. Puede entender como parámetros de ejecución y corrección basados en el descenso de gradientes y luego volver a ejecutar hasta obtener un resultado optimizado.
También te puede interesarAutomatizar con Python: curso completo para principiantesPropagación hacia adelante: En prop directa, el NN hace su mejor conjetura sobre la salida correcta. Ejecuta los datos de entrada a través de cada una de sus funciones para hacer esta conjetura.
Propagación hacia atrás: En backprop, el NN ajusta sus parámetros proporcionalmente al error en su conjetura. Lo hace recorriendo hacia atrás desde la salida, recopilando las derivadas del error con respecto a los parámetros de las funciones (gradientes), y optimizando los parámetros usando descenso de gradiente
¿Qué es PyTorch AutoGrad?
torch.autograd es el motor de diferenciación automática de PyTorch que impulsa el entrenamiento de redes neuronales.
Cubriremos AutoGrad más usando fórmulas matemáticas en la Parte 5 de este tutorial para ver cómo, bajo el capó, AutoGrad está acelerando las experiencias de capacitación de aprendizaje automático. Puedes echar un vistazo al documento.
También te puede interesarCómo mejorar la calidad de la imagen y restaurar fotos antiguas con la herramienta AI Enhance de PicsartHay un par de bibliotecas disponibles en PyTorch para que las usen los desarrolladores.
En la parte 2, daremos un ejemplo de cómo usar estas bibliotecas para compilar PyTorch 2.0.
En este artículo, he cubierto los conceptos básicos que utiliza el proyecto PyTorch, que incluyen: a/ ¿Qué son las redes neutrales? b/ ¿Qué son los tensores? c/ ¿Cómo ocurre el entrenamiento en PyTorch? d/¿Qué es PyTorch autograd? e/¿Cuáles son las bibliotecas más utilizadas en PyTorch?
En los siguientes artículos de esta serie, iremos en el siguiente orden:
También te puede interesarCarga cognitiva: la ciencia detrás del rendimiento mentalPor favor manténgase al tanto.
[post_relacionado id=»1421″]