Aprendizaje automático, una guía introductoria

aprendizaje automático
escrito por un humano, no por la IA clock2 min

Aunque el aprendizaje automático nos puede parecer magia, en realidad solo se trata –como en otras tantas ocasiones– de matemáticas. El poder de computación actual ha permitido que los problemas de cálculo (mas bien de álgebra deberíamos decir) que eran practicamene inabordables hace un par de décadas se puedan resolver ahora en un pseudo tiempo real, permitiendo que las aplicaciones prácticas del aprendizaje automático hayan llegado a nuestras vidas y a nuestros bolsillos.

En esta serie de tres videos se presentan las bases de uno de los modelos mas ampliamente utilizados en aprendizaje automático: las redes neuronales multicapa con propagación hacia atras. No necesitas ser matemático para entender los conceptos. Con conocimientos básicos de álgebra podrás seguir las explicaciones, aunque cada vídeo es algo mas «matemático» que el anterior.

El audio está en inglés con subtítulos en castellano.

Las matemáticas detrás del aprendizaje automático

Contenido de terceros bloqueado

El contenido original no puede ser mostrado debido a que eligió no aceptar cookies de terceros.

Revisar mi elección.

El perceptrón multicapa es quizá uno de los modelos de redes neuronales mas utilizados históricamente. Su estructura trata de imitar la estructura biológica de la materia gris de nuestro cerebro. No es el modelo más simple de aprendizaje automático (la regresión lineal lo es mucho mas), pero es el modelo mas simple de los modelos basados en neuronas artificiales.

Cómo aprenden las redes neuronales (descenso de gradiente)

Contenido de terceros bloqueado

El contenido original no puede ser mostrado debido a que eligió no aceptar cookies de terceros.

Revisar mi elección.

Es muy relevante el hecho de que el descenso de gradiente encuentra un mínimo local que no tiene que ser –ni siquiera acercarse– al mínimo global. Por ello, es importante que los modelos sean ajustados por seres humanos, que decidan si el rendimiento del modelo es lo suficientemente bueno, y o bien ajusten parámetros del modelo o bien directamente descarten un tipo de modelo dado para un problema de aprendizaje concreto.

Propagación hacia atrás (back propagation)

Contenido de terceros bloqueado

El contenido original no puede ser mostrado debido a que eligió no aceptar cookies de terceros.

Revisar mi elección.

La propagación hacia atrás permite mejorar el resultado de una red neuronal en tanto en cuanto que clasifica de una manera mas adecuada nuestros ejemplos de entrenamiento (y si éstos están bien elegidos, cualquier otro ejemplo o caso real). A esta iteración lo llamamos aprendizaje automático. Como se explicaba en el video anterior, el proceso de propagación hacia atrás concluye cuando encontramos un mínimo local y nuestras iteraciones ya no nos permiten mejorar mas. La técnica de los mini-paquetes es una simplificación que permite reducir el ingente número de operaciones necesarias para completar el algoritmo si se usasen todos los ejemplos de aprendizaje en cada operación.

Optimizar el comportamiento de la red neuronal para clasificar correctamente los ejemplos de entrenamiento no es el final del proceso. El siguiente paso consiste en la evaluación para valorar cuan bien se comporta nuestro modelo (nuestra topología de red + todos los ajustes de pesos y sesgos que hemos realizado durante la fase de aprendizaje) frente a los ejemplos que la red nunca ha visto.

Si estás aún mas interesado en las matemáticas de este proceso, este video explica todo lo que tiene que ver con las fórmulas detrás del back propagation.

En el canal de 3Blue1Brown puedes encontrar mas videos sobre aprendizaje automático, y de otros muchos temas relacionados con las matemáticas.