Estabilidad en Machine Learning a través de sus algoritmos

BB.png

INSCRIBETE AL CURSO

BB2.png

Objetivos



​​

Clarificar los conceptos fundamentales de Machine Learning en diversos algoritmos tales como overfitting, regularización y costo computacional.

Conocer los detalles de tres célebres y útiles algoritmos (modelos) en Machine Learning: Redes Neuronales, Support Vector Machines y Árboles de Decisión.

Invitar a los alumnos al método de Boosting con un enfoque en sus aplicaciones a Machine Learning así como sus limitaciones.

Estudiar los detalles detrás de algunos algoritmos estocásticos en Machine Learning.

Una vez cumplidos los objetivos anteriores buscamos iniciar a los alumnos en las ideas de estabilidad dentro de Machine Learning, lo haremos mediante ejemplos concretos con los algoritmos y meta-algoritmos detallados en el temario.



Temario



Principios de redes neuronales

Perceptrón lineal

Justificación teórica del Perceptrón

Regularización del perceptrón

Algoritmo del gradiente

Redes neuronales en general

Forecasting vía redes neuronales



2. Support Vector Machines​

Definiciones básicas y complementos de probabilidad

Comparación con el Perceptrón

Estabilidad en SVM



3. Árboles de decisión ​

Algoritmos básicos

Entropía y su relación con la teoría de la información.

Estabilidad de los árboles de decisión



4. Boosting​

Boosting conjuntista

Boosting estocástico

Composición de algoritmos lineales

Estabilidad de Boosting



5. Stochastic Gradient Descent

Repaso sobre el método del gradiente

Método del gradiente estocástico para el perceptrón

Gradiente estocástico para SVM

Gradiente estocástico para redes neuronales en general



6. Invitación a los Algoritmos de aproximación estocástica (si el tiempo lo permite)

Urnas de Polya

Principios de Martingalas

Funciones de Lyapunov

Aproximación estocástica

TEMARIO