MA2401 - Matemáticas para la Ciencia de Datos
Le damos la bienvenida a nuestro curso Matemáticas para la Ciencia de Datos, en esta sección encontrará el material semanal que incluye las grabaciones, las notas del curso y las presentaciones. también podrá descargar desde aquí las evaluaciones del curso. ¡Le deseamos mucho éxito en su aprendizaje!
.png)
Semana
1
Variables aleatorias en Ciencia de Datos
.png)
Bien entendidas, las bases de datos con las que se entrenan los modelos en Machine Learning son el resultado de un proceso aleatorio el cual puede modelarse con distintos tipos de distribuciones.
MA2401 - Feb 06, 2024
MA2401 - Feb 07, 2024
MA2401 - Feb 09, 2024
Semana
2
Independencia estadística y correlación

La correlación es una medida estadística que utiliza la frecuencia con la que dos variables se relacionan proporcionalmente con la misma constante. Pensemos por ejemplo en el número de metros cuadrados y el costo de un terreno.
MA2401 - Feb 13, 2024
MA2401 - Feb 14, 2024
MA2401 - Feb 16, 2024
Semana
3
Regresiones y Poisson

La primera vez que se propuso utilizar una distribución de Poisson fue para calcular la frecuencia con la que se encarcelaba injustamente en Francia, tomando en cuenta el número de sentencias.
MA2401 - Feb 20, 2024
MA2401 - Feb 21, 2024
MA2401 - Feb 23, 2024
Semana
4
Ley de los grandes números y Teorema límite central

La Ley de los Grandes números es uno de los únicos resultados matemáticos que garantiza que una base de datos podría ser una buena aproximación a un resultado general, pensemos por ejemplo en un sondeo previo a una elección presidencial.
MA2401 - Feb 27, 2024
MA2401 - Feb 28, 2024
MA2401 - Mar 01, 2024
Semana
5
Cadenas de Markov PageRank

Gracias al comportamiento límite de las cadenas de markov es posible predecir cuáles serían las páginas más visitadas si navegamos aleatoriamente por aquellas páginas que contengan un texto.
MA2401 - Mar 05, 2024
MA2401 - Mar 07, 2024
MA2401 - Mar 08, 2024
Semana
6
Metropolis Hastings & Examen I

Utilizando el algoritmo de metropolis Hastings es posible descifrar mensajes codigicados por medio de una búsqueda aleatoria a través de todas las posibles traducciones.
MA2401 - Mar 12, 2024
MA2401 - Mar 13, 2024
MA2401 - Mar 15, 2024
Semana
7
Sistemas de ecuaciones lineales

El aprendizaje supervisado es muy parecido al problema de resolver un sistema de ecuaciones lineales, en este caso las matrices formadas por la base de datos es muy similar a la de los coeficientes en un sistema de ecuaciones lineales.
MA2401 - Mar 19, 2024
MA2401 - Mar 20, 2024
MA2401 - Mar 22, 2024
Semana
8
Similitud del coseno y geometría lineal

Así como la correlación nos permite calcular las relaciones que existen entre dos columnas, es posible detectar cuando dos registros dentro de nuestra base de datos son semejantes por medio del ángulo entre nuestros vectores.
MA2401 - Abr 02, 2024
MA2401 - Abr 03, 2024
MA2401 - Abr 05, 2024
Semana
9
Análisis de componentes principales

Una de las técnicas de compresión más conocidas es el análsiis de componentes principales el cual construye una aproximación lineal de nuestra información mediante una cantidad menor de coordenadas. Podemos pensar en la información genética de las personas.
MA2401 - Abr 09, 2024
MA2401 - Abr 10, 2024
MA2401 - Abr 12, 2024
Semana
10
Descomposición en valores singulares

Las bases de datos con una enorme cantidad de textos son muy complicadas desde el punto de vista computacional y gracias a la factorización de matrices es posible eficientar este tipo de búsquedas.
MA2401 - Abr 16, 2024
MA2401 - Abr 18, 2024
MA2401 - Abr 19, 2024
Semana
11
Auto-vectors y auto-valores

El concepto de auto-vector es un reflejo de las simetrías contenidas en algunas de nuestras bases de datos y en algunas ocasiones podemos utilizarlas para reducir la cantidad de cálculos.
MA2401 - Abr 23, 2024
MA2401 - Abr 24, 2024
MA2401 - Abr 26, 2024
Semana
12
Álgebra lineal numérica & Examen II

Existen técnicas del álgebra lineal que permiten reducir el número de cálculos necesarios para realizar una búsqueda, este tipo de problemas son muy comunes en Big Data y utilizan métodos de reducción de la dimensión.
MA2401 - Abr 30, 2024
MA2401 - May 01, 2024
MA2401 - May 06, 2024
Semana
13
Optimización lineal y método simplex

Aunque parezca una técnica poco sofisticada, la programación lineal es una de las herramientas más versátiles para resolver problemas de matemáticas aplicadas, es cierto que las soluciones no resuelven todos los problemas sin embargo una amplia cantidad de problemas se pueden resolver por medio de estas técnicas.
MA2401 - May 07, 2024
MA2401 - May 08, 2024
MA2401 - May 10, 2024
Semana
Derivadas, Método de Cauchy y Convexidad
.png)
Aunque no existe una explicación matemática satisfactoria de por qué funcionan los modelos de machine learning, utilizando el concepto de convexidad ayuda a entender algunos casos particulaes en los que sí existen teoremas de convergencia. El algoritmo que veremos en esta semana fue propuest originalmetne por Cauchy, la idea principal es optimizar siguiendo la dirección opuesta del gradiente.
MA2401 - May 14, 2024
MA2401 - May 15, 2024
MA2401 - May 17, 2024
Semana
Gradient Boosting & SGD

Existen métodos similares al propuesto por Cauchy que tienen algunas ventajas, en esta semana revisaremos dos de ellos.
MA2401 - May 21, 2024
MA2401 - May 22, 2024
MA2401 - May 24, 2024
Semana
Back-propagation y redes profundas

El algoritmo del gradiente descendiente sería inviable para entrenar a las redes neuronales con billones de parámetros y por ello fue necesario un algoritmo extra que permita que su entrenamiento sea viable. Este algoritmo se conoce como Back-Propagation y fue propuesto por Hinton a finales de los 90's.
MA2401 - May 29, 2024
MA2401 - May 30, 2024
MA2401 - May 31, 2024
Semana
Programación dinámica y refuerzo

La programación dinámica fue propuesta por Richard Bellman buscando resolver problemas en los que la dimensión es gigantesca, de hecho fue él quien acuñó el término de la maldición de la dimensión. Estas ideas son utilizadas por plataformas como Waze para encontrar la ruta óptima.
MA2401 - Jun 04, 2024
MA2401 - Jun 07, 2024
MA2401 - Jun 10, 2024
Semana
Teorema de Policy Gradient & Examen III

Las ecuaciones de Bellman nos permiten entrenar políticas cuando tratamos de resolver un problema por medio del aprendizaje por refuerzo. En algunas ocasiones es necesario tener más grados de libertad en nuestras políticas y el famoso teorema de Policy Gradient es una herramienta fundamental para este fin.
MA2401 - Jun 11, 2024
MA2401 - Jun 12, 2024
MA2401 - Jun 14, 2024
Semana
Tests estadísticos

En esta semana estudiaremos los tests estadísticos con el objetivo de verificar si existe una relación de dependencia entre nuestras variables aleatorias concentrándonos en particular cuando ellas no son ordenadas, es decir cuando son categóricas.
MA2401 - Jun 18, 2024
MA2401 - Jun 19, 2024
MA2401 - Jun 21, 2024
Semana
Principios de la Inferencia Bayesiana y regularización

Durante esta semana vamos a explicar cómo utilizando el teorema de Bayes se pueden cambiar las hipótesis durante el modelado de un fenómino sin que necesariamente se tome en cuenta el dataset que se está observando.
MA2401 - Jun 28, 2024
MA2401 - Jul 02, 2024
MA2401 - Jul 03, 2024
MA2401 - Jul 05, 2024
Semana
Conjugate priors para la aproximación estadística de distribuciones.

Utilizando el concepto de auto-vector es posible realizar estumaciones de distribuciones de manera bayesiana. A esta técnica se le conoce como conjugate-priors y lo estudiaremos durante esta semana.
MA2401 - Jul 09, 2024
MA2401 - Jul 10, 2024
MA2401 - Jul 12, 2024
Semana
Regresiones bayesianas

La localización geográfica en la que se encuentren nuestros datos puede ser utilizada para mejorar la calidad de nuestras predicciones y por ello es importante conocer los métodos de machine learning geolocalizados.
MA2401 - Jul 16, 2024
MA2401 - Jul 17, 2024
MA2401 - Jul 19, 2024
Semana
Redes bayesianas y causalidad & Examen IV
Examen de inferencia Bayesiana
.png)
Por medio de los modelos causales introducidos por primera vezo por Judea Pearl, las computadoras pueden razonar mejor utilizando incertidumbre estadística, estos modelos además permiten el estudio causal de nuestros fenómenos.
MA2401 - Jul 23, 2024
MA2401 - Jul 24, 2024
MA2401 - Jul 26, 2024
MA2401 - Jul 31, 2024
WA2601 - 20 Feb, 2026
WA2601 - 19 Feb, 2026
EDL2601 - 19 Feb, 2026
NLP2601 - 19 Feb, 2026
MMF2601 - 19 Feb, 2026
WA2601 - 18 Feb, 2026
EDL2601 - 18 Feb, 2026
NLP2601 - 17 Feb, 2026
WA2601 - 17 Feb, 2026
EDL2601 - 17 Feb, 2026
MMF2601 - 16 Feb, 2026
EDL2601 - 16 Feb, 2026
NLP2601 - 12 Feb, 2026
M&DL2501 - 12 Feb, 2026
NLP2601 - 11 Feb, 2026
M&DL2501 - 10 Feb, 2026
NLP2601 - 09 Feb, 2026
M&DL2501 - 05 Feb, 2026
NLP2601 - 05 Feb, 2026
WA2504 - 04 Feb, 2026
NLP2601 - 04 Feb, 2026
WA2504 - 03 Feb, 2026
AF2503 - 03 Feb, 2026
M&DL2501 - 03 Feb, 2026
WA2504 - 29 Ene, 2026
NLP2601 - 29 Ene, 2026
AF2503 - 28 Ene, 2026
WA2504 - 27 Ene, 2026
NLP2601 - 27 Ene, 2026
AF2503 - 27 Ene, 2026
M&DL2501 - 27 Ene, 2026
M&DL2501 - 26 Ene, 2026
NLP2601 - 26 Ene, 2026
AF2503 - 26 Ene, 2026
AF2503 - 23 Ene, 2026
WA2504 - 23 Ene, 2026
NLP2601 - 22 Ene, 2026
M&DL2501 - 22 Ene, 2026
WA2504 - 20 Ene, 2026
AF2503 - 22 Ene, 2026
WA2504 - 22 Ene, 2026
WA2504 - 21 Ene, 2026
AF2503 - 21 Ene, 2026
NLP2601 - 20 Ene, 2026
AF2503 - 20 Ene, 2026
NLP2601 - 19 Ene, 2026
M&DL2501 - 20 Ene, 2026
M&DL2501 - 19 Ene, 2026
AF2503 - 19 Ene, 2026
AF2503 - 16 Ene, 2026
WA2504 - 16 Ene, 2026
NLP2601 - 15 Ene, 2026 (Parte II)
NLP2601 - 15 Ene, 2026 (Parte I)
WA2504 - 15 Ene, 2026
AF2503 - 15 Ene, 2026
WA2504 - 14 Ene, 2026
AF2503 - 14 Ene, 2026
M&DL2501 - 13 Ene, 2026
NLP2601 - 13 Ene, 2026
WA2504 - 13 Ene, 2026
AF2503 - 13 Ene, 2026
M&DL2501 - 12 Ene, 2026
AF2503 - 12 Ene, 2026
NLP2601 - 12 Ene, 2026
WA2504 - 09 Ene, 2026 / Parte II
WA2504 - 09 Ene, 2026 / Parte I
WA2504 - 06 Ene, 2026
AF2503 - 09 Ene, 2026
M&DL2501 - 08 Ene, 2026
WA2504 - 08 Ene, 2026
AF2503 - 08 Ene, 2026
AF2503 - 07 Ene, 2026
WA2504 - 07 Ene, 2026
NLP2601 - 06 Ene, 2026
AF2503 - 06 Ene, 2026
M&DL2501 - 06 Ene, 2026
NLP2601 - 05 Ene, 2026
M&DL2501 - 06 Ene, 2026
AF2503 - 05 Ene, 2026
AF2503 - 22 Dic, 2025
M&DL2501 - 18 Dic, 2025
WA2504 - 16 Dic, 2025
AF2503 - 17 Dic, 2025
AF2503 - 16 Dic, 2025
M&DL2501 - 16 Dic, 2025
WA2504 - 12 Dic, 2025
M&DL2501 - 15 Dic, 2025
AF2503 - 15 Dic, 2025
AF2503 - 12 Dic, 2025
M&DL2501 - 09 Dic, 2025
AF2503 - 11 Dic, 2025
M&DL2501 - 11 Dic, 2025
WA2504 - 10 Dic, 2025
AF2503 - 09 Dic, 2025
WA2504 - 09 Dic, 2025
M&DL2501 - 08 Dic, 2025
WA2504 - 04 Dic, 2025
AF2503 - 08 Dic, 2025
WA2504 - 05 Dic, 2025
WA2504 - 03 Dic, 2025
