Procesamiento del Lenguaje Natural: semática y sintaxis (Septiembre)
Bienvenidos al curso de Procesamiento del Lenguaje Natural, a continuación pueden revisar el material completo del curso incluyendo: horarios y ligas de las sesiones en vivo, contacto con los profesores, presentación semanal del curso, repositorio con el código y los datos, notas detalladas de los algoritmos y el planteamiento del reto. Al final también pueden consultar tanto el manual del curso como la bibliografía recomendada para la Ciencia de Datos.
.png)
Semana
1
Clasificación de Textos
.png)
En esta primera semana del curso presentaremos los modelos de clasificación de textos vectorizando por bolsas de palabras, utilizaremos modelos que previenen el sobre-ajuste y el sub-ajuste.
Semana
2
Topic Modeling
.png)
En esta semana hablaremos sobre un modelo del lenguaje que permite concentrarnos en el problema de la clusterización de texto, este modelo utilizará sofisticadas hipótesis probabilísticas para encontrar variables latentes en el espacio.
Semana
3
Encajes & Redes Neuronales

Después de haber visto modelos en los que la vectorización de los textos no consideran ni la semántica ni la sintaxis, esta semana introduciremos redes neuronales para el procesamiento del lenguaje que nos permitirán considerar la semántica de las palabras con el fin de distinguir vectorialmente sus similitudes.
Semana
4
Redes recurrentes y Named Entity Disambiguation

En este módulo trataremos una arquitectura de redes neuronales recurrentes que permite agregar la información del orden de las palabras a los textos. La aplicación que mostraremos permite identificar la clase correcta para un conjunto de palabras y tiene muchas aplicaciones por ejemplo en el contexto de textos legales.
Semana
5
Grandes Modelos Del Lenguaje

Durante la última semana del curso vamos a estudiar los Grandes Modelos del Lenguaje (LLM) los cuales son uno de los grandes logros de la inteligencia artificial y han hecho posible sistemas como ChatGPT. Después de haber estudiado arquitecturas densas y recurrentes durante los módulos pasados, esta semana vamos a introducir las capas de atención las cuales son fundamentales para los modelos de lenguaje capaces de generar textos tanto semántica como sintácticamente robustos.
