Artboard 7 copy 20.jpg
Deep Learning para procesamiento de imágenes y texto

Objetivos

Las redes neuronales son una de las herramientas más poderosas de la Inteligencia Artificial. Su utilización ha cambiado el mundo en el que vivimos y es difícil pensar en una industria que no las utilice.

En este curso vamos a enseñar a los estudiantes a entender y utilizar las redes neuronales de manera detallada, nos enfocaremos en cuatro partes fundamentales:

  1. Implementación en Python y buenas prácticas

  2. Descripción de los distintos algoritmos

  3. Las diferentes y diferencias entre arquitecturas

  4. Las ideas matemáticas más relevantes

Con base en los objetivos anteriores nos permitimos ofrecerles:

  1. Un curso de dos bloques, cada uno de ocho semanas con dos clases semanales de dos horas y media los miércoles y viernes.

Respecto nuestra oferta, a continuación incluimos algunas de sus características:

  A. Tareas calificadas y diversas evaluaciones a lo largo del curso.

  B. Si el alumno lo desea ofrecemos un reporte detallado de la evolución, fortalezas y pendientes académicos.

  C. Cada bloque incluye un documento en forma de notas de curso redactado cuidadosamente por el tutor. La ventaja de este documento sobre bibliografía existente es que su contenido es personalizado y contiene una bitácora del proceso de aprendizaje.

  D. Posibilidad de cursarlos vía alguna de las plataformas online a las que estamos suscritos (Zoom, Ruzuku, Hangouts etc...), los cursos utilizan una tablet en tiempo real.

Temario

Módulo uno: imágenes

1. Presentación del módulo (2.5 horas)

  • Aplicación a la clasificación de imágenes

  • Ideas principales detrás de los algoritmos

  • Fundamentos matemáticos para el curso

2. Fundamentos de redes neuronales (2.5 horas)

  • Perceptrón

  • Método del gradiente

  • Ejemplo detallado en Python

3. El leguaje de CNN (2.5 horas)

  • Definiciones y propiedades de los tensores

  • Convolución de funciones y distribuciones

  • Relu

4. Algunas arquitecturas (2.5 horas)

  • ImageNet

  • ResNet

  • GoogleNet

5. Gradiente estocástico (2.5 horas)

  • Complementos sobre probabilidad

  • Entrenamiento vía el gradiente estocástico

6. Detalles del caso de estudio (2.5 horas)

  • Detalles técnicos

  • Algunos consejos

7. Filtros y análisis espectral (2.5 horas)

  • Invitación a Fourier y Wavelets

  • Filtros

8. Recapitulación de la implementación (2.5 horas) 

  • Otros problemas y aplicaciones

Módulo dos: texto

1. Presentación del módulo (2.5 horas)

  • Aplicación al resumen de textos

  • Ideas principales detrás de los algoritmos

  • Fundamentos matemáticos para el curso

2. Vectorización de textos (2.5 horas)

  • Word2vec 2. etc...

3. Clasificación binaria de textos (2.5 horas)

  • Independencia estadística

  • Naïve Bayes y la maldición de la dimensión

  • Ejemplo detallado en Python

4. Tesseract (2.5 horas)

  • Extracción de texto

  • Algunos ejemplos

5. Redes recurrentes (2.5 horas)

  • Lenguaje de las redes recurrentes

  • Algunas arquitecturas y sus aplicaciones

6. Retropropagación (2.5 horas)

  • Complementos sobre la regla de la cadena

  • El algoritmo de entrenamiento

7. Modelos markovianos y percepción (2.5 horas)

  • Definiciones y ejemplos de cadenas de Markov

  • Modelado de texto

  • Cadenas ocultas de markov

8. Recapitulación de la implementación (2.5 horas) 

  • Otros ejemplos y aplicaciones

Wednesday, September 9, 2020 6:00 PM to 8:30 PM CDT

Every week on Wednesday, Friday until October 30, 2020

Descarga el brochure del curso aquí:

Para más información escríbenos a:

info@colegio-bourbaki.com

Contacto

CDMX, México.

  • Facebook icono social