Duración:7 Meses
Tipo:Cursos
Modalidad:Online
Adquiere sólidos conocimientos en la aplicación de modelos de aprendizaje automático (Machine Learning) para el análisis profundo de datos. Aprende a entrenar, validar y poner en marcha estos modelos para descubrir nuevos conocimientos y resolver una gran variedad de problemas de negocio complejo.
En el programa de data science, los estudiantes trabajan en grupos para resolver 3 desafíos prácticos. Cada desafío requiere aplicar progresivamente el conocimiento y las herramientas adquiridas durante el curso. Sumado a esto, los estudiantes trabajan en un proyecto final donde aplican diferentes algoritmos de Machine Learning en un escenario práctico propuesto por los estudiantes y guiado por los profesores.
MACHINE LEARNING
Aprende modelos básicos de aprendizaje automático (machine learning) y la metodología de trabajo de un científico de datos para enfrentar el análisis continuo.
MINERÍA DE DATOS
Encuentra conocimientos más profundos de los datos y resuelve distintos tipos de problemas de análisis cuantitativos utilizando distintos algoritmos de Machine Learning.
CRITERIO Y CLASIFICACIÓN
Comprende en profundidad los problemas de clasificación y regresión, junto a los algoritmos comúnmente utilizados para resolverlos.
¿Por qué Data science?
METODOLOGÍAS CIENTÍFICAS
- - Complejidad algorítmica: cómo utilizar las nuevas tecnologías para enfrentar grandes conjuntos de datos y trabajar con algoritmos complejos.
- - Cómo utilizar las nuevas tecnologías para obtener conocimientos claves para tu análisis.
ORIENTACIÓN A TÉCNICAS
- - Fundamentos de Python.
- - Visualización de datos, técnicas de aprendizaje supervisado y no supervisado.
- - Problemas de regresión y clasificación.
- - Clasificación de texto, análisis de series de tiempo y árboles de decisión..
- - Probabilidad e inferencia estadística. Análisis exploratorio de datos
HERRAMIENTAS
- - Lenguaje de programación Python.
- - Librerías de Python: Pandas, Numpy, Matplotlib, Seaborn, Plotly, Bokeh, SciPy, Scikit-Learn, Statsmodel, Pickle, Flask.
- - JupyterLab, Anaconda y GitHub.
Dedicación estimada:
15hs semanales (entre clase en vivo y material adicional)
Modalidad:
Intensivo a distancia.
Módulo 1: Fundamentos: Python, Numpy, Pandas y probabilidad.
Te introducirás a la dinámica de trabajo con Python utilizada en
el curso. Además, aprenderás a usar las librerías Pandas y
Numpy para la manipulación, limpieza y cálculos numéricos con
datos.
Módulo 2: Limpieza, manipulación y visualización de datos. Estadística inferencial.
En este módulo, se profundizan las prácticas de limpieza y
manipulación de datos. Se introducen las buenas prácticas de
análisis exploratorio de datos, librerías de visualización y de
estadística inferencial.
Módulo 3: Introducción a Machine Learning y Scikit-Learn. Reducción de la dimensionalidad. Problemas de Regresión.Regularización y optimización de modelos.
Con las bases de análisis exploratorio y limpieza de datos
más consolidadas, se introduce a la metodología de trabajo
con modelos de Machine Learning, junto a una de sus
librerías más importantes, Scikit-Learn.
Además, se empieza a profundizar en el primer tipo de
problema a resolver del curso: regresión.
Módulo 4: Clasificación y Clustering. Evaluación de modelos y Pipelines.
Luego de comprender los problemas básicos de regresión,
profundizarás en el segundo tipo de problema: clasificación.
Además, harás foco en las distintas métricas de evaluación
de modelos y el armado de procesos automáticos en
Pipelines.
Módulo 5: Árboles, Ensambles y Boosting.
A esta altura, tendrás conocimiento de la metodología de
trabajo de Machine Learning para poder resolver distintos tipos
de problemas, evaluar los modelos utilizados y
optimizarlos. En este módulo, abordarás algunas técnicas más
avanzadas como árboles de decisión, modelos de ensamble y
boosting.
Módulo 6: Series de tiempo y Text Mining.
Con la metodología de trabajo de distintos modelos y
diferentes técnicas útiles incorporadas, introduciremos las
problemáticas encontradas en dos de las implementaciones
más comunes cuando se trabaja con datos: series
temporales y texto. Si bien estas implementaciones tienen
mucha más profundidad que la abarcada por el curso,
aprenderás a incorporarlas en los análisis con distintos
modelos y los problemas a tener en cuenta en estas
implementaciones.
Módulo 7: Despliegue de modelos y APIs.
En el último módulo del curso, verás cómo disponibilizar tus
modelos y cómo trabajar con APIs. A esta altura ya estarás
haciendo foco fuertemente en el proyecto integrador final.