Plan de estudios
Aprenderás los fundamentos de la Inteligencia Artificial y a programar en Python. Convertirás datos en información útil y visual para la toma de decisiones, y abordarás los desafíos futuros de la inteligencia artificial y el machine learning. Este Máster es práctico, con una metodología learning by doing, y un enfoque innovador hacia la Inteligencia Artificial con Python (90%) y R (10%). Analizarás casos y problemas actuales de empresas en el ámbito de ciencia de datos.
0. Fundamentos de programación
Introducción a la programación, entendiendo la estructura de un ordenador, así como los fundamentos. Se explicarán las bases de la creación de variables, distintos operadores y variables, y el uso de funciones. Se dará un breve introducción a la programación orientada a objetos.
- Fundamentos de Python
- Python I
- Python II: lógica, programación orientada a objetos y librerías
1. Industria 5.0
Cómo los datos se han convertido en el activo fundamental de las compañías, justificando que su estrategia se oriente basándose en ellos (data-driven). Cuál ha sido el impacto de tecnologías como Cloud Computing, Big Data, IoT e Inteligencia Artificial para que se esté hablando de una 5a revolución industrial y Transformación Digital.
- Transformación Digital
- Empresas Data Driven
- Fundamentos de Cloud
- Fundamentos de Big Data
- Fundamentos de IoT
- Fundamentos de Inteligencia Artificial
2. Gestión de datos e innovación
Cómo empezar a trabajar el dato desde la ideación hasta los retos de su gobierno y gestión en un entorno empresarial, apoyándonos en dos tecnologías disruptoras como son Big Data y Cloud Computing.
- Project Management; Agile; Design Thinking
- Gobierno del dato
- Big Data & Data Analytics
- Cloud Computing
3. Conceptos de Estadística
Este módulo es una piedra angular, ya que proporciona las herramientas fundamentales para comprender y analizar datos de manera precisa y rigurosa. En este módulo, entenderemos cómo las técnicas estadísticas y los conceptos probabilísticos son elementos esenciales en la toma de decisiones basadas en datos, aprendiendo a aplicar métodos estadísticos para obtener inferencias significativas, identificar patrones y tendencias, y realizar predicciones confiables. Adquiriremos habilidades para evaluar la incertidumbre y el riesgo asociados a los datos, crítico en entornos empresariales dinámicos.
- Introducción y conceptos matemáticos clave
- Fundamentos de Estadística: conceptos básicos de estadística descriptiva (media, mediana, moda, desviación estándar), distribuciones de probabilidad relevantes (normal, binomial...)
- Álgebra Lineal: vectores y matrices, transformaciones lineales, descomposición de matrices...
- Probabilidad: conceptos fundamentales (eventos, espacio muestral, probabilidad condicional, teorema de Bayes...), métodos de estimación de parámetros probabilísticos...
4. Fundamentos de almacenamiento del dato: SQL, NoSQL y nuevos paradigmas
Este módulo proporciona las bases necesarias para comprender cómo encontrar y gestionar datos de manera eficiente y efectiva, así cómo aprovechar nuevos enfoques para garantizar la integridad y escalabilidad de los sistemas de almacenamiento. Al finalizar, estaremos preparados para enfrentarnos a los desafíos del manejo de datos en entornos modernos y aprovechar al máximo las tecnologías de almacenamiento más relevantes. Entenderemos las diferencias entre bases de datos SQL y NoSQL, viendo también los desafíos y oportunidades del almacenamiento distribuido. Se explorarán conceptos clave como HDFS y Cloud Storage, y se analizarán formatos innovadores como Delta Lake, Hudi e Iceberg.
- Bases de datos SQL
- Bases de datos NoSQL: clave-valor, documental, grafos, columnares, memoria...
- Almacenamiento distribuido: HDFS, cloud storage
- Formatos de almacenamiento: texto, ORC, AVRO, Parquet, Delta, Iceberg, Hudi...
5. Data Preparation: exploración y descubrimiento del dato
Este módulo nos sumerge en el apasionante mundo del análisis de datos utilizando herramientas como Python, R y SQL. A través de un enfoque riguroso y orientado al negocio, exploraremos conjuntos de datos con profundidad y claridad. Aprenderemos técnicas avanzadas de manipulación, limpieza y visualización básica de datos que nos permitirán identificar patrones, tendencias y relaciones relevantes para nuestras empresas. Este conocimiento nos proporcionará una ventaja competitiva, ayudándonos a tomar decisiones informadas y a aprovechar oportunidades estratégicas, convirtiendo datos en perspectivas accionables que potencien el éxito empresarial.
- Introducción a Python para el análisis de datos con librerías como pandas y numpy. Básicos de visualización con seaborn y matplotlib
- Acceso al dato desde su repositorio de origen: databases, sql, no sql, apis, web services...
- Fundamentos de SQL: consultas básicas y avanzadas, scripting
6. Data Transformation & Modelling: manipulación y análisis de datos
Abordaremos la necesidad fundamental de convertir y aprovechar los datos en entornos empresariales a través de metodologías de transformación de datos como ETL / ELT / EL basándonos en estándar de la industria como el modelado dimensional o data vault, aprendiendo a generar a partir de ello productos de datos con diferentes técnicas plenamente actuales.
Transformación del dato:
- Técnicas de modelado: modelado dimensional, data vault
- ETL / ELT / EL. Librerías transformación (Bonobo, petl, pyETL,..). Pandas y NumPy para modelado
- Orquestadores (Airflow, Prefect)
Explotación del dato:
- Creación APIs (FastAPI, Flask...)
- Aplicaciones de datos (Streamlit, Dash)
7. Data Explosion: procesamiento distribuido en Big Data
En un mundo donde los datos son cada vez más abundantes y complejos, es esencial contar con habilidades en el manejo eficiente y escalable de datos. Spark, como paradigma de procesamiento distribuido, se ha convertido en un referente en la industria, permitiendo realizar operaciones en paralelo y aprovechar la potencia de clústeres de computación. Este módulo nos proporciona una base sólida en el uso de Spark para manipular y transformar datos a gran escala, permitiendo enfrentarnos a desafíos reales en el entorno empresarial y extraer valor significativo de los datos. Al adquirir habilidades en Spark, nos preparamos para afrontar los retos de Big Data y aprovechar las oportunidades que ofrecen estos volúmenes masivos de información en la toma de decisiones estratégicas y la generación de ventajas competitivas.
- Introducción al procesamiento distribuido con Spark
- Manipulación de datos con Spark DataFrame (carga de datos, filtrado, selección de columnas, agregaciones, transformaciones...)
- Spark SQL
- Limpieza y preparación de datos (detección y tratamiento de valores nulos, manejo de datos faltantes, conversión de tipos de datos, normalización...)
- Transformación y enriquecimiento de datos (operaciones de fecha y hora, manipulación de cadenas, creación de nuevas columnas...)
8. Machine Learning
Este módulo establece el punto de partida del mundo de Machine Learning, introduciéndote en los conceptos clave y las técnicas esenciales de este campo. A través de un aprendizaje práctico y aplicado, descubrirás cómo los modelos pueden desentrañar patrones ocultos en los datos. La meta es prepararte para manejar desafíos más sofisticados y sumergirte en técnicas más avanzadas en módulos posteriores. Una vez asentadas las técnicas para empezar a trabajar con Machine Learning, este módulo nos permitirá profundizar en algoritmos y escenarios más complejos, pero también nos enseñará técnicas avanzadas para optimizar nuestros modelos y enfrentarnos a problemas cuando los datos no nos ayudan demasiado en su estado natural.
- Introducción ML: definición, tipos, ejemplos en el mundo real
- Ciclo de vida de un proyecto ML: comprensión del problema, recopilación y preparación datos, selección, entrenamiento, evaluación y despliegue del modelo
- Conceptos fundamentales: features, hiperparámetros, funciones de pérdida, sesgo y varianza, overfitting y underfitting
- Aprendizaje supervisados. Regresión: simple y múltiple, evaluación
- Aprendizaje supervisados. Clasificación: conceptos básicos, logística, evaluación
- Aprendizaje supervisados. Decision Tree y Random Forest: conceptos, algoritmos, interpretación, evaluación
- Aprendizaje no supervisado. Clustering: conceptos, algoritmos
- Reducción dimensionalidad, PCA, Análisis Discriminante Lineal
- Algoritmos avanzados (45%): SVM, Stochastic Gradient Descent, ensemble (AdaBoost, XGBoost...), etc.
- Optimización de modelos (18%): técnicas como ajuste de hiperparámetros, selección de características, regularización, validación cruzada, etc.
- Análisis de series temporales (12%): introducción, modelado y tendencia, ARIMA, SARIMA, etc.
- Grafos (12%): conceptos fundamentales, aprendizaje de representaciones de grafos, clasificación y predicción de enlaces
- Aprendizaje por refuerzo (8%): concepto, estados, acciones, recompensas, algoritmos
- Detección de anomalías y aprendizaje de datos desbalanceados (5%): identificación de observaciones que se desvían del patrón general con métodos estadísticos, clustering y aprendizaje supervisado. Técnicas para entrenar modelos en conjuntos de datos donde las clases no están igualmente representadas recopilando más datos, generándolos de forma sintética, modificación de algoritmos
9. Deep Learning
El módulo de Deep Learning es el siguiente nivel en el aprendizaje automático, donde explorarás redes neuronales profundas y arquitecturas avanzadas para abordar problemas complejos. Descubre cómo estas técnicas revolucionarias han transformado el campo, permitiendo el análisis de datos de mayor complejidad y la resolución de desafíos en visión por computadora, procesamiento del lenguaje natural y más.
- Introducción al Deep Learning: visión general, función de activación, forward y backpropagation, arquitecturas básicas
- Convolutional neural network (CNN): qué es la convolución, pooling, detección de características, clasificación de imágenes
- Recurrent neural network (RNN): procesamiento de datos secuenciales, LSTM.
- Procesamiento de Lenguaje Natural: preprocesamiento de texto, modelos de lenguaje, embeddings, generación de texto y traducción automática
- Generative Adversarial Networks (GAN): concepto, generador y discriminador, función de pérdida adversaria, aplicaciones prácticas
10. Workshops
- Telco
- Banca
- Health
- Retail
- IoT - Industrial
- Tendencias del mercado, etc.
- Storytelling
- IA Generativa: modelos de atención y transformers (GPT, Bard, Llama, etc.)
- Interpretabilidad y explicabilidad de la IA
- MLOps
- Autoservicio BI: Power BI, Tableau, Looker...
- Entornos DS low-code: Knime, Dataiku...
- Notebooks ecosystem: Jupyter, Hex, Noteable, Count...
11. Capstone
Aplica todos tus conocimientos adquiridos a lo largo del Máster en tu Proyecto Capstone. Realizarás un proyecto completo de ciencia de datos con conjuntos de datos de empresas reales y presentarás sus resultados a un panel de expertos. En ediciones anteriores, los estudiantes implementaron sus proyectos con conjuntos de datos de empresas como Endesa, Iberia y Viewnext.
- Definición de idea con el tutor asignado.
- Selección de objetivos del trabajo.
- Planteamiento de metodología.
- Utilización de herramientas del mercado.
- Presentación ante tribunal de expertos y compañeros.
*El programa académico puede estar sujeto a cambios en función de la diferente variedad en la demanda de skills dominantes del mercado. Nuestro objetivo es tu empleabilidad.