Logo de IMMUNE
Máster en Inteligencia Artificial y Data Science

Máster en Inteligencia Artificial y Data Science

No es magia, es analítica. El Máster en Inteligencia Artificial y Data Science prepara a profesionales en el lenguaje de los datos, dándoles los conocimientos y las habilidades para desbloquear y comprender el poder del data, dominar las técnicas de Inteligencia Artificial para aplicarlas en las diferentes industrias, y para adquirir una visión transversal e integral de las soluciones de Machine Learning en Cloud.
7º Edición
En colaboración con
¿Más info?
ilustración 3d portátil
Próxima convocatoria
Marzo 2024
Consulta nuestro proceso de admisión
Plazas limitadas
Modalidad
Presencial y/o Remoto

Duración
10 meses | 900 horas

Horarios
Miércoles, viernes y sábados.
ilustracion 3d ubicacion

Objetivos del Máster en Inteligencia Artificial y Data Science

Extraer, procesar y analizar datos para la toma de decisiones utilizando técnicas y herramientas actuales.
Anticipar y detectar causas, patrones y tendencias a través de la analítica avanzada.
Presentar datos visualmente para obtener insights e información valiosa para crear soluciones.
Entender, diseñar, y desarrollar nuevos modelos de negocio o proyectos basados en el valor de los datos.
Emprender, gestionar y dirigir proyectos de ciencia de datos y big data.
Evaluar problemas, construir e implementar soluciones a través de algoritmos de machine learning y deep learning.

Competencias profesionales del Máster en Inteligencia Artificial y Data Science

Llegarás a donde te propongas, de eso no tenemos dudas. Con el máster en inteligencia artificial y data science podrás optar por roles como: Data Scientist, Data Engineer, Business Analyst, Business Intelligence, Data Analyst, Analytics Project Manager y Chief Data Officer.
new_releases
Preparación para certificaciones
Este Máster te ayudará a preparar 2 exámenes de certificaciones fundamentales para desarrollar tu actividad profesional como analista de datos:
Además, de prepararte como analista de datos te daremos las bases para prepararte para las certificaciones oficiales internacionales como:
En IMMUNE estamos empeñados en que nuestros alumnos obtengan las competencias y habilidades esenciales demandadas en el mercado. Por elllo ofrecemos un programa de certificación en IT opcional en diversas materias:
* Por ser alumno de IMMUNE tendrás acceso gratuito a los exámenes de certificados.

Plan de estudios y asignaturas Máster en Inteligencia Artificial y Data Science

*El programa académico puede estar sujeto a cambios en función de la diferente variedad en la demanda de skills dominantes del mercado. Nuestro objetivo es tu empleabilidad.


Aprenderás los fundamentos de la Inteligencia Artificial y a programar en Python. Convertirás datos en información útil y visual para la toma de decisiones, y abordarás los desafíos futuros de la inteligencia artificial y el machine learning. Este Máster es práctico, con una metodología learning by doing, y un enfoque innovador hacia la Inteligencia Artificial con Python (90%) y R (10%). Analizarás casos y problemas actuales de empresas en el ámbito de ciencia de datos.
0. Fundamentos de programación

Introducción a la programación, entendiendo la estructura de un ordenador, así como los fundamentos. Se explicarán las bases de la creación de variables, distintos operadores y variables, y el uso de funciones. Se dará un breve introducción a la programación orientada a objetos.



  1. Programación en R
  2. Fundamentos de Python
  3. Python I
  4. Python II: lógica, programación orientada a objetos y librerías
1. Industria 5.0

Cómo los datos se han convertido en el activo fundamental de las compañías, justificando que su estrategia se oriente basándose en ellos (data-driven). Cuál ha sido el impacto de tecnologías como Cloud Computing, Big Data, IoT e Inteligencia Artificial para que se esté hablando de una 5a revolución industrial y Transformación Digital.



  1. Transformación Digital
  2. Empresas Data Driven
  3. Fundamentos de Cloud
  4. Fundamentos de Big Data
  5. Fundamentos de IoT
  6. Fundamentos de Inteligencia Artificial
2. Gestión de datos e innovación

Cómo empezar a trabajar el dato desde la ideación hasta los retos de su gobierno y gestión en un entorno empresarial, apoyándonos en dos tecnologías disruptoras como son Big Data y Cloud Computing.



  1. Project Management; Agile; Design Thinking
  2. Gobierno del dato
  3. Big Data & Data Analytics
  4. Cloud Computing

3. Fundamentos de almacenamiento del dato: SQL, NoSQL y nuevos paradigmas

Este módulo proporciona las bases necesarias para comprender cómo encontrar y gestionar datos de manera eficiente y efectiva, así cómo aprovechar nuevos enfoques para garantizar la integridad y escalabilidad de los sistemas de almacenamiento. Al finalizar, estaremos preparados para enfrentarnos a los desafíos del manejo de datos en entornos modernos y aprovechar al máximo las tecnologías de almacenamiento más relevantes. Entenderemos las diferencias entre bases de datos SQL y NoSQL, viendo también los desafíos y oportunidades del almacenamiento distribuido. Se explorarán conceptos clave como HDFS y Cloud Storage, y se analizarán formatos innovadores como Delta Lake, Hudi e Iceberg.



  1. Bases de datos SQL
  2. Bases de datos NoSQL: clave-valor, documental, grafos, columnares, memoria...
  3. Almacenamiento distribuido: HDFS, cloud storage
  4. Formatos de almacenamiento: texto, ORC, AVRO, Parquet, Delta, Iceberg, Hudi...

4. Conceptos de Estadistica

Este módulo es una piedra angular, ya que proporciona las herramientas fundamentales para comprender y analizar datos de manera precisa y rigurosa. En este módulo, entenderemos cómo las técnicas estadísticas y los conceptos probabilísticos son elementos esenciales en la toma de decisiones basadas en datos, aprendiendo a aplicar métodos estadísticos para obtener inferencias significativas, identificar patrones y tendencias, y realizar predicciones confiables. Adquiriremos habilidades para evaluar la incertidumbre y el riesgo asociados a los datos, crítico en entornos empresariales dinámicos.



  1. Introducción y conceptos matemáticos clave
  2. Fundamentos de Estadística: conceptos básicos de estadística descriptiva (media, mediana, moda, desviación estándar), distribuciones de probabilidad relevantes (normal, binomial...)
  3. Álgebra Lineal: vectores y matrices, transformaciones lineales, descomposición de matrices...
  4. Probabilidad: conceptos fundamentales (eventos, espacio muestral, probabilidad condicional, teorema de Bayes...), métodos de estimación de parámetros probabilísticos...

5. Data Preparation: exploración y descubrimiento del dato

Este módulo nos sumerge en el apasionante mundo del análisis de datos utilizando herramientas como Python, R y SQL. A través de un enfoque riguroso y orientado al negocio, exploraremos conjuntos de datos con profundidad y claridad. Aprenderemos técnicas avanzadas de manipulación, limpieza y visualización básica de datos que nos permitirán identificar patrones, tendencias y relaciones relevantes para nuestras empresas. Este conocimiento nos proporcionará una ventaja competitiva, ayudándonos a tomar decisiones informadas y a aprovechar oportunidades estratégicas, convirtiendo datos en perspectivas accionables que potencien el éxito empresarial.



  1. Introducción a Python para el análisis de datos con librerías como pandas y numpy. Básicos de visualización con seaborn y matplotlib
  2. Acceso al dato desde su repositorio de origen: databases, sql, no sql, apis, web services...
  3. Fundamentos de SQL: consultas básicas y avanzadas, scripting
  4. Introducción a R para análisis de datos: manipulación y visualización de datos utilizando paquetes populares como dplyr y ggplot2.

6. Data Transformation & Modelling: manipulación y análisis de datos

Abordaremos la necesidad fundamental de convertir y aprovechar los datos en entornos empresariales a través de metodologías de transformación de datos como ETL / ELT / EL basándonos en estándar de la industria como el modelado dimensional o data vault, aprendiendo a generar a partir de ello productos de datos con diferentes técnicas plenamente actuales.

Transformación del dato:

  1. Técnicas de modelado: modelado dimensional, data vault
  2. ETL / ELT / EL. Librerías transformación (Bonobo, petl, pyETL,..). Pandas y NumPy para modelado
  3. Orquestadores (Airflow, Prefect)


Explotación del dato:

  1. Creación APIs (FastAPI, Flask...)
  2. Aplicaciones de datos (Streamlit, Dash)

7. Data Explosion: procesamiento distribuido en Big Data

En un mundo donde los datos son cada vez más abundantes y complejos, es esencial contar con habilidades en el manejo eficiente y escalable de datos. Spark, como paradigma de procesamiento distribuido, se ha convertido en un referente en la industria, permitiendo realizar operaciones en paralelo y aprovechar la potencia de clústeres de computación. Este módulo nos proporciona una base sólida en el uso de Spark para manipular y transformar datos a gran escala, permitiendo enfrentarnos a desafíos reales en el entorno empresarial y extraer valor significativo de los datos. Al adquirir habilidades en Spark, nos preparamos para afrontar los retos de Big Data y aprovechar las oportunidades que ofrecen estos volúmenes masivos de información en la toma de decisiones estratégicas y la generación de ventajas competitivas.

  1. Introducción al procesamiento distribuido con Spark
  2. Manipulación de datos con Spark DataFrame (carga de datos, filtrado, selección de columnas, agregaciones, transformaciones...)
  3. Spark SQL
  4. Limpieza y preparación de datos (detección y tratamiento de valores nulos, manejo de datos faltantes, conversión de tipos de datos, normalización...)
  5. Transformación y enriquecimiento de datos (operaciones de fecha y hora, manipulación de cadenas, creación de nuevas columnas...)

8. Machine Learning

Este módulo establece el punto de partida del mundo de Machine Learning, introduciéndote en los conceptos clave y las técnicas esenciales de este campo. A través de un aprendizaje práctico y aplicado, descubrirás cómo los modelos pueden desentrañar patrones ocultos en los datos. La meta es prepararte para manejar desafíos más sofisticados y sumergirte en técnicas más avanzadas en módulos posteriores. Una vez asentadas las técnicas para empezar a trabajar con Machine Learning, este módulo nos permitirá profundizar en algoritmos y escenarios más complejos, pero también nos enseñará técnicas avanzadas para optimizar nuestros modelos y enfrentarnos a problemas cuando los datos no nos ayudan demasiado en su estado natural.

  1. Introducción ML: definición, tipos, ejemplos en el mundo real
  2. Ciclo de vida de un proyecto ML: comprensión del problema, recopilación y preparación datos, selección, entrenamiento, evaluación y despliegue del modelo
  3. Conceptos fundamentales: features, hiperparámetros, funciones de pérdida, sesgo y varianza, overfitting y underfitting
  4. Aprendizaje supervisados. Regresión: simple y múltiple, evaluación
  5. Aprendizaje supervisados. Clasificación: conceptos básicos, logística, evaluación
  6. Aprendizaje supervisados. Decision Tree y Random Forest: conceptos, algoritmos, interpretación, evaluación
  7. Aprendizaje no supervisado. Clustering: conceptos, algoritmos
  8. Reducción dimensionalidad, PCA, Análisis Discriminante Lineal
  9. Algoritmos avanzados (45%): SVM, Stochastic Gradient Descent, ensemble (AdaBoost, XGBoost...), etc.
  10. Optimización de modelos (18%): técnicas como ajuste de hiperparámetros, selección de características, regularización, validación cruzada, etc.
  11. Análisis de series temporales (12%): introducción, modelado y tendencia, ARIMA, SARIMA, etc.
  12. Grafos (12%): conceptos fundamentales, aprendizaje de representaciones de grafos, clasificación y predicción de enlaces
  13. Aprendizaje por refuerzo (8%): concepto, estados, acciones, recompensas, algoritmos
  14. Detección de anomalías y aprendizaje de datos desbalanceados (5%): identificación de observaciones que se desvían del patrón general con métodos estadísticos, clustering y aprendizaje supervisado. Técnicas para entrenar modelos en conjuntos de datos donde las clases no están igualmente representadas recopilando más datos, generándolos de forma sintética, modificación de algoritmos

9. Deep Learning

El módulo de Deep Learning es el siguiente nivel en el aprendizaje automático, donde explorarás redes neuronales profundas y arquitecturas avanzadas para abordar problemas complejos. Descubre cómo estas técnicas revolucionarias han transformado el campo, permitiendo el análisis de datos de mayor complejidad y la resolución de desafíos en visión por computadora, procesamiento del lenguaje natural y más.

  1. Introducción al Deep Learning: visión general, función de activación, forward y backpropagation, arquitecturas básicas
  2. Convolutional neural network (CNN): qué es la convolución, pooling, detección de características, clasificación de imágenes
  3. Recurrent neural network (RNN): procesamiento de datos secuenciales, LSTM.
  4. Procesamiento de Lenguaje Natural: preprocesamiento de texto, modelos de lenguaje, embeddings, generación de texto y traducción automática
  5. Generative Adversarial Networks (GAN): concepto, generador y discriminador, función de pérdida adversaria, aplicaciones prácticas

10. Workshops
  1. Telco
  2. Banca
  3. Health
  4. Retail
  5. IoT - Industrial
  6. Tendencias del mercado, etc.
  7. Storytelling
  8. IA Generativa: modelos de atención y transformers (GPT, Bard, Llama, etc.)
  9. Interpretabilidad y explicabilidad de la IA
  10. MLOps
  11. Autoservicio BI: Power BI, Tableau, Looker...
  12. Entornos DS low-code: Knime, Dataiku...
  13. Notebooks ecosystem: Jupyter, Hex, Noteable, Count...

11. Capstone

Aplica todos tus conocimientos adquiridos a lo largo del Máster en tu Proyecto Capstone. Realizarás un proyecto completo de ciencia de datos con conjuntos de datos de empresas reales y presentarás sus resultados a un panel de expertos. En ediciones anteriores, los estudiantes implementaron sus proyectos con conjuntos de datos de empresas como Endesa, Iberia y Viewnext.

  1. Definición de idea con el tutor asignado.
  2. Selección de objetivos del trabajo.
  3. Planteamiento de metodología.
  4. Utilización de herramientas del mercado.
  5. Presentación ante tribunal de expertos y compañeros.

Domina las mejores herramientas

Lo nuestro son los datos y la empleabilidad
arco 3d
+
40
ofertas de empleo mensuales
+
4,7
ofertas de empleo por alumno
94,5
%
de empleabilidad
84
%
mejoran su situación laboral
figura 3d colorida

Que te lo cuenten ellos

El Máster en Inteligencia Artificial y Data Science es para ti si

Alumnos de programa tecnológico en clase de ciberseguridad, data science y programación
Buscas un cambio
La reinvención profesional es el futuro. Con el programa podrás introducirte a un sector con altísima tasa de empleabilidad y en pleno crecimiento. Si tienes ganas de cambiar y construir una carrera en ciberseguridad, a tu propio ritmo y con una comunidad que te apoya, no lo pienses más.
Necesitas un upgrade
Quieres destacarte en un ámbito relevante. Estás buscando desarrollar las habilidades necesarias para dar un salto importante y contundente en tu vida profesional. Ves un futuro claro como experto/a en ciberseguridad.
Estudiantes del centro tecnológico immune dando clase de tecnología
profesor de máster enseñando conceptos tecnológicos
Quieres arrancar tu carrera con fuerza
Estás estudiando, o recién graduado/a y quieres dar pasos firmes en la dirección de un futuro prometedor e interesante. Una especialización en ciberseguridad te permitirá entrar al mercado laboral con un golpe sobre la mesa.
groups
Los mejores mentores
* Siempre estamos en la búsqueda de los mejores profesionales disponibles del sector. Es por eso que puede haber variaciones de una convocatoría a otra.
Proceso de admisión
Nuestros alumnos se caracterizan por su pasión por la tecnología. El proceso de admisión se centra en quién eres, cómo piensas, qué has logrado y compartir tus metas.

El objetivo es conocerte mejor, identificar aquello que te hace único y asegurarnos que el modelo educativo de IMMUNE encaja con tu perfil.
1.
Solicitud de admisión
2.
Entrevista personal
3.
Tribunal
4.
Matrícula
Proceso de admisión
En el proceso de admisión evaluamos el perfil de cada candidato, sus competencias y el potencial desarrollo profesional. El proceso de admisión consta de los pasos detallados a continuación.

Por favor, utiliza el mismo correo electrónico a lo largo de todo el proceso.
1. Enviar la solicitud de admisión
2. Entrevista con el equipo de talento y académico
3. OK del profesor y tribunal académico
¡Ya estás dentro!
Solicita más información sobre el programa de Máster en Inteligencia Artificial y Data Science
QUIERO MÁS INFORMACIÓN
arrow_upward
Premios y reconocimientos
logo european excellence educationpremio educacion en tecnologia e innovacionlogo premios excelencia educativalogo member
Partners educativos
logo asottechLogo GIMI institutelogo latin america leadership programlogo universidad villanueva
Aliados internacionales
logo sica
chevron-downarrow-right