Máster en Desarrollo de Apps y Programación Web

Prework

Curso de nivelación para ingresar en el siguiente módulo con todos los conocimientos básico de iniciación al mundo del Desarrollo Web

  • Intro GIT y herramientas
  • Intro HTML&CSS
  • Intro lógica de programación
  • Examen práctico final en GitHub

20h.

Fundamentos del Desarrollo Web

Conceptos básicos de maquetación con HTML y CSS para sentar las bases de la creación de aplicaciones web más complejas.

  • Introducción a la terminal y el IDE
  • Introducción a control de versiones: Git
  • Fundamentos de la web: Arquitectura cliente-servidor.
  • Maquetación y marcado: HTML5
  • Hojas de estilos: CSS3
  • Frameworks CSS: Bootstrap

60h.

JavaScript

Aprendizaje en profundidad de un lenguaje de programación como Javascript sentando las bases para poder adquirir conceptos más complejos a futuro.

  • Introducción a JavaScript
  • Algoritmia: Estructuras de control de flujo (condicionales, bucles y funciones).
  • Manejo de datos. Arrays simples y multidimensionales.
  • Introducción a la asincronía en JavaScript. Promesas.
  • Gestión del DOM desde JavaScript. Eventos.
  • Creación y envío de formularios.
  • Typescript.

80h.

Backend

Creación de aplicaciones para la generación de APIs avanzadas recuperando datos de diferentes bases de datos. Introducción a conceptos de Autenticación con JWT.

  • Introducción a NodeJS. Motor de ejecución Javascript
  • Aplicaciones web con ExpressJS
  • Bases de datos: Relacionales y No relacionales
  • Introducción a MongoDB y su ODM: Mongoose.
  • API: Creación, diseño y testing
  • Autenticación: JWT y Local con Passport
  • Introducción a SQL: MySQL desde Node

80h.

Frontend

Creación de interfaces de usuario a través de ReactJS. Aprendizaje de los conceptos necesarios para desarrollar aplicaciones por componentes sacando el máximo partido a las herramientas que nos ofrece ReactJS.

  • Conceptos básicos de ReactJS
  • Introducción a JSX
  • Componentes en React. Uso y creación de Hooks.
  • Manejo de estilos. Styled Components.
  • Librerías de componentes: React Bootstrap, Material UI, Chakra UI.
  • Condicionales y listas.
  • Creación y gestión de formularios en ReactJS.
  • Peticiones HTTP
  • Routing
  • Gestión de estado global.

80h.

Automatización y Testing

Creación de interfaces de usuario a través de ReactJS. Aprendizaje de los conceptos necesarios para desarrollar aplicaciones por componentes sacando el máximo partido a las herramientas que nos ofrece ReactJS.

  • Fundamentos de testing
  • Fundamentos de automatización
  • Técnicas de testing y diseño de casos de prueba
  • Testing de aplicaciones orientadas a objetos
  • Testing de aplicaciones Web
  • Otros tipos de Testing
  • Introducción a CI / CD
  • Integración continua
  • Despliegue continuo

60h.

Programación móvil híbrida

Desarrollo de aplicaciones híbridas y multiplataforma con Ionic.

  • Introducción al Framework Ionic
  • Componentes y configuración
  • Navegación
  • Interfaces móviles con HTML, CSS y JavaScript
  • Retroalimentación

60h.

Prompt Engineer

A través de este módulo entenderás las posibilidades de uso de las diferentes herramientas de Inteligencia Artificial Generativa como GPT o Gemini, y potenciarás exponencialmente tus habilidades y tu productividad dentro del sector específico del desarrollo web.

  • IA Generativa
  • Modelos GP y Gemini
  • GitHub Copilot
  • Fundamentos del Prompt Engineering
  • Cómo hacer un buen Prompt
  • Técnicas de Prompt Engineering
  • Aplicaciones y extensiones más allá de GPT y Gemini
  • Prompts categorizados
  • Adquisición de concepto mínimo
  • Creación de prompts

40h.

Cloud Practitioner AWS

Está dirigido a estudiantes que buscan una comprensión global de los conceptos de computación en nube independientemente de las funciones técnicas específicas. Proporciona una visión general detallada de los servicios principales de AWS, seguridad, arquitectura, precios y soporte. Podrás prepaparte para obtener la certificación de AWS Cloud Practitioner Certification

  • Definir la nube de AWS
  • Explicar la filosofía de precios de AWS
  • Identificar los componentes de la infraestructura global de AWS
  • Describir las medidas de seguridad y conformidad de la nube de AWS, incluida AWS Identity y Gestión de acceso (IAM)
  • Crear una nube privada virtual (VPC) utilizando Amazon Virtual Private Cloud (Amazon VPC)
  • Demostrar cuándo utilizar Amazon Elastic Compute Cloud (Amazon EC2), AWS Lambda y AWS Elastic Beanstalk
  • Diferenciar entre Amazon Simple Storage Service (Amazon S3), Amazon Elastic Block
  • Store (Amazon EBS), Amazon Elastic File System (Amazon EFS) y Amazon Simple Storage
  • Service Glacier (Amazon S3 Glacier)
  • Demostrar cuándo utilizar los servicios de base de datos de AWS, incluidos Amazon Relational Database
  • Service (Amazon RDS), Amazon DynamoDB, Amazon Redshift y Amazon Aurora
  • Explicar los principios arquitectónicos de la nube de AWS
  • Explorar conceptos clave relacionados con Elastic Load Balancing, Amazon CloudWatch y Amazon EC2
  • Auto Scaling

60h.

Capstone project

Realizarás un proyecto propio de desarrollo de un producto digital para solventar un problema durante el programa. Al completarlo, competirás con tus compañeros en la presentación del proyecto junto con un comité de invitados de empresas.

  1. Definición de idea con el tutor asignado
  2. Selección de objetivos del trabajo
  3. Plantear metodología y herramientas
  4. Presentación ante tribunal de expertos y compañeros

40h.

* El programa académico puede estar sujeto a cambios en función de la diferente variedad en la demanda de skills dominantes del mercado. Nuestro objetivo es tu empleabilidad.

Maestría Oficial en Data Science & Business Analytics

0. Prework

Este Prework permite introducir conceptos en los que el bootcamp profundizará, haciendo que el alumno se sienta cómodo desde el primer día y consiguiendo que todo el grupo tenga un nivel parejo, lo que permite avanzar más y mejor, así como mejorar la cooperación entre todos los integrantes.

  1. Funcionamiento básico de un ordenador: Conceptos como hardware y software, CPU, memoria, dispositivos de almacenamiento, sistemas operativos y redes.
  2. Introducción a los lenguajes de programación: Explicar qué es un lenguaje de programación, para qué sirve y los tipos de lenguajes (compilados e interpretados).Dar una visión general de los lenguajes más utilizados en la actualidad, y por qué se usan.
  3. Conceptos fundamentales de programación: Hablar de elementos como variables, tipos de datos, operaciones, estructuras de control de flujo (if/else, bucles) y funciones.Enseñar cómo descomponer un problema complejo en subproblemas más pequeños y manejables.Contarlo todo de forma muy básica para evitar meterse en el módulo de Fundamentos de Programación (ya con python).
  4. Herramientas de desarrollo y buenas prácticasIntroducir el uso de un IDE, como PyCharm o VSCode, así como los notebooks. Hablar sobre el control de versiones con Git.Mencionar buenas prácticas de programación, como la importancia de comentar el código y seguir convenciones de estilo (pythonic code).
  5. Introducción a las estructuras de datos: Presentar conceptos como arrays, listas, conjuntos, diccionarios/mapas y árboles.Enfocarlo no dentro de un lenguaje de programación específico, más a nivel de pseudocódigo también. El objetivo es que los estudiantes comprendan qué son, para qué se utilizan y cuándo podría ser apropiado utilizar una estructura de datos sobre otra.
  6. Conceptos fundamentales de bases de datos: Explicar qué es una base de datos, para qué se utiliza y qué tipos existen (por ejemplo, bases de datos relacionales y no relacionales).Introducir conceptos clave como tabla, registro, campo, clave primaria y relaciones entre tablas.
LAS HERRAMIENTAS DEL CIENTÍFICO DE DATOS

Revisión de los conceptos claves de programación necesarios para abordar el tratamiento y aprovechamiento de los datos mediante código. Introducción al lenguaje de programación R y amplia presentación de las capacidades que ofrece Python.

  1. Fundamentos de Python y librerías para ciencia de datos: Numpy, Pandas
  2. Python intermedio y avanzado
  3. Procesamiento de datos y visualización con Python

50h.

INTELIGENCIA DE NEGOCIO Y VISUALIZACIÓN

En este módulo aprenderemos qué son las bases de datos y los principales tipos que existen. Entraremos en el mundo del modelado de las bases de datos relacionales y aprenderemos a programar en SQL. Ademas, estudiaremos qué son los procesos ETL y cómo se diseñan e implementan.

  • Diseño de base de datos
  • Estándar SQL I
  • Estándar SQL II
  • El almacén de datos / Datawarehouse y Herramientas y procesos de extracción, transformación y carga ETL"

80h.

LA CIENCIA DE DATOS. TÉCNICA DE ANÁLISIS, MINERÍA Y VISUALIZACIÓN

En esta asignatura repasaremos el ciclo de vida del dato y cómo afecta en el proceso a de análisis de los datos. Además, nos introduciremos en el mundo de la visualización de datos, dónde aprendemos a diseñar dashboards en PowerBI.

  1. Ciclo de vida y calidad del dato
  2. Preparación y pre proceso de datos
  3. Herramientas y técnicas de visualización I
  4. Herramientas y técnicas de visualización II

80h.

IMPACTO Y VALOR DEL BIG DATA

Este módulo tiene como finalidad conocer el análisis big data como herramienta para abordar temas sustantivos y preguntas de investigación. Aprenderás qué se entiende por big data, su evolución en el contexto histórico, entender las causas que han llevado a la aparición de las tecnologías big data y compararlo con la inteligencia de negocio tradicional.

  1. Introducción al mundo del Big Data
  2. Inteligencia de Negocio vs. Big Data
  3. Tecnologías Big Data
  4. Valor del dato y aplicaciones por sectores

80h.

TECNOLOGÍA Y HERRAMIENTAS BIG DATA

Conocer y utilizar las herramientas que componen el ecosistema para el manejo de gran cantidad de datos. Entre estos, está Spark, Hadoop o las BBDD NoSQL.

  1. HADOOP y su ecosistema
  2. SPARK
  3. Bases de datos NOSQL
  4. Plataformas CLOUD

80h.

ESTADÍSTICA PARA EL CIENTÍFICO DE DATOS

En este módulo aprenderás los fundamentos de Programación en R, un lenguaje de programación para estadística. En paralelo, se introducirán los principales conceptos estadísticos que son esenciales para el análisis de datos.

  1. Introducción a la estadística
  2. Probabilidad y muestreo
  3. Inferencia y regresión lineal
  4. Diseño de experimentos

80h.

APRENDIZAJE AUTOMÁTICO

Aprender los conceptos y algoritmos fundamentales en una de las piezas angulares de la ciencia de datos y la inteligencia artificial, el denominado “aprendizaje automático”.

  1. Herramientas para machine learning y técnicas y aplicaciones del aprendizaje supervisado
  2. Técnicas y aplicaciones del aprendizaje no supervisado
  3. Modalidades y técnicas de deep learning
  4. Soluciones en la nube para machine learning

64h.

INVESTIGACIÓN DIRIGIDA I

La asignatura de Investigación Dirigida I tiene como propósito mostrar al estudiante que lainvestigación es un proceso sistemático y ordenado dirigido a gestionar el conocimiento. Por lo tanto, en todo profeso de formación académica se hace necesario el desarrollo de un trabajo de investigación orientado a las necesidades del contexto que demuestre las competencias en investigación del estudiante.

  1. La pregunta de investigación
  2. La justificación de la investigación
  3. La formulación de objetivos de investigación
  4. La delimitación contextual y temporal de la investigación

64h.

INTELIGENCIA ARTIFICIAL PARA LA EMPRESA

Comprender el concepto de inteligencia artificial, su significado y el tipo de problemas que puede resolver. Identificar las técnicas para la toma de decisiones (sistemas expertos y aprendizaje supervisado), así como sus aplicaciones. Analizar el aprendizaje por refuerzo, su ciclo de vida, sus componentes más importantes y el tipo de problemas que resuelve...

Inteligencia artificial y aplicaciones para la toma de decisiones. Aprendizaje por refuerzo y aplicaciones. Técnica y aplicaciones del procesamiento del lenguaje natural NLP. Sistema de recomendaciones y aplicaciones.

80h.

BIG DATA EN LA EMPRESA

Analizar el concepto de transformación digital desde el punto de vista de las tecnoogías que la impulsan poniendo especial interés en las siguientes tendencias: Big data, inteligencia Artificial, Blockchain, Internet de las Cosas, Industria 4,0 y Ciudades Inteligentes.

La transformación digital. Blockchain. Internet of Thinngs. Industria 4,0 y Ciudades Inteligentes

80h.

APLICACIONES POR SECTORES. MASTERCLASSES Y ESTUDIO DE CASOS Y TALLERES PRÁCTICOS

Entender cómo la analitica se aplica a escenarios concretos y espefícicos. Conocer métodos analíticos especializados que pueden aplicarse a datos de distinta naturaleza

Analítica escalable. Análisis de redes sociales e Internet de las Cosas. Análisis del área financiera y servicio al cliente. Análisis de técnicas de recuperación de la información.

80h.

INVESTIGACIÓN DIRIGIDA II
  • Reconocer los tipos de investigación según el conocimiento generado
  • Estudiar los diseños de investigación
  • Estudiar las técnicas e instrumentos de recolección de los datos en el proceso de investigación
  • Estudiar los criterios que caracterizan las unidades de estudio, población
  • Construir los instrumentos de recolección de datos
  • Aplicar las pruebas de validez y confiabilidad al (los) instrumento (s) de recolección de datos
  • Recoger los datos según los criterios definidos en el estudio.
  • Conocer el proceso de análisis de los datos y sus fases
  • Identificar las técnicas de análisis a utilizar según los códigos de los datos (códigos verbales o numéricos)"

Técnicas de recolección de datos. Instrumentos de recolección de datos. La población o unidades de estudio de la investigación. Procedimiento de validez y confiabilidad de los instrumentos. Análisis de datos. Técnicas de análisis.

64h.

TRABAJO DE GRADO

La presentación del documento escrito y la generación de productos científicos que emerjan de la experiencia investigativa es un aspecto fundamental en un nivel de maestría. En esta asignatura el estudiante organiza la presentación del informe escrito.

Introducción. Aspectos formales para la presentación del trabajo de grado. Procedimientos institucionales. Sustentación. Divulgación.

192h.

*El programa académico puede estar sujeto a cambios en función de la diferente variedad en la demanda de skills dominantes del mercado. Nuestro objetivo es tu empleabilidad.

Máster en Cloud Computing Online

Prework: Cloud Fundamentals

El objetivo de este módulo es dotar a los alumnos de un conocimiento básico del cloud computing y saber expresar su propuesta de valor.

  • Cultura de la innovación
  • El arte de lo posible
  • Fundamentos del cloud
  • Seguridad en el cloud
  • Economías de escala
  • Finanzas y legalidad en el cloud

10h.

Cloud Fundamentals - Basic Concepts

En este módulo los estudiantes exploran los servicios, aplicaciones y casos de uso de la computación en nube. Los alumnos profundizan en las en la nube y aprenden cómo la computación en la nube ayuda a los usuarios a desarrollar una infraestructura global para soportar casos de uso a escala, al tiempo que desarrollan e inventan tecnologías innovadoras a desarrollar e inventar tecnologías innovadoras.

  • Describir qué es un proveedor de servicios en la nube (CSP) y el valor que aportan a la informática
  • Describir los aspectos básicos de seguridad y conformidad de la plataforma de AWS y el modelo de seguridad compartida
  • compartida
  • Definir los modelos de facturación, gestión de cuentas y precios
  • Identificar fuentes de documentación o asistencia técnica, por ejemplo, libros blancos o tickets de soporte
  • tickets
  • Describir las características básicas o fundamentales de la implementación y el funcionamiento en la nube de AWS
  • Identificar situaciones en las que una empresa debería elegir la nube, y por qué
  • Diferenciar entre infraestructura on-premise y en la nube
  • Identificar cómo migrar recursos de la infraestructura on-premise a la infraestructura en la nube

42h.

Cloud Fundamentals - Deep Dive

En este módulo los estudiantes exploran los servicios, aplicaciones y casos de uso de la computación en nube. Los alumnos se sumergen en la nube y aprenden cómo la computación en la nube ayuda a los usuarios a desarrollar una infraestructura global para soportar casos de uso a escala, al tiempo que desarrollan e inventan tecnologías innovadoras a desarrollar e inventar tecnologías innovadoras.

  • Describir qué es la nube de AWS y la infraestructura global básica
  • Describir los principios arquitectónicos básicos de la nube de AWS
  • Describir la propuesta de valor de la nube de AWS
  • Describir los servicios clave de la plataforma de AWS y sus casos de uso comunes (por ejemplo, informática y análisis)
  • Utilizar los servicios clave en las actividades de laboratorio para la práctica, incluyendo pero no limitado a lo siguientes:
    • Amazon Simple Storage Service (Amazon S3)
    • Amazon CloudFront
    • AWS Lambda
    • Amazon Elastic Compute Cloud (Amazon EC2)
    • Amazon Virtual Private Cloud (Amazon VPC)
    • Amazon Comprehend
    • AWS DeepRacer
    • AWS CloudFormation

42h.

Cloud Practitioner Recap

Está dirigido a estudiantes que buscan una comprensión global de los conceptos de computación en nube independientemente de las funciones técnicas específicas. Proporciona una visión general detallada de los servicios principales de AWS, seguridad, arquitectura, precios y soporte.

  • Definir la nube de AWS
  • Explicar la filosofía de precios de AWS
  • Identificar los componentes de la infraestructura global de AWS
  • Describir las medidas de seguridad y conformidad de la nube de AWS, incluida AWS Identity y
  • Gestión de acceso (IAM)
  • Crear una nube privada virtual (VPC) utilizando Amazon Virtual Private Cloud (Amazon VPC)
  • Demostrar cuándo utilizar Amazon Elastic Compute Cloud (Amazon EC2), AWS Lambda y
  • AWS Elastic Beanstalk
  • Diferenciar entre Amazon Simple Storage Service (Amazon S3), Amazon Elastic Block
  • Store (Amazon EBS), Amazon Elastic File System (Amazon EFS) y Amazon Simple Storage
  • Service Glacier (Amazon S3 Glacier)
  • Demostrar cuándo utilizar los servicios de base de datos de AWS, incluidos Amazon Relational Database
  • Service (Amazon RDS), Amazon DynamoDB, Amazon Redshift y Amazon Aurora
  • Explicar los principios arquitectónicos de la nube de AWS
  • Explorar conceptos clave relacionados con Elastic Load Balancing, Amazon CloudWatch y Amazon EC2
  • Auto Scaling

35h.

Cloud Architecting

Cloud Architecting abarca los fundamentos de la creación de infraestructura de TI en AWS. Este módulo enseña a los estudiantes cómo optimizar el uso de la nube de AWS mediante la comprensión de los servicios de AWS y cómo encajan en las soluciones basadas en la nube.

  • Tomar decisiones arquitectónicas basadas en los principios arquitectónicos y las prácticas recomendadas de AWS.
  • Utilizar los servicios de AWS para que la infraestructura sea escalable, fiable y altamente disponible.
  • Utilizar los servicios administrados de AWS para permitir una mayor flexibilidad y resistencia en una infraestructura
  • Aumentar el desempeño y reducir el costo de una infraestructura en la nube construida en AWS
  • Utilizar AWS Well-Architected Framework para mejorar las arquitecturas que utilizan soluciones de AWS

84h.

FinOps & Cost Optimizations

Toma de contacto con el mundo de finops y optimización de costes en AWS. FinOps es un marco de trabajo para la gestión de los costos operativos en la nube, combinando finanzas y operaciones.
FinOps es una práctica de gestión que persigue optimizar los costos del cloud computing mediante el uso de herramientas y mejores prácticas para ayudar a los equipos de TI, finanzas y negocio a transferir la responsabilidad financiera al modelo de gasto variable de la nube.

Esto incluye una metodología para alinear el enfoque de las organizaciones, un conjunto de mejores prácticas para usar en la nube, una comunidad global para compartir recursos y una serie de herramientas para ayudar a los profesionales de la nube a hacer frente a los problemas financieros.

  • 15/07- 17/07
    • ¿Qué es FinOps? ¿Por qué FinOps?
    • Principios Básicos del FinOps. El equipo Básico de FinOps
    • Diferencias entre FinOps y Cost Optimizations.
    • FinOps en el día a día. El Ciclo de vida FinOps. Informar, Optimizar y Operar.
    • Preparación para la certificación “practitioner”
  • 22/07- 24/07
  • Ahorro de Costes orientado a AWS:
    • Practice Cloud Financial Management
    • Expenditure and usage awareness
    • Tag Policies
    • Cost and Usage Governance
    • Cost and Usage Analysis
    • Cost Visualization (Cost Explorer)
    • Cost and Usage Governance - Controls
    • Automated CUR Updates and Ingestion
    • Cost and Usage Analysis - SQL
    • Cost Visualization - QuickSight
    • Workload Efficiency
    • Automated Athena CUR Query and Email Delivery
    • Cost Categories
    • Cost Estimation
    • Cost Journey
    • Goals and Targets
    • Analyzing Licensing Costs
    • Splitting the CUR and Sharing Access
    • Cost effective resources
    • Pricing Models - Part 1
    • Pricing Model Analysis
    • Pricing Models - Part 2
    • Rightsizing Recommendations
    • Rightsizing with Compute Optimizer
    • Cost Anomaly Detection
    • Amazon S3 Intelligent Tiering
    • Manage demand and supply of resources
    • EC2 Scheduling at Scale
    • Optimize over time
    • Herramientas: AWS CUDOS y KubeCost + Grafana
    • Feed back

32h.

Cloud SRE

El módulo de Cloud SRE está diseñado para preparar a los participantes para perseguir DevOps de nivel de entrada, soporte y operaciones en la nube. También les ayudará a prepararse para realizar el examen AWS SysOps Administrator - Associate. Este módulo hace hincapié en las prácticas recomendadas en la nube de AWS y en los patrones de diseño recomendados. Se mostrará a los estudiantes cómo crear implementaciones utomatizables y repetibles de redes y sistemas en AWS y cubre características y herramientas específicas de AWS relacionadas con la configuración, implementación y el despliegue.

  • Comprender la infraestructura de AWS en relación con las operaciones del sistema, como la infraestructura global servicios principales y seguridad de cuentas
  • Utilizar la interfaz de línea de comandos de AWS (CLI de AWS) y comprender las herramientas adicionales de administración y desarrollo adicionales
  • Administrar, proteger y escalar instancias informáticas en AWS
  • Administrar, proteger y escalar configuraciones
  • Identificar los servicios de contenedores y los servicios de AWS que están disponibles para la informática sin servidor.
  • Administrar, proteger y escalar bases de datos en AWS
  • Crear redes privadas virtuales con Amazon Virtual Private Cloud (Amazon VPC)
  • Configurar y administrar opciones de almacenamiento utilizando los servicios de almacenamiento ofrecidos con AWS
  • Monitorice el estado de su infraestructura con servicios como Amazon CloudWatch, AWS
  • CloudTrail y AWS Config
  • Administrar el consumo de recursos en una cuenta de AWS utilizando etiquetas, Amazon CloudWatch y
  • AWS Trusted Advisor
  • Crear y configurar implementaciones automatizadas y repetibles con herramientas como Amazon
  • Machine Images (AMIs) y AWS CloudFormation

80h.

Cloud DevOps

El módulo presenta las habilidades y conocimientos necesarios para equilibrar las necesidades durante todo el ciclo de vida del desarrollo de software, desde la programación y la implementación hasta el mantenimiento y las actualizaciones.

  • Recordar los servicios y modelos de computación en nube
  • Describir el desarrollo en AWS
  • Escribir código que interactúe con Amazon S3 utilizando AWS SDKs
  • Explicar la función de AWS IAM
  • Escribir código que interactúe con Amazon DynamoDB utilizando AWS SDKs
  • Explicar el almacenamiento en caché con Amazon CloudFront y Amazon ElastiCache
  • Configurar contenedores
  • Desarrollar soluciones con SQS y SNS
  • Escribir código que interactúe con Aws Lambda utilizando AWS SDKs
  • Crear una API REST utilizando Amazon API Gateway
  • Describir el uso de AWS Step Functions
  • Explicar cómo crear aplicaciones seguras
  • Identificar las prácticas recomendadas para implementar aplicaciones

80h.

Data Engineering in the Cloud

Este módulo está diseñada para ayudar a los estudiantes a aprender y practicar con las tareas, herramientas y estrategias que se utilizan para recopilar, almacenar, preparar, analizar y visualizar datos
para su uso en aplicaciones analíticas y de aprendizaje automático (ML). A lo largo del módulo, los estudiantes explorarán casos de uso de aplicaciones del mundo real, lo que les permitirá tomar decisiones informadas mientras construyen pipelines de datos para sus aplicaciones particulares.

  • Resumir el papel y el valor de la ciencia de datos en una organización basada en datos.
  • Reconocer cómo los elementos de los datos influyen en las decisiones sobre la infraestructura de una canalización de datos.
  • Ilustrar una canalización de datos utilizando los servicios de AWS para satisfacer un caso de uso generalizado.
  • Identificar los riesgos y los enfoques para proteger y controlar los datos en cada paso y cada transición de la canalización de datos.
  • Identificar las consideraciones de escalado y las prácticas recomendadas para crear canalizaciones que manejen conjuntos de datos a gran escala.
  • Diseñar y construir un proceso de recopilación de datos teniendo en cuenta restricciones como la escalabilidad, coste, tolerancia a fallos y latencia.
  • Seleccionar una opción de almacenamiento de datos que se ajuste a los requisitos y las limitaciones de un caso de uso de análisis de datos determinado.
  • Implementar los pasos para procesar formatos de datos estructurados, semiestructurados y no estructurados en una canalización de datos creada con AWS.
  • Explicar el concepto de MapReduce y cómo se utiliza Amazon EMR en canalizaciones de big data.
  • Diferenciar las características de una canalización de ML y sus pasos de procesamiento específicos.
  • Analizar datos utilizando las herramientas de AWS adecuadas para un caso de uso determinado.
  • Implementar una solución de visualización de datos que esté alineada con una audiencia y un tipo de datos.

80h.

Use Cases & Success Stories

Casos de uso reales de la industria donde el alumno pondrá en práctica todo los aprendido a lo largo del Máster

48h.

Capstone Project

Aplica todos tus conocimientos adquiridos a lo largo del Máster en tu Proyecto Capstone. Realizarás un proyecto completo de la mano de NTTData enfrentándote a la problemática y circunstancias de sus propios clientes, y presentarás los resultados a un panel de expertos.

  • Definición de idea con el tutor profesional de NTTData.
  • Selección de los objetivos del trabajo.
  • Planteamiento de metodología.
  • Utilización de herramientas del mercado.
  • Presentación ante tribunal de expertos.

60h.

Máster en Data Science Online

0. Prework

Este Prework permite introducir conceptos en los que el bootcamp profundizará, haciendo que el alumno se sienta cómodo desde el primer día y consiguiendo que todo el grupo tenga un nivel parejo, lo que permite avanzar más y mejor, así como mejorar la cooperación entre todos los integrantes.

  1. Funcionamiento básico de un ordenador: Conceptos como hardware y software, CPU, memoria, dispositivos de almacenamiento, sistemas operativos y redes.
  2. Introducción a los lenguajes de programación: Explicar qué es un lenguaje de programación, para qué sirve y los tipos de lenguajes (compilados e interpretados).Dar una visión general de los lenguajes más utilizados en la actualidad, y por qué se usan.
  3. Conceptos fundamentales de programación: Hablar de elementos como variables, tipos de datos, operaciones, estructuras de control de flujo (if/else, bucles) y funciones.Enseñar cómo descomponer un problema complejo en subproblemas más pequeños y manejables.Contarlo todo de forma muy básica para evitar meterse en el módulo de Fundamentos de Programación (ya con python).
  4. Herramientas de desarrollo y buenas prácticasIntroducir el uso de un IDE, como PyCharm o VSCode, así como los notebooks. Hablar sobre el control de versiones con Git.Mencionar buenas prácticas de programación, como la importancia de comentar el código y seguir convenciones de estilo (pythonic code).
  5. Introducción a las estructuras de datos: Presentar conceptos como arrays, listas, conjuntos, diccionarios/mapas y árboles.Enfocarlo no dentro de un lenguaje de programación específico, más a nivel de pseudocódigo también. El objetivo es que los estudiantes comprendan qué son, para qué se utilizan y cuándo podría ser apropiado utilizar una estructura de datos sobre otra.
  6. Conceptos fundamentales de bases de datos: Explicar qué es una base de datos, para qué se utiliza y qué tipos existen (por ejemplo, bases de datos relacionales y no relacionales).Introducir conceptos clave como tabla, registro, campo, clave primaria y relaciones entre tablas.
1. Las herramientas del científico de datos

Revisión de los conceptos claves de programación necesarios para abordar el tratamiento y aprovechamiento de los datos mediante código. Introducción al lenguaje de programación R y amplia presentación de las capacidades que ofrece Python.

  1. Fundamentos de Python y librerías para ciencia de datos: Numpy, Pandas
  2. Python intermedio y avanzado
  3. Procesamiento de datos y visualización con Python

50h.

2. Inteligencia de negocio y visualización

En este módulo aprenderemos qué son las bases de datos y los principales tipos que existen. Entraremos en el mundo del modelado de las bases de datos relacionales y aprenderemos a programar en SQL. Ademas, estudiaremos qué son los procesos ETL y cómo se diseñan e implementan.

  • Diseño de base de datos
  • Estándar SQL I
  • Estándar SQL II
  • El almacén de datos / Datawarehouse y Herramientas y procesos de extracción, transformación y carga ETL"

80h.

3. La ciencia de datos. Técnica de análisis, minería y visualización

En esta asignatura repasaremos el ciclo de vida del dato y cómo afecta en el proceso a de análisis de los datos. Además, nos introduciremos en el mundo de la visualización de datos, dónde aprendemos a diseñar dashboards en PowerBI.

  1. Ciclo de vida y calidad del dato
  2. Preparación y pre proceso de datos
  3. Herramientas y técnicas de visualización I
  4. Herramientas y técnicas de visualización II

80h.

4. Impacto y valor del Big Data

Este módulo tiene como finalidad conocer el análisis big data como herramienta para abordar temas sustantivos y preguntas de investigación. Aprenderás qué se entiende por big data, su evolución en el contexto histórico, entender las causas que han llevado a la aparición de las tecnologías big data y compararlo con la inteligencia de negocio tradicional.

  1. Introducción al mundo del Big Data
  2. Inteligencia de Negocio vs. Big Data
  3. Tecnologías Big Data
  4. Valor del dato y aplicaciones por sectores

80h.

5. Tecnología y herramientas Big Data

Conocer y utilizar las herramientas que componen el ecosistema para el manejo de gran cantidad de datos. Entre estos, está Spark, Hadoop o las BBDD NoSQL.

  1. HADOOP y su ecosistema
  2. SPARK
  3. Bases de datos NOSQL
  4. Plataformas CLOUD

80h.

6. Estadística para el científico de datos

En este módulo aprenderás los fundamentos de Programación en R, un lenguaje de programación para estadística. En paralelo, se introducirán los principales conceptos estadísticos que son esenciales para el análisis de datos.

  1. Introducción a la estadística
  2. Probabilidad y muestreo
  3. Inferencia y regresión lineal
  4. Diseño de experimentos

80h.

7. Aprendizaje automático

Aprender los conceptos y algoritmos fundamentales en una de las piezas angulares de la ciencia de datos y la inteligencia artificial, el denominado “aprendizaje automático”.

  1. Herramientas para machine learning y técnicas y aplicaciones del aprendizaje supervisado
  2. Técnicas y aplicaciones del aprendizaje no supervisado
  3. Modalidades y técnicas de deep learning
  4. Soluciones en la nube para machine learning

64h.

8. Capstone Project

Trabajo final del Máster en el que se pone en práctica todo lo aprendido aplicándolo a un caso real y sobre datos conectados con el mundo profesional. Se realiza en la parte final del plan de estudios, con carácter obligatorio, y bajo la supervisión del tutor asignado. Además, este trabajo implica una defensa ante un tribunal que debe ser superada.
50h.

Máster en Ciberseguridad Online

Prework

Curso de nivelación

  • Administración básica de informática en Windows y Linux
  • Capacidad de instalación y configuración de programas y herramientas
  • Soltura en el manejo de la línea de comandos
  • Conocimiento de conceptos básicos sobre códigos binarios y hexadecimales, código ASCII y Base64, manejo de archivos de texto y archivos binarios
  • Experiencia en la configuración y manejo de máquinas virtuales

9h.

Ciberseguridad y Ciberamenazas

Conocer el estado actual de la ciberseguridad, las ciberamenazas a las que hace frente y cómo gestionarla.

Panorama global de la ciberseguridad:

  • Visión actual de la ciberseguridad
  • Mercado laboral de la ciberseguridad
  • Conceptos generales sobre ciberseguridad
  • Defensa en profundidad: tecnología, procesos y personas
  • Dominios de la ciberseguridad: gestión, arquitectura, servicios
  • El futuro de la ciberseguridad: Megatendencias (Blockchain, IoT, 5G, Cuántica, IA/ML)

Ciberamenazas:

  • Actores de las ciberamenazas: motivación, actividad y TTPs

Gestión de la ciberseguridad:

  • Gobierno y gestión de riesgos
  • Regulación / Compliance

70h.

Malware

Scripting, seguridad en comunicaciones y malware: Qué es, funcionamiento y ciclo de vida

Nociones de programación:

  • Introducción y objetivos
  • Representación numérica en informática
  • Variables y constantes
  • Listas y diccionarios
  • Operadores aritméticos
  • Operadores lógicos
  • Secuencia, repetición y bifurcación
  • Funciones
  • Clases y objetos (básico)
  • Lenguajes de programación
  • Prácticas

Protocolos de comunicación, TCP/IP:

  • Protocolos de red
  • Seguridad en los niveles físico y de enlace
  • Seguridad en el nivel de red
  • Seguridad en el nivel de transporte
  • Seguridad en el nivel de aplicación

Malware:

  • ¿Qué es el malware?
  • Desarrollo del malware
  • Archivos que pueden contener el malware
  • Vectores de entrada
  • Fases del malware
  • Herramientas antimalware
  • APT: Amenazas Persistentes Avanzadas

75h.

Hacking ético

Pentesting. Determinar las técnicas, procedimientos y herramientas para identificar vulnerabilidades en redes y sistemas.

  • Fundamentos, metodologías y herramientas
  • Information Gathering y enumeración
  • Explotación
  • Post-explotación

75h.

Bastionado y configuración segura de sistemas y redes

Diseñar y establecer planes para la configuración segura de sistemas y redes, conociendo los estándares y buenas prácticas del sector.

  • Definición del nivel de seguridad basado en el riesgo
  • Estándares de referencia para configuración segura
  • Bastionado en entornos windows
  • Bastionado en entornos linux
  • Configuración de seguridad para aplicaciones móviles
  • Bastionado para aplicaciones web
  • Arquitecturas seguridad en red

70h.

Criptografía. Auditoría de Ciberseguridad

Conocer los estándares y las técnicas para verificar la seguridad de redes y sistemas y garantizar su puesta en producción segura.

  • Criptografía
  • Introducción a la auditoría de ciberseguridad
  • Auditoría end-to-end
  • Trabajo de campo y microplanificacion
  • Herramientas de auditoría de ciberseguridad & Casos reales

70h.

Gestión de incidentes y Ciberinteligencia

Desarrollar planes para la gestión de incidentes de ciberseguridad, aplicando técnicas de detección, contención y recuperación.

  • Proceso de respuesta ante incidentes
  • Organización, roles y responsabilidades
  • Casos prácticos de contención y respuesta
  • Recolección y análisis de evidencias
  • Reporting y lecciones aprendidas

75h.

Análisis Forense

Aplicar metodologías y herramientas de análisis forense caracterizando las fases de preservación, adquisición, análisis y documentación.

  • Metodología de análisis forense
  • Herramientas y soluciones
  • Análisis forense en entornos Windows
  • Análisis forense en entornos Linux
  • Análisis forense en móviles
  • Elaboración de informes

75h.

Capstone Project

Trabajo final del Máster en el que se pone en práctica todo lo aprendido aplicándolo a un caso real y sobre datos conectados con el mundo profesional. Se realiza en la parte final del plan de estudios, con carácter obligatorio, y bajo la supervisión del responsable asignado. Además, este trabajo implica una defensa ante un tribunal que debe ser superada.

80h.