Programa del Máster Big Data y Data Engineering

Los módulos de aprendizaje de ingeniería de datos más completos enseñados de forma eficaz para el alumno

Programa Máster Big Data y Data Engineering

Python para Desarrolladores

1

Python es el lenguaje que mayor auge ha experimentado en los últimos años, tanto en el área de la Ciencia de Datos como de la Ingeniería de Datos, por su versatilidad y sencillez. Dispone de paquetes específicos para integrarse con distintas tecnologías y usados en módulos posteriores.

Programación en Scala

2

El lenguaje Scala se ha impuesto como uno de los estándares para la creación de flujos de datos, motores de ingesta y preparación del dato con programación orientada a objetos y funcional así como a las construcciones habituales de este lenguaje y sus características fundamentales.

Arquitecturas de datos

3

Se introducirán los componentes clave de las arquitecturas de datos modernas, incluyendo las fuentes de datos, la capa de ingesta, la capa de almacenamiento, la capa de procesamiento, capa de servicio y la capa de presentación. Se presentará su evolución a lo largo de los años, los principales patrones arquitectónicos actuales y su implementación en los distintos proveedores cloud.

Diseño de Bases de Datos relacionales

4

Un ingeniero de datos frecuentemente debe llevar a cabo migraciones y definiciones o redefiniciones de modelos de datos basados en tablas necesitando conocimientos clásicos de Diseño de bases de datos.

Bases de Datos NoSQL

5

Una opción cada vez más popular para las organizaciones debido a su capacidad para manejar grandes cantidades de datos y su flexibilidad para adaptarse a los cambios de datos, lo que las hace ideales para big data y aplicaciones en tiempo real.

Apache Kafka y procesamiento en tiempo real

6

Empleado para comunicar instantáneamente distintas aplicaciones conectadas a él, al estilo de un gran bus de datos común por el que circula la información de una empresa.

Apache Spark

7

Spark es la herramienta de procesamiento distribuido más utilizada para procesar grandes volúmenes de datos en un cluster
de ordenadores. Profundizaremos en su arquitectura y cómo sacarle partido tanto para procesamiento batch como tiempo real.

Ingestas y Lagos de datos

8

Las empresas necesitan en su arquitectura de datos, un componente para almacenar, procesar y analizar grandes cantidades de datos. Estos componentes son los data lakes (o lagos de datos), y su última evolución, los lakehouses.

Pipelines de datos en cloud

9

Herramientas específicas de Azure empleadas por los ingenieros de datos, tanto en la fase de ingesta como en las etapas posteriores. El enfoque principal será lograr un aprendizaje con proyectos guiados por el tutor.

Arquitecturas basadas en contenedores

10

Conocimiento y habilidad necesarios para comprender, diseñar, desarrollar y desplegar arquitecturas basadas en microservicios utilizando API REST, así como una introducción a las herramientas Docker y Kubernetes.

Machine Learning y Deep Learning

11

Familiarizate con las técnicas que aplican los científicos de datos para comprender las necesidades de estos, lo cual favorece la sinergia entre equipos de ambos perfiles y acelera la entrega de valor.

Productivizar un modelo

12

Proceso de llevar los modelos de Inteligencia Artificial (IA) y sus resultados a un entorno de producción para que puedan ser utilizados de manera efectiva y generar valor en el mundo empresarial.

Trabajo de fin de Máster

Plantearás una estrategia global de inteligencia de datos para una empresa, basándose en diferentes técnicas y softwares de apoyo de entre los existentes en el mercado.

Descarga el programa completo

Descarga desde aquí el dossier con toda la información del máster Big Data y Data Engineering