calendar correo curso diplomado horas lugar modalidad in-company magister magisteres programa-avanzado quotes reloj telefono contacto contacto grad video
Search
Coincidencias exactas
Buscar por
Seleccionar todos
Magisters
Diplomados
Cursos
Mooc
Profesores
Noticias
Páginas

Diplomado en Big Data

11 versiones formando expertos en las principales tecnologías y herramientas que marcan el estado de las artes en la producción, el procesamiento y análisis de las fuentes masivas de datos.

Aprende a incorporar estas tendencias en las organizaciones, logrando la extracción de conocimiento desde los datos, tanto estructuradas, como no estructuradas, incluyendo textos, imágenes, voz e interacciones en redes sociales.

Disponible para profesionales de todo Chile y Latinoamérica.

Antecedentes Generales

Próximamente
Lun y mié de 18:30 a 21:45 hrs
148 horas cronológicas
$2.400.000 en Chile / USD 3.000 resto del mundo ¡Consulta por descuento!

Todas las modalidades del programa (streaming, online y presencial) tienen el mismo valor. Además, recomendamos preguntar las condiciones de cada una al momento de matricularse.


programas@ing.puc.cl

Grandes repositorios de datos han comenzado a surgir en los más diversos ámbitos de nuestro quehacer social, lo que, acompañado de nuevas capacidades para su procesamiento, están dando vida a un nuevo paradigma conocido como Big Data. Las oportunidades que abre un efectivo análisis de estas fuentes de información masivas son enormes; ello ha motivado un gran interés, y acelerado el desarrollo de nuevas tecnologías dedicadas a procesar y extraer conocimiento de ellas. En este contexto, el Diplomado en Big Data apunta a entregar una sólida formación en las principales tecnologías y tendencias que marcan el estado del arte en el ámbito de almacenamiento, procesamiento y extracción de conocimiento de fuentes de datos masivas, tanto estructuradas como no estructuradas.

Como eje central, el diplomado aborda la problemática de Big Data desde la perspectiva de la aplicación de técnicas de aprendizaje de máquina y sistemas computacionales de alto rendimiento. La combinación de estas dos temáticas ha surgido como una de las claves para tomar ventaja del gran potencial, no sólo de datos estructurados, sino también de datos no estructurados, como es el caso de datos textuales, imágenes o interacciones en redes sociales.

Adicionalmente, el diplomado abarca las áreas de visualización y teoría de grafos, que son elementos claves para facilitar la inclusión de analistas humanos en el ciclo de extracción de conocimiento. En términos de aplicaciones, se dedica un capítulo especial a sistemas de recomendación, una de las áreas de mayor uso actual de repositorios del tipo Big Data.

De esta manera, el diplomado entrega competencias para entender la evolución tecnológica que ha dado vida al paradigma Big Data; describir los principales elementos y desafíos de esta área; conocer y entender las principales tecnologías detrás de aplicaciones actuales usadas para enfrentar problemáticas del tipo Big Data; y diseñar y aplicar soluciones a problemáticas del tipo Big Data.

Dirigido a:
- Ingenieros Civiles Industriales, Civiles Informáticos, Civiles Electrónicos y Civiles Eléctricos.
- Licenciados en Computación y otros profesionales licenciados y/o con experiencia en áreas afines, que requieren conocimientos o habilidades en la materia.

Objetivos de aprendizaje:
- Conocer los principales componentes de la tecnología Big Data.
- Identificar y capitalizar oportunidades de implementación y uso de tecnologías relacionadas con el Big Data en la organización.

Contenidos del Programa

Al final del curso podrás:
- Conocer la definición y el estado actual del paradigma de Big Data.
- Identificar los elementos técnicos y tecnológicos centrales que forman parte del paradigma.

Contenidos:
- Definición y caracterización de Big Data.
- Elementos centrales de Big Data.
- Descripción de contenidos del programa y su relación con los elementos discutidos.
- Ejemplos de aplicación y discusión.

Al final del curso podrás:
- Aplicar conceptos y técnicas relevantes del paradigma tradicional de aprendizaje de máquina.
- Aplicar representaciones de datos y técnicas de optimización usadas por algoritmos de aprendizaje de máquina, en particular, las utilizadas en problemas del tipo Big Data.
- Aplicar los conceptos fundamentales del paradigma de aprendizaje profundo o Deep Learning.
- Implementar soluciones basadas en modelos de Deep Learning fundamentales en base a bibliotecas de software existentes.

Contenidos:
Unidad 1: Fundamentos de Machine Learning
- Fundamentos de aprendizaje de máquina.
- Técnicas de vecinos cercanos.
- Árboles y ensambles.
- Máquina de vectores de soporte.

Unidad 2: Técnicas de Machine Learning para Big Data
- Fundamentos de aprendizaje profundo.
- Perceptrón y Redes neuronales de capa oculta.
- Redes neuronales convolucionales.
- Entornos de desarrollo para aprendizaje profundo.

Al final del curso podrás:
- Aplicar técnicas de aprendizaje profundo para análisis de datos multidimensionales y técnicas para el modelamiento de secuencias y datos temporales.
- Implementar soluciones basadas en modelos de Deep Learning para datos no estructurados y secuenciales, en base a bibliotecas de software existentes.
- Distinguir los principales algoritmos y fuentes de datos usados para generar recomendaciones.
- Analizar algoritmos de recomendación existentes identificando sus fortalezas y debilidades para generar recomendaciones.
- Diseñar e implementar los distintos componentes de un sistema recomendador.

Contenidos:
Unidad 1: Machine Learning avanzado para Big Data
- Redes neuronales recurrentes.
- Modelos seq2seq.
- Mecanismos de atención.
- Aplicaciones de aprendizaje profundo.

Unidad 2: Sistemas recomendadores
- Datos usados para generar recomendaciones.
- Fuentes de información espacial, temporal y redes sociales.
- Métricas de distancia.
- Preferencias basadas en retroalimentación explícita e implícita.

Al final del curso podrás:
- Analizar algoritmos de recomendación avanzados, identificando sus fortalezas y debilidades para generar recomendaciones.
- Evaluar un sistema recomendador usando diversas métricas y la factibilidad de su implementación.
- Describir problemas éticos y de privacidad en el manejo de datos.
- Justificar el diseño de la representación visual de un conjunto de datos determinado.
- Evaluar el diseño de la visualización de datos basándose en la naturaleza de los datos subyacentes, el público objetivo y el propósito general.

Contenidos:
Unidad 1: Sistemas recomendadores avanzados
- Métodos de recomendación: personalizados, colaborativos, basados en contexto o contenido, híbridos.
- Métodos avanzados de recomendación: ranking, redes neuronales, aprendizaje reforzado.
- Evaluación de sistemas recomendadores.
- Estudio de casos.

Unidad 2: Técnicas de visualización
- Fundamentos: abstracción de datos, marcas y canales, procesamiento humano de la información.
- Representaciones estadísticas y algoritmos.
- Reducción de dimensionalidad.
- Evaluación de sistemas de visualización.

Al final del curso podrás:
- Describir los principales desafíos del manejo de datos estructurados y no estructurados.
- Identificar las principales tecnologías para el manejo de masivas cantidades de datos en forma distribuida.
- Reconocer los principales componentes con que debe contar una solución a una problemática del tipo Big Data.
- Conocer los principios conceptuales y técnicos en los que se basa el entorno Hadoop.
- Identificar las distintas herramientas y usos del ecosistema Hadoop.
- Utilizar las principales herramientas del ecosistema para resolver problemas relacionados con el análisis de grandes cantidades de datos.

Contenidos:
Unidad 1: Ecosistema Hadoop
- Fundamentos de Hadoop.
- Hadoop sistema distribuido de archivos: HDFS (Hadoop Distributed File System).
- Hadoop distribución de tareas en un cluster: Paradigma Map Reduce.
- Herramientas del ecosistema: Pig, Hive, Flume, Impala, Hbase, Hue, Sqoop.

Unidad 2: Motor de cómputo Spark
- Fundamentos técnicos de Spark.
- Aprendizaje de máquina con Spark (SparkML).
- Bases de datos relacionales con Spark (SparkSQL).
- Otras herramientas basadas en Spark.

Al final del curso podrás:
- Describir las arquitecturas comúnmente utilizadas en la construcción de plataformas de alto rendimiento y sus mecanismos asociados.
- Utilizar modelos para describir y analizar el rendimiento de algoritmos que se ejecutan en plataformas de alto rendimiento.
- Implementar programas en ambientes paralelos utilizando memoria compartida, paso de mensajes y arquitectura manycore para ver su desempeño.
- Comprender las bases conceptuales y técnicas sobre las cuales funcionan las plataformas Cloud.
- Identificar las principales herramientas de las plataformas Cloud y sus funcionalidades.
- Utilizar herramientas de las plataformas Cloud para resolver problemas asociados al manejo de grandes volúmenes de datos.

Contenidos:
Unidad 1: High Performance Computing
- Introducción al procesamiento paralelo.
- Arquitecturas de alto rendimiento.
- Métricas de rendimiento en cómputo distribuido.
- Uso de clústers.
- Procesamiento con memoria compartida.
- Procesamiento con memoria distribuida.
- Procesamiento en unidades gráficas.

Unidad 2: Plataformas Cloud
- Introducción a las herramientas Cloud.
- Almacenamiento de datos.
- Ejecución de código.
- Data Warehouse.
- Machine Learning.

Al final del curso podrás:
- Describir los principales desafíos del uso de grafos en problemas del tipo Big Data.
- Aplicar representaciones gráficas para el modelamiento de distintas fuentes de datos.
- Aplicar las principales técnicas para el uso de grafos como herramienta analítica.
- Aplicar técnicas basadas en grafos para determinar métricas de distancia y redes semánticas.

Contenidos:
Unidad 1: Fundamentos de teoría de grafos
- Conceptos fundamentales de teoría de grafos: grado, isomorfismos, conectividad, centralidad, traversabilidad, búsqueda y ranking, métricas de distancia.
- Base de datos para grafos.

Unidad 2: Técnicas de grafos para Big Data
- Grafos como herramienta analítica para Big Data.
- Grafos para modelamiento y análisis de datos espaciales y redes sociales.
- Grafos para modelamiento y análisis de datos dinámicos.
- Grafos como herramienta de modelamiento y descubrimiento de patrones semánticos.
- Estudio de casos.

Al final del curso podrás:
- Aplicar técnicas de reducción de la dimensionalidad, métricas de distancia, técnicas de visualización de datos espaciales y temporales y técnicas de visualización de grafos y redes.
- Utilizar herramientas adecuadas para construir visualizaciones de tipos de datos avanzados.

Contenidos:
- Visualización de datos espaciales, temporales y redes sociales.
- Herramientas de software y estudio de casos.

Nota: El orden de los cursos dependerá de la programación que realice la Dirección Académica.

Cuerpo Académico

Testimonios

"He podido incorporar los conocimientos y herramientas entregados por el diplomado en mi trabajo"

Cristian Olate

Diplomado en Big Data



"Los conocimientos que adquirí son sumamente aplicables en el mundo laboral, particularmente en lo que nosotros desarrollamos como emprendimiento"

Pablo Quintana

Diplomado en Big Data



"Fue una muy buena experiencia, me entregó todos los conocimientos que necesitaba para desarrollarme profesionalmente"

Lorena Arias

Diplomado en Big Data



Solicita información y brochure aquí:

Este sitio está protegido por reCAPTCHA y se aplican la política de privacidad y términos del servicio de Google.

 

¿Te gustó este programa?
¡Compártelo en tus redes sociales!

Programas relacionados

Descargar Brochure
Necesitas ayuda? Conversemos
X