calendar correo curso diplomado horas lugar in-company magister magisteres programa-avanzado quotes reloj telefono contacto contacto grad video
Search
Coincidencias exactas
Buscar por
Seleccionar todos
Magisters
Diplomados
Cursos
Profesores
Noticias
Páginas

Diplomado en Big Data: Herramientas y Análisis

Conviértete en un profesional de Big Data y serás altamente demandado en las empresas, dominando las infinitas oportunidades para una efectiva producción y análisis de datos.

Sólida formación en las principales tecnologías y herramientas que marcan el estado de las artes en el procesamiento y análisis de las fuentes masivas de datos.

Aprende a incorporar estas tendencias en las organizaciones, logrando la extracción de conocimiento desde los datos, tanto estructuradas, como no estructuradas, incluyendo textos, imágenes, voz e interacciones en redes sociales.

Disponible para profesionales de todo Chile y Latinoamérica.
Próximo inicio versión N°11.

Antecedentes Generales

Lun y mié de 18:30 a 21:45 hrs
Centro de Extensión UC (Alameda 390, estación metro Universidad Católica)
144 horas cronológicas
$2.600.000.-
programas@ing.puc.cl

Este diplomado prepara a los participantes para los recientes avances en el procesamiento y análisis de datos, revolución tecnológica caracterizada por la aparición de eficaces herramientas para un uso efectivo de fuentes masivas de datos o Big Data. Este escenario abre grandes oportunidades para la creación de nuevos modelos de negocios, así como para la aparición de un nuevo ecosistema de emprendimientos orientados a aprovechar las nuevas tecnologías. En el corto plazo, las nuevas tecnologías para Big Data serán un elemento crítico y diferenciador para un sinnúmero de actividades del quehacer productivo.

 

Ya sea en el ámbito de la gestión o la implementación de tecnologías Big Data, su transversalidad y penetración auguran una gran necesidad por profesionales preparados en esta área. Estos profesionales están llamados a liderar la transformación del sector empresarial para enfrentar y sacar partido de las nuevas tecnologías. En economías avanzadas esto ya es una realidad, y tanto en Chile como en Latinoamérica no tardará en ocurrir lo mismo.

 

 

Dirigido a:
-Ingenieros Civiles Industriales, Civiles Informáticos, Civiles Electrónicos y Civiles Eléctricos.

-Licenciados en Computación y otros profesionales licenciados y/o con experiencia en áreas afines, que requieren conocimientos o habilidades en la materia.

 

 

Objetivos de Aprendizaje:

-Conocer los principales componentes de la tecnología Big Data.

-Gestionar proyectos orientados a la introducción de tecnologías en Big Data en la organización.

 

 

 

Contenidos del Programa

Al final del curso podrás:

– Describir los principales desafíos del manejo de datos estructurados y no estructurados.

– Conocer las principales tecnologías para el manejo de masivas cantidades de datos en forma distribuida.

– Reconocer los principales componentes con que debe contar una solución a una problemática del tipo Big Data.

 

Contenidos:

 

Unidad I: Fundamentos de Hadoop
– Introducción a Hadoop
– Hadoop sistema distribuido de archivos: HDFS (Hadoop distributed file system)
– Hadoop distribución de tareas en un cluster: Paradigma Map Reduce
– Bases de datos no relacionales (NoSQL-Structured Query Language)
– Google Gran Tabla y Hadoop Hbase

 

Unidad II: Ecosistema Hadoop
– Introducción al ecosistema Hadoop de Cloudera
– Herramientas del ecosistema: Pig, Hive, Impala y Hue
– Movimiento masivo de datos: Sqoop
– Datos Secuenciales (Streaming): Flume
– Spark
– Librería de Aprendizaje de Máquina: Spark MLlib (Spark Machine learning library)

Al final del curso podrás:

– Conocer y aplicar algunas conceptos y técnicas más populares del paradigma tradicional de aprendizaje de máquina.

– Conocer y aplicar representaciones de datos, y técnicas de optimización capaces de escalar a problemas del tipo Big Data.

– Entender y aplicar técnicas de aprendizaje profundo para análisis de datos multidimensionales y técnicas para el modelamiento de secuencias y datos temporales.

– Conocer y aplicar bibliotecas de software existentes para implementar soluciones basadas en modelos de aprendizaje profundo (deep learning).

 

Contenidos:

Unidad I: Conceptos Fundamentales de Aprendizaje de Máquina y Big Data
– Introducción al aprendizaje de máquina
– Técnica de vecinos cercanos
– Redes neuronales de capa oculta
– Modelos de aprendizaje de máximo margen
– Optimización y técnicas de descenso de gradiente estocástico
– Limitaciones de técnicas tradicionales de aprendizaje de máquina para problemas de Big Data

 

Unidad II: Técnicas de Aprendizaje de Máquina para Big Data
– Técnicas de hashing con colisión local
– Modelos jerárquicos composicionales y aprendizaje estructural
– Representaciones distribuidas
– Redes neuronales convolucionales de aprendizaje profundo
– Redes neuronales recurrentes

Al final del curso podrás:

– Conocer conceptos fundamentales de abstracción de datos, percepción y procesamiento humano de la información.

– Entender y aplicar técnicas de reducción de la dimensionalidad, métricas de distancia, técnicas de visualización de datos espaciales y temporales y técnicas de visualización de grafos y redes.

– Conocer los principales algoritmos y fuentes de datos usados para generar recomendaciones.

– Diseñar e implementar los distintos componentes de un sistema recomendador.

 

 

Contenidos:

 

Unidad I: Técnicas de Visualización
– Fundamentos: abstracción de datos, marcas y canales, procesamiento humano de la información
– Representaciones estadísticas y algoritmos
– Reducción de dimensionalidad
– Visualización de datos espaciales, temporales y redes sociales
– Evaluación de sistemas de visualización
– Herramientas de software y estudio de casos

 

Unidad II: Sistemas de Recomendación
– Datos usados para generar recomendaciones
– Fuentes de información espacial, temporal y redes sociales
– Métricas de distancia
– Preferencias basadas en retroalimentación explícita e implícita
– Métodos de recomendación: personalizados, colaborativos, basados en contexto o contenido, híbridos
– Evaluación de sistemas recomendadores
– Estudio de casos

Al final del curso podrás:

– Entender los principales desafíos para el procesamiento paralelo de datos.

– Conocer y aplicar modalidades de procesamiento de datos basadas en recursos elásticos en la nube, así como las principales tecnologías para el almacenamiento y procesamiento distribuido de grandes cantidades de datos

– Describir los principales desafíos del uso de grafos en problemas del tipo Big Data.

– Conocer y aplicar representaciones gráficas para el modelamiento de distintas fuentes de datos, las principales técnicas para el uso de grafos como herramienta analítica y técnicas basadas en grafos para determinar métricas de distancia y redes semánticas.

 

Contenidos:

Unidad I: Computación de alto rendimiento para Big Data
– Introducción al procesamiento paralelo de datos
– Uso de recursos elásticos y procesamiento en la nube
– Modelos para almacenamiento distribuido de archivos en clusters
– Modelos para manejo distribuido de memoria en clusters
– Modelos para ejecución distribuida de proceso en clusters
– Procesamiento en unidades gráficas (GPUs-graphics processing unit)

 

Unidad II: Teoría de grafos para Big Data
– Conceptos fundamentales de teoría de grafos: grado, isomorfismos, conectividad, centralidad, traversabilidad, búsqueda y ranking, métricas de distancia
– Base de datos para grafos
– Grafos como herramienta analítica para Big Data
– Grafos para modelamiento y análisis de datos espaciales y redes sociales
– Grafos para modelamiento y análisis de datos dinámicos
– Grafos como herramienta de modelamiento y descubrimiento de patrones semánticos
– Estudio de casos

Nota: El orden de los cursos dependerá de la programación que realice la Dirección Académica

Cuerpo Académico

Descargar Brochure
Necesitas ayuda? Conversemos
X