calendar correo curso diplomado horas lugar in-company magister magisteres programa-avanzado quotes reloj telefono contacto contacto grad video
Search
Coincidencias exactas
Buscar por
Seleccionar todos
Magisters
Diplomados
Cursos
Profesores
Noticias
Páginas

Diplomado en Herramientas Computacionales para Big Data y Análisis de Datos

Nuevas tecnologías y herramientas para su exitosa incorporación en las organizaciones, logrando la extracción de conocimiento desde fuentes masivas de datos, tanto estructuradas, como no estructuradas, incluyendo textos, imágenes, voz e interacciones en redes sociales

Antecedentes Generales

22/06/2020 versión 10°
Lun y mié de 18:30 a 21:45 hrs
Campus San Joaquín (Av. Vicuña Mackenna 4860, estación metro San Joaquín)
144 horas cronológicas
$2.900.000.-
programas@ing.puc.cl
+56 2 2354 4516

Este diplomado prepara a los participantes para los recientes avances en el procesamiento y análisis de datos, revolución tecnológica caracterizada por la aparición de eficaces herramientas para un uso efectivo de fuentes masivas de datos o Big Data. Este escenario abre grandes oportunidades para la creación de nuevos modelos de negocios, así como para la aparición de un nuevo ecosistema de emprendimientos orientados a aprovechar las nuevas tecnologías. En el corto plazo, las nuevas tecnologías para Big Data serán un elemento crítico y diferenciador para un sinnúmero de actividades del quehacer productivo.

 

Ya sea en el ámbito de la gestión o la implementación de tecnologías Big Data, su transversalidad y penetración auguran una gran necesidad por profesionales preparados en esta área. Estos profesionales están llamados a liderar la transformación del sector empresarial para enfrentar y sacar partido de las nuevas tecnologías. En economías avanzadas esto ya es una realidad, y tanto en Chile como en Latinoamérica no tardará en ocurrir lo mismo.

 

Dirigido a:
– Ingenieros Civiles Industriales, Civiles Informáticos, Civiles Electrónicos y Civiles Eléctricos.
– Licenciados en Computación y otros profesionales licenciados y/o con experiencia en áreas afines, que requieren conocimientos o habilidades en la materia.

Contenidos del Programa

Unidad I: Fundamentos de Hadoop
– Introducción a Hadoop
– Hadoop sistema distribuido de archivos: HDFS (Hadoop distributed file system)
– Hadoop distribución de tareas en un cluster: Paradigma Map Reduce
– Bases de datos no relacionales (NoSQL-Structured Query Language)
– Google Gran Tabla y Hadoop Hbase

 

Unidad II: Ecosistema Hadoop
– Introducción al ecosistema Hadoop de Cloudera
– Herramientas del ecosistema: Pig, Hive, Impala y Hue
– Movimiento masivo de datos: Sqoop
– Datos Secuenciales (Streaming): Flume
– Spark
– Librería de Aprendizaje de Máquina: Spark MLlib (Spark Machine learning library)

Unidad I: Conceptos Fundamentales de Aprendizaje de Máquina y Big Data
– Introducción al aprendizaje de máquina
– Técnica de vecinos cercanos
– Redes neuronales de capa oculta
– Modelos de aprendizaje de máximo margen
– Optimización y técnicas de descenso de gradiente estocástico
– Limitaciones de técnicas tradicionales de aprendizaje de máquina para problemas de Big Data

 

Unidad II: Técnicas de Aprendizaje de Máquina para Big Data
– Técnicas de hashing con colisión local
– Modelos jerárquicos composicionales y aprendizaje estructural
– Representaciones distribuidas
– Redes neuronales convolucionales de aprendizaje profundo
– Redes neuronales recurrentes

Unidad I: Técnicas de Visualización
– Fundamentos: abstracción de datos, marcas y canales, procesamiento humano de la información
– Representaciones estadísticas y algoritmos
– Reducción de dimensionalidad
– Visualización de datos espaciales, temporales y redes sociales
– Evaluación de sistemas de visualización
– Herramientas de software y estudio de casos

 

Unidad II: Sistemas de Recomendación
– Datos usados para generar recomendaciones
– Fuentes de información espacial, temporal y redes sociales
– Métricas de distancia
– Preferencias basadas en retroalimentación explícita e implícita
– Métodos de recomendación: personalizados, colaborativos, basados en contexto o contenido, híbridos
– Evaluación de sistemas recomendadores
– Estudio de casos

Unidad I: Computación de alto rendimiento para Big Data
– Introducción al procesamiento paralelo de datos
– Uso de recursos elásticos y procesamiento en la nube
– Modelos para almacenamiento distribuido de archivos en clusters
– Modelos para manejo distribuido de memoria en clusters
– Modelos para ejecución distribuida de proceso en clusters
– Procesamiento en unidades gráficas (GPUs-graphics processing unit)

 

Unidad II: Teoría de grafos para Big Data
– Conceptos fundamentales de teoría de grafos: grado, isomorfismos, conectividad, centralidad, traversabilidad, búsqueda y ranking, métricas de distancia
– Base de datos para grafos
– Grafos como herramienta analítica para Big Data
– Grafos para modelamiento y análisis de datos espaciales y redes sociales
– Grafos para modelamiento y análisis de datos dinámicos
– Grafos como herramienta de modelamiento y descubrimiento de patrones semánticos
– Estudio de casos

Nota: El orden de los cursos dependerá de la programación que realice la Dirección Académica

Cuerpo Académico

Solicita información y brochure aquí:

Este sitio está protegido por reCAPTCHA y se aplican la política de privacidad y términos del servicio de Google.

¿Listo para postular?

Postula Aquí

 

¿Te gustó este programa?
¡Compártelo en tus redes sociales!

Programas relacionados

Descargar Brochure
X