Nuevas tecnologías y herramientas para su exitosa incorporación en las organizaciones, logrando la extracción de conocimiento desde fuentes masivas de datos, tanto estructuradas, como no estructuradas, incluyendo textos, imágenes, voz e interacciones en redes sociales
El Diplomado en Big Data prepara para los recientes avances en el procesamiento y análisis de datos, revolución tecnológica caracterizada por la aparición de eficaces herramientas para un uso efectivo de fuentes masivas de datos o Big Data. Este escenario abre grandes oportunidades para la creación de nuevos modelos de negocios, así como para la aparición de un nuevo ecosistema de emprendimientos orientados a aprovechar las nuevas tecnologías. En el corto plazo, las nuevas tecnologías para Big Data serán un elemento crítico y diferenciador para un sinnúmero de actividades del quehacer productivo.
Ya sea en el ámbito de la gestión o la implementación de tecnologías Big Data, su transversalidad y penetración auguran una gran necesidad por profesionales preparados en esta área. Estos profesionales están llamados a liderar la transformación del sector empresarial para enfrentar y sacar partido de las nuevas tecnologías. En economías avanzadas esto ya es una realidad, y tanto en Chile como en Latinoamérica no tardará en ocurrir lo mismo.
Dirigido a:
– Ingenieros Civiles Industriales, Civiles Informáticos, Civiles Electrónicos y Civiles Eléctricos.
– Licenciados en Computación y otros profesionales licenciados y/o con experiencia en áreas afines, que requieren conocimientos o habilidades en la materia.
Curso: Ecosistema Hadoop
Unidad I: Fundamentos de Hadoop
– Introducción a Hadoop
– Hadoop sistema distribuido de archivos: HDFS (Hadoop distributed file system)
– Hadoop distribución de tareas en un cluster: Paradigma Map Reduce
– Bases de datos no relacionales (NoSQL-Structured Query Language)
– Google Gran Tabla y Hadoop Hbase
Unidad II: Ecosistema Hadoop
– Introducción al ecosistema Hadoop de Cloudera
– Herramientas del ecosistema: Pig, Hive, Impala y Hue
– Movimiento masivo de datos: Sqoop
– Datos Secuenciales (Streaming): Flume
– Spark
– Librería de Aprendizaje de Máquina: Spark MLlib (Spark Machine learning library)
Curso: Aprendizaje de Máquina para Big Data
Unidad I: Conceptos Fundamentales de Aprendizaje de Máquina y Big Data
– Introducción al aprendizaje de máquina
– Técnica de vecinos cercanos
– Redes neuronales de capa oculta
– Modelos de aprendizaje de máximo margen
– Optimización y técnicas de descenso de gradiente estocástico
– Limitaciones de técnicas tradicionales de aprendizaje de máquina para problemas de Big Data
Unidad II: Técnicas de Aprendizaje de Máquina para Big Data
– Técnicas de hashing con colisión local
– Modelos jerárquicos composicionales y aprendizaje estructural
– Representaciones distribuidas
– Redes neuronales convolucionales de aprendizaje profundo
– Redes neuronales recurrentes
Curso: Técnicas de Visualización y Sistemas de Recomedación
Unidad I: Técnicas de Visualización
– Fundamentos: abstracción de datos, marcas y canales, procesamiento humano de la información
– Representaciones estadísticas y algoritmos
– Reducción de dimensionalidad
– Visualización de datos espaciales, temporales y redes sociales
– Evaluación de sistemas de visualización
– Herramientas de software y estudio de casos
Unidad II: Sistemas de Recomendación
– Datos usados para generar recomendaciones
– Fuentes de información espacial, temporal y redes sociales
– Métricas de distancia
– Preferencias basadas en retroalimentación explícita e implícita
– Métodos de recomendación: personalizados, colaborativos, basados en contexto o contenido, híbridos
– Evaluación de sistemas recomendadores
– Estudio de casos
Curso: Computación de Alto Rendimiento y Teoría de Grafos para Big Data
Unidad I: Computación de alto rendimiento para Big Data
– Introducción al procesamiento paralelo de datos
– Uso de recursos elásticos y procesamiento en la nube
– Modelos para almacenamiento distribuido de archivos en clusters
– Modelos para manejo distribuido de memoria en clusters
– Modelos para ejecución distribuida de proceso en clusters
– Procesamiento en unidades gráficas (GPUs-graphics processing unit)
Unidad II: Teoría de grafos para Big Data
– Conceptos fundamentales de teoría de grafos: grado, isomorfismos, conectividad, centralidad, traversabilidad, búsqueda y ranking, métricas de distancia
– Base de datos para grafos
– Grafos como herramienta analítica para Big Data
– Grafos para modelamiento y análisis de datos espaciales y redes sociales
– Grafos para modelamiento y análisis de datos dinámicos
– Grafos como herramienta de modelamiento y descubrimiento de patrones semánticos
– Estudio de casos
¿Te gustó este programa?
¡Compártelo en tus redes sociales!