Conviértete en un experto de Big Data y serás altamente demandado en las empresas, dominando las infinitas oportunidades para una efectiva producción y análisis de datos.
Sólida formación en las principales tecnologías y herramientas que marcan el estado de las artes en el procesamiento y análisis de las fuentes masivas de datos.
Aprende a incorporar estas tendencias en las organizaciones, logrando la extracción de conocimiento desde los datos, tanto estructuradas, como no estructuradas, incluyendo textos, imágenes, voz e interacciones en redes sociales.
Disponible para profesionales de todo Chile y Latinoamérica.
Próximo inicio versión N°11.
Todas las modalidades del programa (dual, presencial y streaming) tienen el mismo valor. Además, recomendamos preguntar las condiciones de cada una al momento de matricularse.
Este diplomado prepara a los participantes para los recientes avances en el procesamiento y análisis de datos, revolución tecnológica caracterizada por la aparición de eficaces herramientas para un uso efectivo de fuentes masivas de datos o Big Data. Este escenario abre grandes oportunidades para la creación de nuevos modelos de negocios, así como para la aparición de un nuevo ecosistema de emprendimientos orientados a aprovechar las nuevas tecnologías. En el corto plazo, las nuevas tecnologías para Big Data serán un elemento crítico y diferenciador para un sinnúmero de actividades del quehacer productivo.
Ya sea en el ámbito de la gestión o la implementación de tecnologías Big Data, su transversalidad y penetración auguran una gran necesidad por profesionales preparados en esta área. Estos profesionales están llamados a liderar la transformación del sector empresarial para enfrentar y sacar partido de las nuevas tecnologías. En economías avanzadas esto ya es una realidad, y tanto en Chile como en Latinoamérica no tardará en ocurrir lo mismo.
Dirigido a:
-Ingenieros Civiles Industriales, Civiles Informáticos, Civiles Electrónicos y Civiles Eléctricos.
-Licenciados en Computación y otros profesionales licenciados y/o con experiencia en áreas afines, que requieren conocimientos o habilidades en la materia.
Objetivos de Aprendizaje:
-Conocer los principales componentes de la tecnología Big Data.
-Gestionar proyectos orientados a la introducción de tecnologías en Big Data en la organización.
Al final del curso podrás:
– Describir los principales desafíos del manejo de datos estructurados y no estructurados.
– Conocer las principales tecnologías para el manejo de masivas cantidades de datos en forma distribuida.
– Reconocer los principales componentes con que debe contar una solución a una problemática del tipo Big Data.
Contenidos:
Unidad I: Fundamentos de Hadoop
– Introducción a Hadoop
– Hadoop sistema distribuido de archivos: HDFS (Hadoop distributed file system)
– Hadoop distribución de tareas en un cluster: Paradigma Map Reduce
– Bases de datos no relacionales (NoSQL-Structured Query Language)
– Google Gran Tabla y Hadoop Hbase
Unidad II: Ecosistema Hadoop
– Introducción al ecosistema Hadoop de Cloudera
– Herramientas del ecosistema: Pig, Hive, Impala y Hue
– Movimiento masivo de datos: Sqoop
– Datos Secuenciales (Streaming): Flume
– Spark
– Librería de Aprendizaje de Máquina: Spark MLlib (Spark Machine learning library)
Al final del curso podrás:
– Conocer y aplicar algunas conceptos y técnicas más populares del paradigma tradicional de aprendizaje de máquina.
– Conocer y aplicar representaciones de datos, y técnicas de optimización capaces de escalar a problemas del tipo Big Data.
– Entender y aplicar técnicas de aprendizaje profundo para análisis de datos multidimensionales y técnicas para el modelamiento de secuencias y datos temporales.
– Conocer y aplicar bibliotecas de software existentes para implementar soluciones basadas en modelos de aprendizaje profundo (deep learning).
Contenidos:
Unidad I: Conceptos Fundamentales de Aprendizaje de Máquina y Big Data
– Introducción al aprendizaje de máquina
– Técnica de vecinos cercanos
– Redes neuronales de capa oculta
– Modelos de aprendizaje de máximo margen
– Optimización y técnicas de descenso de gradiente estocástico
– Limitaciones de técnicas tradicionales de aprendizaje de máquina para problemas de Big Data
Unidad II: Técnicas de Aprendizaje de Máquina para Big Data
– Técnicas de hashing con colisión local
– Modelos jerárquicos composicionales y aprendizaje estructural
– Representaciones distribuidas
– Redes neuronales convolucionales de aprendizaje profundo
– Redes neuronales recurrentes
Al final del curso podrás:
– Conocer conceptos fundamentales de abstracción de datos, percepción y procesamiento humano de la información.
– Entender y aplicar técnicas de reducción de la dimensionalidad, métricas de distancia, técnicas de visualización de datos espaciales y temporales y técnicas de visualización de grafos y redes.
– Conocer los principales algoritmos y fuentes de datos usados para generar recomendaciones.
– Diseñar e implementar los distintos componentes de un sistema recomendador.
Contenidos:
Unidad I: Técnicas de Visualización
– Fundamentos: abstracción de datos, marcas y canales, procesamiento humano de la información
– Representaciones estadísticas y algoritmos
– Reducción de dimensionalidad
– Visualización de datos espaciales, temporales y redes sociales
– Evaluación de sistemas de visualización
– Herramientas de software y estudio de casos
Unidad II: Sistemas de Recomendación
– Datos usados para generar recomendaciones
– Fuentes de información espacial, temporal y redes sociales
– Métricas de distancia
– Preferencias basadas en retroalimentación explícita e implícita
– Métodos de recomendación: personalizados, colaborativos, basados en contexto o contenido, híbridos
– Evaluación de sistemas recomendadores
– Estudio de casos
Al final del curso podrás:
– Entender los principales desafíos para el procesamiento paralelo de datos.
– Conocer y aplicar modalidades de procesamiento de datos basadas en recursos elásticos en la nube, así como las principales tecnologías para el almacenamiento y procesamiento distribuido de grandes cantidades de datos
– Describir los principales desafíos del uso de grafos en problemas del tipo Big Data.
– Conocer y aplicar representaciones gráficas para el modelamiento de distintas fuentes de datos, las principales técnicas para el uso de grafos como herramienta analítica y técnicas basadas en grafos para determinar métricas de distancia y redes semánticas.
Contenidos:
Unidad I: Computación de alto rendimiento para Big Data
– Introducción al procesamiento paralelo de datos
– Uso de recursos elásticos y procesamiento en la nube
– Modelos para almacenamiento distribuido de archivos en clusters
– Modelos para manejo distribuido de memoria en clusters
– Modelos para ejecución distribuida de proceso en clusters
– Procesamiento en unidades gráficas (GPUs-graphics processing unit)
Unidad II: Teoría de grafos para Big Data
– Conceptos fundamentales de teoría de grafos: grado, isomorfismos, conectividad, centralidad, traversabilidad, búsqueda y ranking, métricas de distancia
– Base de datos para grafos
– Grafos como herramienta analítica para Big Data
– Grafos para modelamiento y análisis de datos espaciales y redes sociales
– Grafos para modelamiento y análisis de datos dinámicos
– Grafos como herramienta de modelamiento y descubrimiento de patrones semánticos
– Estudio de casos
Nota: El orden de los cursos dependerá de la programación que realice la Dirección Académica
¿Te gustó este programa?
¡Compártelo en tus redes sociales!