Diplomado en Big Data para la toma de decisiones (online)

Conocimientos y herramientas para aprovechar los grandes volúmenes de datos que se generan en una organización, logrando información valiosa para la toma de decisiones estratégicas.

El Big Data permite extraer tendencias y patrones complejos de información, permitiendo predecir mejor y transformar la forma en la que se hacen hoy en día los negocios.

Diplomado en Big Data para la toma de decisiones (online)

Antecedentes Generales

  • Fecha de inicio

    26 de noviembre

  • Horas

    300 horas totales (140 horas directas y 160 horas indirectas)

  • Valor

    $2.190.000 en Chile / USD 2.433 resto del mundo ¡Consulta por descuento!

  • Tutor de apoyo permanente

  • 8 clases sincrónicas

  • Cuestionarios de selección múltiple

  • Proyectos aplicados

  • Material multimedia de apoyo

El real mejoramiento de la eficiencia organizacional está relacionado con la implementación de soluciones tecnológicas que permitan agilizar la toma de decisiones en base a información cuantitativa y cualitativa relevante en tiempo real. El uso eficiente de dicha información requiere de una adecuada administración de grandes volúmenes de datos por minuto, que demandan extensos y rigurosos análisis junto con métricas e indicadores cada vez más exactos. El análisis de grandes volúmenes de datos permite extraer tendencias y patrones complejos de información, con enormes implicancias estratégicas, permitiendo predecir mejor y transformando la forma en la que se hacen los negocios hoy en día.

La metodología de enseñanza y aprendizaje para este curso online consiste en técnicas metodológicas activas, donde el participante puede interactuar con sus pares y profesor-tutor a través de los recursos tecnológicos que provee la plataforma educativa virtual provista para el diplomado.

Profesionales, ejecutivos o emprendedores que requieran tomar decisiones eficaces de gestión basado en los beneficios del uso de tecnologías relacionadas a Big Data y con esto puedan incrementar significativamente las ventajas competitivas en la agilidad de su organización, área funcional o emprendimiento que tengan en curso. Así también, el diplomado está dirigido a los profesionales que requieran conocer los fundamentos de Big Data para liderar proyectos de gestión que tengan como base el uso cuantitativo de información, para así lograr tener una mejor precisión e impacto en la toma de decisiones de la empresa.

Evaluar proyectos de aplicación de Big Data en una organización, conociendo los fundamentos, principios y últimas tendencias en plataformas computacionales relacionadas con Big Data, su importancia estratégica y modo de gestión, y las aplicaciones y herramientas analíticas de Ciencia de Datos y Estadística para modelos predictivos y visualización de datos.

Poseer un título profesional universitario o técnico, licenciatura o egreso de instituto profesional.

Dominio básico de Excel y manejo de internet a nivel usuario y conocimientos básicos de estadística.

Contenidos del Programa

Al final del curso podrás:
– Identificar los conceptos fundamentales de Big Data y sus herramientas asociadas.
– Desarrollar estrategias de gestión para la creación de valor organizacional mediante datos masivos.
– Distinguir los elementos claves que componen un proyecto de Big Data, desde los procesos para la captura de datos, las herramientas y el capital humano necesario, hasta la evaluación del impacto estratégico y financiero generado para la organización.

Contenidos:
Introducción al Big Data
– ¿Qué es el Big Data?.
– ¿Por dónde comienza una empresa a usar Big Data?.
– ¿Cuáles son las decisiones claves durante la elección de una solución Big Data?.

Transformación digital
– ¿Qué es transformación digital?.
– ¿Cómo se relaciona el Big Data con la transformación digital?.
– ¿Cuál es el rol del CLevel y del Chief Data Officer?.

Equipo analítico, modelos y administración
– ¿Cómo se construye un equipo analítico?.
– Modelos analíticos y herramientas.
– Administración de proyectos analíticos.

Arquitectura para Big Data
– ¿Qué es un sistema distribuido?.
– Componentes del ecosistema Hadoop.
– Análisis de datos.
– Evolución de las arquitecturas.

Evaluación de proyectos
– Evaluación financiera de proyectos.
– Evaluación de proyectos desde el punto de vista estratégico.
– Arquitectura en la nube.

Casos de éxito en Big Data
– Casos de uso en la industria y financiera. Alibaba, un gigante de la inteligencia artificial.

Al final del curso aprenderás:
– Identificar el fundamento del modelamiento estadístico para el manejo de grandes volúmenes de datos.
– Explicar el proceso de modelamiento y sus distintas fases para la implementación de soluciones.
– Generar flujos de trabajo de datos para proyectos de Big Data en la organización.
– Realizar inferencias estadísticas sobre datos para el mejoramiento de la toma de decisiones organizacionales mediante herramientas computacionales (software R).

Contenidos:
Introducción a estadística
– Terminología estadística básica.
– Tipos de muestreo.
– Modelos de probabilidad.

Introducción a modelamiento estadístico y Big Data
– Modelos estadísticos.
– Big Data: Bajo qué contextos se justifica su uso.

Preprocesamiento de datos
– Limpieza, integración de datos, reducción y transformación de datos.

Métodos de clasificación
– Árboles de decisión.

Otros métodos de clasificación
– Bayes ingenuo.
– Método de los k-vecinos más cercanos y de conjuntos.

Métodos de agrupación y sistemas recomendadores
– Métodos de partición y jerárquicos.
– Sistemas recomendadores.

Al final del curso podrás:
– Identificar las herramientas y metodologías para el desarrollo de proyectos de visualización de datos.
– Elaborar estrategias de alto impacto para la comunicación de grandes volúmenes de datos.
– Diseñar representaciones perceptibles para la amplificación del conocimiento organizacional.
– Diseñar mecanismos de síntesis y visualización de datos de valor que apoyen la toma de decisiones.

Contenidos:
Introducción a la visualización de datos
– Contexto de la visualización de datos y algunas definiciones sobre la visualización.
– Historia y panorama hoy.

¿Para qué sirve la visualización de datos? Objetivos y métodos
– Los roles de la visualización.
– Modelos y procesos de visualización.
– Usuario, contexto y medio: consideraciones para crear una visualización.
– Definir escala y objetivos de la visualización.

Datos e información: conceptos, formatos y fuentes
– ¿Qué es un dato?.
– Tipos y fuentes de datos.
– Formato de archivos.

Representación de datos: Percepción y codificación visual
– Percepción visual: aspectos cognitivos de la visión.
– Codificación y variables visuales.
– ¿Qué mostrar en una visualización?

Cómo implementar una visualización: Herramientas y lenguajes
– Panorama de herramientas para la visualización.
– Herramientas prehechas.
– Librerías de visualización.
– Visualizaciones desde cero y proceso de visualización.

Profundización, desafíos y proyecciones para la visualización
– Más allá de los gráficos.
– Autores y libros.
– Data, sociedad y futuro.

Al final del curso podrás:
– Identificar las herramientas de manejo de datos adecuadas para el contexto de su empresa.
– Modelar datos usando herramientas de bases de datos relacionales (SQL), bases de datos NoSQL y bases de datos distribuidas.
– Estimar la necesidad de transición en la infraestructura de datos desde un modelo clásico centralizado (tipo SQL) hacia un modelo de Big Data distribuido.

Contenidos:
Manejo de datos
– Datos de una empresa.
– Distintos formatos de datos.
– Problemas organizacionales.
– Sistemas de bases de datos.
– Bases de datos relacionales.

¿Cómo interactuar con una base de datos?
– Base de datos en el ecosistema de una empresa.
– Lenguaje de consultas SQL.
– Múltiples usuarios trabajando con los datos.

Distribución de los datos
– Paso al mundo de Big Data.
– Distribución de los datos.
– Comparando sistemas centralizados y sistemas distribuidos.

NoSQL
– Otros modelos de datos.
– Key-value stores.
– Bases de datos de documentos y de grafos.

Procesamiento masivo de datos
– ¿Cómo manejar a datos diversos?.
– Sistema de archivos de Google.
– Google File System: Garantías de consistencia.
– ¿Cómo ocupar el sistema de archivos de Google?.

MapReduce
– ¿Cómo priorizar petabytes de datos?.
– MapReduce y cómo ocuparlo.
– Blocking y tolerancia a fallas.

Cuerpo Docente

Jefe de Programa

Cristián Paris Ibarra

Coordinador de Transferencia Tecnológica y Educación Continua

Alejandro Jara

Profesor Asociado del Departamento de Estadísticas UC

Claudio Morchón

Master en Ingeniería Matemática, Universidad Carlos III de Madrid

Ricardo Vega

Profesor Asistente Adjunto, Escuela de Diseño

Domagoj Vrgoc

Doctor en Computación, Universidad de Edimburgo, Reino Unido


¿te gusta esta publicación?
Comparte esta publicación