calendar correo curso diplomado horas lugar modalidad in-company magister magisteres programa-avanzado quotes reloj telefono contacto contacto grad video
Search
Coincidencias exactas
Buscar por
Seleccionar todos
Magisters
Diplomados
Cursos
Profesores
Noticias
Páginas

Diplomado en Big Data

11 versiones formando expertos en las principales tecnologías y herramientas que marcan el estado de las artes en la producción, el procesamiento y análisis de las fuentes masivas de datos.

Aprende a incorporar estas tendencias en las organizaciones, logrando la extracción de conocimiento desde los datos, tanto estructuradas, como no estructuradas, incluyendo textos, imágenes, voz e interacciones en redes sociales.

Disponible para profesionales de todo Chile y Latinoamérica.

Antecedentes Generales

Próximamente
Lun y mié de 18:30 a 21:45 hrs
144 horas cronológicas
$2.400.000 en Chile / USD 3100 resto del mundo ¡Consulta por descuento!

Todas las modalidades del programa (dual, presencial y streaming) tienen el mismo valor. Además, recomendamos preguntar las condiciones de cada una al momento de matricularse.


programas@ing.puc.cl

Grandes repositorios de datos han comenzado a surgir en los más diversos ámbitos de nuestro quehacer social, lo que, acompañado de nuevas capacidades para su procesamiento, están dando vida a un nuevo paradigma conocido como Big Data. Las oportunidades que abre un efectivo análisis de estas fuentes de información masivas son enormes; ello ha motivado un gran interés, y acelerado el desarrollo de nuevas tecnologías dedicadas a procesar y extraer conocimiento de ellas. En este contexto, el Diplomado en Big Data apunta a entregar una sólida formación en las principales tecnologías y tendencias que marcan el estado del arte en el ámbito de almacenamiento, procesamiento y extracción de conocimiento de fuentes de datos masivas, tanto estructuradas como no estructuradas.

Como eje central, el diplomado aborda la problemática de Big Data desde la perspectiva de la aplicación de técnicas de aprendizaje de máquina y sistemas computacionales de alto rendimiento. La combinación de estas dos temáticas ha surgido como una de las claves para tomar ventaja del gran potencial, no sólo de datos estructurados, sino también de datos no estructurados, como es el caso de datos textuales, imágenes o interacciones en redes sociales.

Adicionalmente, el diplomado abarca las áreas de visualización y teoría de grafos, que son elementos claves para facilitar la inclusión de analistas humanos en el ciclo de extracción de conocimiento. En términos de aplicaciones, se dedica un capítulo especial a sistemas de recomendación, una de las áreas de mayor uso actual de repositorios del tipo Big Data.

De esta manera, el diplomado entrega competencias para entender la evolución tecnológica que ha dado vida al paradigma Big Data; describir los principales elementos y desafíos de esta área; conocer y entender las principales tecnologías detrás de aplicaciones actuales usadas para enfrentar problemáticas del tipo Big Data; y diseñar y aplicar soluciones a problemáticas del tipo Big Data.

Dirigido a:
-Ingenieros Civiles Industriales, Civiles Informáticos, Civiles Electrónicos y Civiles Eléctricos.

-Licenciados en Computación y otros profesionales licenciados y/o con experiencia en áreas afines, que requieren conocimientos o habilidades en la materia.

Objetivos de aprendizaje:

-Conocer los principales componentes de la tecnología Big Data.

-Gestionar proyectos orientados a la introducción de tecnologías en Big Data en la organización.

Contenidos del Programa

Al final del curso podrás:

- Describir los principales desafíos del manejo de datos estructurados y no estructurados.

- Conocer las principales tecnologías para el manejo de masivas cantidades de datos en forma distribuida.

- Reconocer los principales componentes con que debe contar una solución a una problemática del tipo Big Data.

Contenidos:

Unidad I: Fundamentos de Hadoop
– Introducción a Hadoop
– Hadoop sistema distribuido de archivos: HDFS (Hadoop distributed file system)
– Hadoop distribución de tareas en un cluster: Paradigma Map Reduce
– Bases de datos no relacionales (NoSQL-Structured Query Language)
– Google Gran Tabla y Hadoop Hbase

Unidad II: Ecosistema Hadoop
– Introducción al ecosistema Hadoop de Cloudera
– Herramientas del ecosistema: Pig, Hive, Impala y Hue
– Movimiento masivo de datos: Sqoop
– Datos Secuenciales (Streaming): Flume
– Spark
– Librería de Aprendizaje de Máquina: Spark MLlib (Spark Machine learning library)

Al final del curso podrás:

- Conocer y aplicar algunas conceptos y técnicas más populares del paradigma tradicional de aprendizaje de máquina.

- Conocer y aplicar representaciones de datos, y técnicas de optimización capaces de escalar a problemas del tipo Big Data.

- Entender y aplicar técnicas de aprendizaje profundo para análisis de datos multidimensionales y técnicas para el modelamiento de secuencias y datos temporales.

- Conocer y aplicar bibliotecas de software existentes para implementar soluciones basadas en modelos de aprendizaje profundo (deep learning).

Contenidos:

Unidad I: Conceptos Fundamentales de Aprendizaje de Máquina y Big Data
– Introducción al aprendizaje de máquina
– Técnica de vecinos cercanos
– Redes neuronales de capa oculta
– Modelos de aprendizaje de máximo margen
– Optimización y técnicas de descenso de gradiente estocástico
– Limitaciones de técnicas tradicionales de aprendizaje de máquina para problemas de Big Data

Unidad II: Técnicas de Aprendizaje de Máquina para Big Data
– Técnicas de hashing con colisión local
– Modelos jerárquicos composicionales y aprendizaje estructural
– Representaciones distribuidas
– Redes neuronales convolucionales de aprendizaje profundo
– Redes neuronales recurrentes

Al final del curso podrás:

- Conocer conceptos fundamentales de abstracción de datos, percepción y procesamiento humano de la información.

- Entender y aplicar técnicas de reducción de la dimensionalidad, métricas de distancia, técnicas de visualización de datos espaciales y temporales y técnicas de visualización de grafos y redes.

- Conocer los principales algoritmos y fuentes de datos usados para generar recomendaciones.

- Diseñar e implementar los distintos componentes de un sistema recomendador.

Contenidos:

Unidad I: Técnicas de Visualización
– Fundamentos: abstracción de datos, marcas y canales, procesamiento humano de la información
– Representaciones estadísticas y algoritmos
– Reducción de dimensionalidad
– Visualización de datos espaciales, temporales y redes sociales
– Evaluación de sistemas de visualización
– Herramientas de software y estudio de casos

Unidad II: Sistemas de Recomendación
– Datos usados para generar recomendaciones
– Fuentes de información espacial, temporal y redes sociales
– Métricas de distancia
– Preferencias basadas en retroalimentación explícita e implícita
– Métodos de recomendación: personalizados, colaborativos, basados en contexto o contenido, híbridos
– Evaluación de sistemas recomendadores
– Estudio de casos

Al final del curso podrás:

- Entender los principales desafíos para el procesamiento paralelo de datos.

- Conocer y aplicar modalidades de procesamiento de datos basadas en recursos elásticos en la nube, así como las principales tecnologías para el almacenamiento y procesamiento distribuido de grandes cantidades de datos

- Describir los principales desafíos del uso de grafos en problemas del tipo Big Data.

- Conocer y aplicar representaciones gráficas para el modelamiento de distintas fuentes de datos, las principales técnicas para el uso de grafos como herramienta analítica y técnicas basadas en grafos para determinar métricas de distancia y redes semánticas.

Contenidos:

Unidad I: Computación de alto rendimiento para Big Data
– Introducción al procesamiento paralelo de datos
– Uso de recursos elásticos y procesamiento en la nube
– Modelos para almacenamiento distribuido de archivos en clusters
– Modelos para manejo distribuido de memoria en clusters
– Modelos para ejecución distribuida de proceso en clusters
– Procesamiento en unidades gráficas (GPUs-graphics processing unit)

Unidad II: Teoría de grafos para Big Data
– Conceptos fundamentales de teoría de grafos: grado, isomorfismos, conectividad, centralidad, traversabilidad, búsqueda y ranking, métricas de distancia
– Base de datos para grafos
– Grafos como herramienta analítica para Big Data
– Grafos para modelamiento y análisis de datos espaciales y redes sociales
– Grafos para modelamiento y análisis de datos dinámicos
– Grafos como herramienta de modelamiento y descubrimiento de patrones semánticos
– Estudio de casos

Nota: El orden de los cursos dependerá de la programación que realice la Dirección Académica

Cuerpo Académico

Testimonios

"He podido incorporar los conocimientos y herramientas entregados por el diplomado en mi trabajo"

Cristian Olate

Diplomado en Big Data



"Los conocimientos que adquirí son sumamente aplicables en el mundo laboral, particularmente en lo que nosotros desarrollamos como emprendimiento"

Pablo Quintana

Diplomado en Big Data



"Fue una muy buena experiencia, me entregó todos los conocimientos que necesitaba para desarrollarme profesionalmente"

Lorena Arias

Diplomado en Big Data



Solicita información y brochure aquí:

Este sitio está protegido por reCAPTCHA y se aplican la política de privacidad y términos del servicio de Google.

 

¿Te gustó este programa?
¡Compártelo en tus redes sociales!

Programas relacionados

Descargar Brochure
Necesitas ayuda? Conversemos
X