Curso - Abierto al público - Presencial - Sede Bucaramanga

El curso busca desarrollar las habilidades de los participantes el uso de las herramientas y componentes del ecosistema Hadoop y el marco de trabajo Map-reduce, incluyendo la arquitectura HDFS, administrador de recursos YARN, configuración de trabajos.

Este curso es homologable en el Diplomado Ciencia de Datos, como el 5to módulo del programa. 

  • Dirigido a

    Profesionales, técnicos o tecnólogos en todas las áreas interesados en sobre el ecosistema Hadoop y Big data, además de haber tomado los cursos de Machine Learning supervisado y no supervisado del diplomado de ciencias de datos UNAB, administración de sistemas o bases de datos, y en general a quienes estén buscando establecer diferencias entre la analítica y el Big Data y los beneficios que pueden aportar a una organización o a la industria.

  • Objetivos

    General

    Desarrollar soluciones de analítica de datos en un entorno de Big Data como lo es Hadoop, administración básica de algunos de los componentes del mismo incluyendo la arquitectura HDFS, administrador de recursos YARN y la configuración de trabajos MapReduce.


    Específicos

    • Instalar un entorno de Hadoop Big Data
    • Conocer las bases de la administración y configuración de los componentes básicos de Hadoop
    • Entender el manejo del sistema de ficheros HDFS
    • Entender los conceptos más importantes de MapReduce y YARN
  • Competencias de formación

    Comprende

    El participante comprende los Fundamentos y las Tecnologías de Big Data.


    Analiza

    El participante aprende las herramientas para gestionar los componentes básicos de Hadoop, incluyendo sus conceptos.


    Aplica

    El estudiante a través de un taller aplica los conocimientos y habilidades de Hadoop.

  • Metodología

    Curso teórico-práctico, donde el asistente entenderá aplicará los conceptos de un entorno de Hadoop Big Data y hacer una configuración básica de los componentes.

  • Plan de Estudios

    Unidad 1: Introducción a Big Dat

    Unidad 2: Ecosistema Hadoop.

    Unidad 3: HDFS Hadoop Distributed File System

    Unidad 4: Map Reduce, YARN y otros componentes

  • Docente

    Alfredo Antonio Díaz Claro. Magister en Ciencias computacionales UNAB-ITESM., Magister en Administración de Telecomunicaciones – ITESM., Especialista en Sistemas de información EAFIT- Medellín. Administrador de Empresas UNAB. Certificado auditor interno seguridad de la información (ISO 27000), Inteligencia de negocios, Dirección y Gerencia de Proyectos y Tecnología. Consultor y gerente de proyectos en el diseño y desarrollo de estrategias en Inteligencia de negocios, Minería de Datos (Power BI, Pentaho,), Analítica (Python, R, Knime) y BigData (Hadoop).

    **La UNAB se reserva el derecho a modificar el cuerpo docente

Institución de Educación Superior sujeta a la inspección y vigilancia del Ministerio de Educación Nacional