Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología y veremos los productos y herramientas más habituales de este ecosistema
Válido para versiones 2 y 3 de Hadoop
¿Qué contenidos vamos a ver?
-
– Aprenderás los conceptos básicos de esta tecnología
-
– Verás como descargar e instalar Hadoop manualmente
-
– También aprenderás a instalar y configurar Hadoop con ambari
-
– Trabajarás con HDFS para entender la gestión de ficheros en Hadoop
-
– Instalarás y configuraras Map Reduce y YARN
-
– Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del ecosistema Hadoop:
-
HIVE
-
SQOOP
-
SPARK
-
HUE
-
ZooKeeper
-
HBASE
-
Otros productos que iré subiendo y actualizando
-
PIG
-
FLUME
-
……
-
¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!
– Una máquina básica en Linux Centos 6 con la que podrás hacer todas las prácticas desde el principio
– Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configurado en modo Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de instalación y configuración inicial
En resumen, este curso te capacitará para poder empezar a desarrollar y usar esta infraestructura en tu entorno laboral.
El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productiva
Cualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡
Espero lo disfrutes¡¡¡¡¡