Struttura del corso

  • Introduzione alle soluzioni di Cloud Computing e Big Data
  • Evoluzione di Apache Hadoop: HDFS, MapReduce, YARN
  • Installazione e configurazione di Hadoop in modalità pseudo-distribuita
  • Esecuzione di processi MapReduce nel cluster Hadoop
  • Pianificazione, installazione e configurazione del cluster Hadoop
  • Ecosistema Hadoop: Maiale, Alveare, Sqoop, HBase
  • Il futuro dei Big Data: Impala, Cassandra

Requisiti

  • Competenze amministrative di base Linux
  • Competenze di programmazione di base
 21 ore

Numero di Partecipanti



Prezzo per Partecipante

Recensioni (3)

Corsi relativi

Categorie relative