Struttura del corso

  • Introduzione alle soluzioni di Cloud Computing e Big Data
  • Evoluzione di Apache Hadoop: HDFS, MapReduce, YARN
  • Installazione e configurazione di Hadoop in modalità pseudo-distribuita
  • Esecuzione di processi MapReduce nel cluster Hadoop
  • Pianificazione, installazione e configurazione del cluster Hadoop
  • Ecosistema Hadoop: Maiale, Alveare, Sqoop, HBase
  • Il futuro dei Big Data: Impala, Cassandra

Requisiti

  • Competenze amministrative di base Linux
  • Competenze di programmazione di base
  21 ore
 

Numero di Partecipanti


Data Inizio

Data Fine


Le date sono soggette a disponibilità e si svolgono tra le 09:30 e le 16:30.

Prezzo per Partecipante

Recensioni (3)

Corsi relativi

Categorie relative