Struttura del corso

Introduzione

  • Perché e come i team di progetto adottano Hadoop
  • Come tutto è iniziato
  • Il ruolo del Project Manager nei progetti Hadoop

Comprendere l'architettura e i concetti chiave di Hadoop

  • HDFS (Acciaio inossidabile HDFS)
  • MapReduce
  • Altri pezzi dell'ecosistema Hadoop

Che cos'è Big Data?

Diversi approcci all'archiviazione Big Data

HDFS (Hadoop Distributed File System) come base

Modalità di elaborazione di Big Data

  • La potenza dell'elaborazione distribuita

Elaborazione dei dati con MapReduce

  • Come vengono analizzati i dati passo dopo passo

Il ruolo del clustering nell'elaborazione distribuita su larga scala

  • Panoramica dell'architettura
  • Approcci di clustering

Clustering di dati e processi con YARN

Il ruolo del non-relazionale Database nell'archiviazione dei Big Data

Utilizzo del database non relazionale di Hadoop: HBase

Cenni preliminari sull'architettura di data warehousing

Gestione del data warehouse con Hive

Esecuzione di Hadoop da script di shell

Utilizzo di Hadoop Streaming

Altri Hadoop Strumenti e utilità

Introduzione a un progetto Hadoop

  • Demistificare la complessità

Migrazione di un progetto esistente a Hadoop

  • Considerazioni sull'infrastruttura
  • Scalabilità oltre le risorse allocate

Hadoop Stakeholder del progetto e loro toolkit

  • Sviluppatori, data scientist, business analyst e project manager

Hadoop Come Fondazione per le nuove tecnologie e i nuovi approcci

Osservazioni conclusive

Requisiti

  • Una conoscenza generale della programmazione
  • Comprensione delle banche dati
  • Conoscenza di base di Linux
  14 ore
 

Numero di Partecipanti


Data Inizio

Data Fine


Le date sono soggette a disponibilità e si svolgono tra le 09:30 e le 16:30.
I corsi di formazione pubblici richiedono più di 5 partecipanti.

Recensioni (3)

Corsi relativi

Categorie relative