Struttura del corso

Introduzione

  • Apache Spark contro Hadoop MapReduce

Panoramica di Apache Spark Funzionalità e architettura

Scelta di una Programming lingua

Impostazione Apache Spark

Creazione di un'applicazione di esempio

Scelta del set di dati

Esecuzione di Data Analysis sui dati

Elaborazione di dati strutturati con Spark SQL

Elaborazione di dati in streaming con Spark Streaming

Integrazione di Apache Spark con gli strumenti di 3rd Part Machine Learning

Utilizzo di Apache Spark per l'elaborazione dei grafici

Ottimizzazione Apache Spark

Risoluzione dei problemi

Riassunto e conclusione

Requisiti

  • Esperienza con la riga di comando di Linux
  • Una comprensione generale del trattamento dei dati
  • Esperienza di programmazione con Java, Scala, Python o R

Pubblico

  • Gli sviluppatori
 21 ore

Numero di Partecipanti



Prezzo per Partecipante

Recensioni (2)

Corsi relativi

Categorie relative