Apache Spark Training Courses

Apache Spark Training Courses

I corsi di formazione Apache Spark in diretta locale e istruiti dimostrano attraverso le esercitazioni pratiche come Spark si inserisce nell´ecosistema dei Big Data e come utilizzare Spark per l´analisi dei dati. La formazione di Apache Spark è disponibile come formazione dal vivo in loco o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione aziendale NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, il tuo fornitore di formazione locale.

Recensioni

★★★★★
★★★★★

Sottocategorie Spark

Schema generale del corso Apache Spark

Title
Duration
Overview
Title
Duration
Overview
21 hours
Overview
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
7 hours
Overview
Alluxio è un sistema di archiviazione distribuito virtuale open source che unifica diversi sistemi di archiviazione e consente alle applicazioni di interagire con i dati alla velocità della memoria. È utilizzato da aziende come Intel, Baidu e Alibaba.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Alluxio per collegare diversi framework di calcolo con sistemi di archiviazione e gestire in modo efficiente dati su scala multi-petabyte mentre passano attraverso la creazione di un'applicazione con Alluxio .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Sviluppa un'applicazione con Alluxio
- Connetti sistemi e applicazioni per big data preservando uno spazio dei nomi
- Estrai in modo efficiente il valore dai big data in qualsiasi formato di archiviazione
- Migliora le prestazioni del carico di lavoro
- Distribuire e gestire Alluxio autonomo o in cluster

Pubblico

- Data scientist
- Sviluppatore
- Amministratore di sistema

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Overview
L'analisi dei big data prevede il processo di esame di grandi quantità di set di dati diversi al fine di scoprire correlazioni, schemi nascosti e altre informazioni utili.

L'industria sanitaria ha enormi quantità di dati medici e clinici eterogenei complessi. L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel ricavare approfondimenti per migliorare l'erogazione dell'assistenza sanitaria. Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e applicazioni pratiche in un ambiente clinico.

In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercitazioni pratiche in laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark
- Comprendi le caratteristiche dei dati medici
- Applicare tecniche di big data per gestire i dati medici
- Studiare sistemi e algoritmi per big data nel contesto di applicazioni sanitarie

Pubblico

- Sviluppatori
- Scienziati dei dati

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche.

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
28 hours
Overview
Molti problemi del mondo reale possono essere descritti in termini di grafici. Ad esempio, il grafico Web, il grafico della rete sociale, il grafico della rete del treno e il grafico della lingua. Questi grafici tendono ad essere estremamente grandi; la loro elaborazione richiede una serie specializzata di strumenti e processi: questi strumenti e processi possono essere definiti Graph Computing (noto anche come Graph Analytics).

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno le offerte tecnologiche e gli approcci di implementazione per l'elaborazione dei dati dei grafici. L'obiettivo è identificare gli oggetti del mondo reale, le loro caratteristiche e relazioni, quindi modellarli e elaborarli come dati usando un approccio di Graph Computing (noto anche come Graph Analytics). Iniziamo con un'ampia panoramica e approfondiamo strumenti specifici mentre passiamo attraverso una serie di case study, esercitazioni pratiche e distribuzioni dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi come i dati del grafico sono persistenti e attraversati.
- Seleziona il framework migliore per una determinata attività (dai database dei grafici ai framework di elaborazione batch).
- Implementa Hadoop , Spark, GraphX e Pregel per eseguire il calcolo grafico su molte macchine in parallelo.
- Visualizza i problemi dei big data nel mondo reale in termini di grafici, processi e attraversamenti.

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Overview
Hortonworks Data Platform (HDP) è una piattaforma di supporto open source Apache Hadoop che fornisce una base stabile per lo sviluppo di soluzioni per big data sull'ecosistema Apache Hadoop .

Questa formazione dal vivo con istruttore (in loco o remoto) introduce la Hortonworks Data Platform (HDP) e guida i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala.
- Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark.
- Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti in un progetto Spark.
- Elaborazione di diversi tipi di dati, inclusi strutturati, non strutturati, in movimento e a riposo.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Stream Processing riferisce all'elaborazione in tempo reale di "dati in movimento", ovvero l'esecuzione di calcoli sui dati man mano che vengono ricevuti. Tali dati vengono letti come flussi continui da fonti di dati quali eventi dei sensori, attività dell'utente del sito Web, operazioni finanziarie, passaggi di carte di credito, flussi di clic, ecc. I framework di Stream Processing flussi sono in grado di leggere grandi volumi di dati in entrata e fornire informazioni preziose quasi istantaneamente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come impostare e integrare diversi framework di Stream Processing con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura diversi framework di Stream Processing flussi, come Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e in modo record per record.
- Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
- Integra la libreria di elaborazione del flusso più appropriata con applicazioni e microservizi aziendali.

Pubblico

- Sviluppatori
- Architetti del software

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Gli appunti

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Magellan è un motore di esecuzione distribuito open source per analisi geospaziali su big data. Implementato su Apache Spark , estende Spark SQL e fornisce un'astrazione relazionale per l'analisi geospaziale.

Questa formazione dal vivo con istruttore introduce i concetti e gli approcci per l'implementazione dell'analisi geospaziale e guida i partecipanti attraverso la creazione di un'applicazione di analisi predittiva utilizzando Magellan su Spark.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Eseguire query, analisi e unire in modo efficiente set di dati geospaziali su vasta scala
- Implementare i dati geospaziali nelle applicazioni di business intelligence e di analisi predittiva
- Utilizzare il contesto spaziale per estendere le capacità di dispositivi mobili, sensori, log e dispositivi indossabili

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
La curva di apprendimento di Apache Spark sta lentamente aumentando all'inizio, ha bisogno di molti sforzi per ottenere il primo ritorno. Questo corso mira a saltare attraverso la prima parte difficile. Dopo aver seguito questo corso, i partecipanti comprenderanno le basi di Apache Spark , distingueranno chiaramente RDD da DataFrame, impareranno le API di Python e Scala , capiranno gli esecutori e le attività, ecc. Seguendo anche le migliori pratiche, questo corso si concentra fortemente su implementazione cloud, Databricks e AWS. Gli studenti capiranno anche le differenze tra AWS EMR e AWS Glue, uno degli ultimi servizi Spark di AWS.

PUBBLICO:

Data Engineer, DevOps , Data Scientist
21 hours
Overview
OBBIETTIVO:

Questo corso introdurrà Apache Spark . Gli studenti impareranno come Spark si inserisce nell'ecosistema Big Data e come utilizzare Spark per l'analisi dei dati. Il corso copre la shell Spark per l'analisi interattiva dei dati, gli interni Spark, le API Spark, Spark SQL , lo streaming Spark e l'apprendimento automatico e graphX.

PUBBLICO:

Sviluppatori / Analisti di dati
21 hours
Overview
Python è un linguaggio di programmazione di alto livello famoso per la sua sintassi chiara e la leggibilità del codice. Spark è un motore di elaborazione dei dati utilizzato per interrogare, analizzare e trasformare i big data. PySpark consente agli utenti di interfacciare Spark con Python .

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare Python e Spark insieme per analizzare i big data mentre lavorano su esercizi pratici.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Scopri come utilizzare Spark con Python per analizzare i Big Data .
- Lavora su esercizi che imitano le circostanze del mondo reale.
- Usa diversi strumenti e tecniche per l'analisi dei big data usando PySpark .

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
7 hours
Overview
Spark SQL è il modulo di Apache Spark per lavorare con dati strutturati e non strutturati. Spark SQL fornisce informazioni sulla struttura dei dati e sul calcolo eseguito. Queste informazioni possono essere utilizzate per eseguire ottimizzazioni. Due usi comuni per Spark SQL sono:
- per eseguire query SQL .
- leggere i dati da un'installazione Hive esistente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come analizzare vari tipi di set di dati utilizzando Spark SQL .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Spark SQL .
- Eseguire l'analisi dei dati utilizzando Spark SQL .
- Interroga set di dati in diversi formati.
- Visualizza i dati e i risultati delle query.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
35 hours
Overview
MLlib è la libreria di machine learning (ML) di Spark. Il suo obiettivo è rendere l'apprendimento automatico pratico scalabile e facile. Comprende algoritmi e utilità di apprendimento comuni, tra cui classificazione, regressione, clustering, filtro collaborativo, riduzione della dimensionalità, nonché primitive di ottimizzazione di livello inferiore e API di pipeline di livello superiore.

Si divide in due pacchetti:

-

spark.mllib contiene l'API originale basata su RDD.

-

spark.ml fornisce API di livello superiore basate su DataFrames per la costruzione di pipeline ML.

Pubblico

Questo corso è rivolto a ingegneri e sviluppatori che desiderano utilizzare una libreria di macchine integrata per Apache Spark
Fine settimana Apache Spark corsi, Sera Spark training, Spark centro di addestramento, Spark con istruttore, Fine settimana Spark training, Sera Spark corsi, Apache Spark coaching, Spark istruttore, Apache Spark trainer, Spark corsi di formazione, Spark classi, Apache Spark in loco, Spark corsi privati, Apache Spark training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking to expand our presence in Italy!

As a Business Development Manager you will:

  • expand business in Italy
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!