Apache Spark Training Courses

Apache Spark Training Courses

I corsi di formazione Apache Spark in diretta locale e istruiti dimostrano attraverso le esercitazioni pratiche come Spark si inserisce nell´ecosistema dei Big Data e come utilizzare Spark per l´analisi dei dati. La formazione di Apache Spark è disponibile come formazione dal vivo in loco o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione aziendale NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, il tuo fornitore di formazione locale.

Recensioni

★★★★★
★★★★★

Sottocategorie Spark

Schema generale del corso Apache Spark

Nome del corso
Durata
Overview
Nome del corso
Durata
Overview
21 hours
Overview
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
7 hours
Overview
Alluxio è un sistema di archiviazione distribuito virtuale open source che unifica diversi sistemi di archiviazione e consente alle applicazioni di interagire con i dati alla velocità della memoria. È utilizzato da aziende come Intel, Baidu e Alibaba.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Alluxio per collegare diversi framework di calcolo con sistemi di archiviazione e gestire in modo efficiente dati su scala multi-petabyte mentre passano attraverso la creazione di un'applicazione con Alluxio .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Sviluppa un'applicazione con Alluxio
- Connetti sistemi e applicazioni per big data preservando uno spazio dei nomi
- Estrai in modo efficiente il valore dai big data in qualsiasi formato di archiviazione
- Migliora le prestazioni del carico di lavoro
- Distribuire e gestire Alluxio autonomo o in cluster

Pubblico

- Data scientist
- Sviluppatore
- Amministratore di sistema

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Overview
L'analisi dei big data prevede il processo di esame di grandi quantità di set di dati diversi al fine di scoprire correlazioni, schemi nascosti e altre informazioni utili.

L'industria sanitaria ha enormi quantità di dati medici e clinici eterogenei complessi. L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel ricavare approfondimenti per migliorare l'erogazione dell'assistenza sanitaria. Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e applicazioni pratiche in un ambiente clinico.

In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercitazioni pratiche in laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark
- Comprendi le caratteristiche dei dati medici
- Applicare tecniche di big data per gestire i dati medici
- Studiare sistemi e algoritmi per big data nel contesto di applicazioni sanitarie

Pubblico

- Sviluppatori
- Scienziati dei dati

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche.

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
28 hours
Overview
Molti problemi del mondo reale possono essere descritti in termini di grafici. Ad esempio, il grafico Web, il grafico della rete sociale, il grafico della rete del treno e il grafico della lingua. Questi grafici tendono ad essere estremamente grandi; la loro elaborazione richiede una serie specializzata di strumenti e processi: questi strumenti e processi possono essere definiti Graph Computing (noto anche come Graph Analytics).

In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno le offerte tecnologiche e gli approcci di implementazione per l'elaborazione dei dati dei grafici. L'obiettivo è identificare gli oggetti del mondo reale, le loro caratteristiche e relazioni, quindi modellarli e elaborarli come dati usando un approccio di Graph Computing (noto anche come Graph Analytics). Iniziamo con un'ampia panoramica e approfondiamo strumenti specifici mentre passiamo attraverso una serie di case study, esercitazioni pratiche e distribuzioni dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi come i dati del grafico sono persistenti e attraversati.
- Seleziona il framework migliore per una determinata attività (dai database dei grafici ai framework di elaborazione batch).
- Implementa Hadoop , Spark, GraphX e Pregel per eseguire il calcolo grafico su molte macchine in parallelo.
- Visualizza i problemi dei big data nel mondo reale in termini di grafici, processi e attraversamenti.

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Overview
Hortonworks Data Platform (HDP) è una piattaforma di supporto open source Apache Hadoop che fornisce una base stabile per lo sviluppo di soluzioni per big data sull'ecosistema Apache Hadoop .

Questa formazione dal vivo con istruttore (in loco o remoto) introduce la Hortonworks Data Platform (HDP) e guida i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala.
- Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark.
- Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti in un progetto Spark.
- Elaborazione di diversi tipi di dati, inclusi strutturati, non strutturati, in movimento e a riposo.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Stream Processing riferisce all'elaborazione in tempo reale di "dati in movimento", ovvero l'esecuzione di calcoli sui dati man mano che vengono ricevuti. Tali dati vengono letti come flussi continui da fonti di dati quali eventi dei sensori, attività dell'utente del sito Web, operazioni finanziarie, passaggi di carte di credito, flussi di clic, ecc. I framework di Stream Processing flussi sono in grado di leggere grandi volumi di dati in entrata e fornire informazioni preziose quasi istantaneamente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come impostare e integrare diversi framework di Stream Processing con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura diversi framework di Stream Processing flussi, come Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e in modo record per record.
- Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
- Integra la libreria di elaborazione del flusso più appropriata con applicazioni e microservizi aziendali.

Pubblico

- Sviluppatori
- Architetti del software

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Gli appunti

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Magellan è un motore di esecuzione distribuito open source per analisi geospaziali su big data. Implementato su Apache Spark , estende Spark SQL e fornisce un'astrazione relazionale per l'analisi geospaziale.

Questa formazione dal vivo con istruttore introduce i concetti e gli approcci per l'implementazione dell'analisi geospaziale e guida i partecipanti attraverso la creazione di un'applicazione di analisi predittiva utilizzando Magellan su Spark.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Eseguire query, analisi e unire in modo efficiente set di dati geospaziali su vasta scala
- Implementare i dati geospaziali nelle applicazioni di business intelligence e di analisi predittiva
- Utilizzare il contesto spaziale per estendere le capacità di dispositivi mobili, sensori, log e dispositivi indossabili

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Apache Spark is a distributed processing engine for analyzing very large data sets. It can process data in batches and real-time, as well as carry out machine learning, ad-hoc queries, and graph processing. .NET for Apache Spark is a free, open-source, and cross-platform big data analytics framework that supports applications written in C# or F#.

This instructor-led, live training (online or onsite) is aimed at developers who wish to carry out big data analysis using Apache Spark in their .NET applications.

By the end of this training, participants will be able to:

- Install and configure Apache Spark.
- Understand how .NET implements Spark APIs so that they can be accessed from a .NET application.
- Develop data processing applications using C# or F#, capable of handling data sets whose size is measured in terabytes and pedabytes.
- Develop machine learning features for a .NET application using Apache Spark capabilities.
- Carry out exploratory analysis using SQL queries on big data sets.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
14 hours
Overview
SMACK is a collection of data platform softwares, namely Apache Spark, Apache Mesos, Apache Akka, Apache Cassandra, and Apache Kafka. Using the SMACK stack, users can create and scale data processing platforms.

This instructor-led, live training (online or onsite) is aimed at data scientists who wish to use the SMACK stack to build data processing platforms for big data solutions.

By the end of this training, participants will be able to:

- Implement a data pipeline architecture for processing big data.
- Develop a cluster infrastructure with Apache Mesos and Docker.
- Analyze data with Spark and Scala.
- Manage unstructured data with Apache Cassandra.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
21 hours
Overview
Apache Spark is an analytics engine designed to distribute data across a cluster in order to process it in parallel. It contains modules for streaming, SQL, machine learning and graph processing.

This instructor-led, live training (online or onsite) is aimed at engineers who wish to deploy Apache Spark system for processing very large amounts of data.

By the end of this training, participants will be able to:

- Install and configure Apache Spark.
- Understand the difference between Apache Spark and Hadoop MapReduce and when to use which.
- Quickly read in and analyze very large data sets.
- Integrate Apache Spark with other machine learning tools.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
21 hours
Overview
La curva di apprendimento di Apache Spark sta lentamente aumentando all'inizio, ha bisogno di molti sforzi per ottenere il primo ritorno. Questo corso mira a saltare attraverso la prima parte difficile. Dopo aver seguito questo corso, i partecipanti comprenderanno le basi di Apache Spark , distingueranno chiaramente RDD da DataFrame, impareranno le API di Python e Scala , capiranno gli esecutori e le attività, ecc. Seguendo anche le migliori pratiche, questo corso si concentra fortemente su implementazione cloud, Databricks e AWS. Gli studenti capiranno anche le differenze tra AWS EMR e AWS Glue, uno degli ultimi servizi Spark di AWS.

PUBBLICO:

Data Engineer, DevOps , Data Scientist
21 hours
Overview
OBBIETTIVO:

Questo corso introdurrà Apache Spark . Gli studenti impareranno come Spark si inserisce nell'ecosistema Big Data e come utilizzare Spark per l'analisi dei dati. Il corso copre la shell Spark per l'analisi interattiva dei dati, gli interni Spark, le API Spark, Spark SQL , lo streaming Spark e l'apprendimento automatico e graphX.

PUBBLICO:

Sviluppatori / Analisti di dati
21 hours
Overview
Python è un linguaggio di programmazione di alto livello famoso per la sua sintassi chiara e la leggibilità del codice. Spark è un motore di elaborazione dei dati utilizzato per interrogare, analizzare e trasformare i big data. PySpark consente agli utenti di interfacciare Spark con Python .

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare Python e Spark insieme per analizzare i big data mentre lavorano su esercizi pratici.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Scopri come utilizzare Spark con Python per analizzare i Big Data .
- Lavora su esercizi che imitano le circostanze del mondo reale.
- Usa diversi strumenti e tecniche per l'analisi dei big data usando PySpark .

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Overview
Scala è una versione ridotta di Java per la programmazione funzionale e orientata agli oggetti su larga scala. Apache Spark Streaming è un componente esteso dell'API Spark per l'elaborazione di set di big data come flussi in tempo reale. Insieme, Spark Streaming e Scala consentono lo streaming di big data.

Questa formazione dal vivo con istruttore (in loco o remoto) è rivolta agli ingegneri del software che desiderano trasmettere grandi quantità di dati con Spark Streaming e Scala .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Crea applicazioni Spark con il linguaggio di programmazione Scala .
- Utilizzare Spark Streaming per elaborare flussi continui di dati.
- Elaborazione di flussi di dati in tempo reale con Spark Streaming.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
Spark SQL è il modulo di Apache Spark per lavorare con dati strutturati e non strutturati. Spark SQL fornisce informazioni sulla struttura dei dati e sul calcolo eseguito. Queste informazioni possono essere utilizzate per eseguire ottimizzazioni. Due usi comuni per Spark SQL sono:
- per eseguire query SQL .
- leggere i dati da un'installazione Hive esistente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come analizzare vari tipi di set di dati utilizzando Spark SQL .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Spark SQL .
- Eseguire l'analisi dei dati utilizzando Spark SQL .
- Interroga set di dati in diversi formati.
- Visualizza i dati e i risultati delle query.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
35 hours
Overview
MLlib è la libreria di machine learning (ML) di Spark. Il suo obiettivo è rendere l'apprendimento automatico pratico scalabile e facile. Comprende algoritmi e utilità di apprendimento comuni, tra cui classificazione, regressione, clustering, filtro collaborativo, riduzione della dimensionalità, nonché primitive di ottimizzazione di livello inferiore e API di pipeline di livello superiore.

Si divide in due pacchetti:

-

spark.mllib contiene l'API originale basata su RDD.

-

spark.ml fornisce API di livello superiore basate su DataFrames per la costruzione di pipeline ML.

Pubblico

Questo corso è rivolto a ingegneri e sviluppatori che desiderano utilizzare una libreria di macchine integrata per Apache Spark
Fine settimana Apache Spark corsi, Sera Spark training, Spark centro di addestramento, Spark con istruttore, Fine settimana Spark training, Sera Spark corsi, Apache Spark coaching, Spark istruttore, Apache Spark trainer, Spark corsi di formazione, Spark classi, Apache Spark in loco, Spark corsi privati, Apache Spark training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking for a good mixture of IT and soft skills in Italy!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions