
I corsi di formazione Apache Spark in diretta locale e istruiti dimostrano attraverso le esercitazioni pratiche come Spark si inserisce nell´ecosistema dei Big Data e come utilizzare Spark per l´analisi dei dati. La formazione di Apache Spark è disponibile come formazione dal vivo in loco o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione aziendale NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, il tuo fornitore di formazione locale.
Recensioni
Richard è molto calmo e metodico, con una visione analitica - esattamente le qualità necessarie per presentare questo tipo di corso.
Kieran Mac Kenna
Corso: Spark for Developers
Machine Translated
condividere lo schema del concetto e anche il campione per le mani sporche
Mark Yang - FMR
Corso: Spark for Developers
Machine Translated
Scenari e casi applicabili
zhaopeng liu - Fmr
Corso: Spark for Developers
Machine Translated
Analisi del caso
国栋 张
Corso: Spark for Developers
Machine Translated
tutte le parti di questa sessione
Eric Han - Fmr
Corso: Spark for Developers
Machine Translated
Sappiamo molto di più sull'intero ambiente.
John Kidd
Corso: Spark for Developers
Machine Translated
L'allenatore ha reso la classe interessante e divertente che aiuta un po 'con l'allenamento di tutti i giorni.
Ryan Speelman
Corso: Spark for Developers
Machine Translated
Penso che l'allenatore avesse uno stile eccellente nel combinare umorismo e storie di vita reale per rendere gli argomenti a portata di mano molto avvicinabili. Consiglio vivamente questo professore in futuro.
Corso: Spark for Developers
Machine Translated
Ernesto ha fatto un ottimo lavoro spiegando i concetti di alto livello dell'uso di Spark e dei suoi vari moduli.
Michael Nemerouf
Corso: Spark for Developers
Machine Translated
Questo è uno dei migliori corsi pratici di programmazione che abbia mai seguito.
Laura Kahn
Corso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Questo è uno dei migliori corsi di formazione online che abbia mai seguito nella mia carriera di 13 anni. Continuate così!.
Corso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Richard era molto disposto a divagare quando volevamo porre domande semi-correlate su cose che non erano nel programma. Le spiegazioni erano chiare e lui era in anticipo sui caveat in ogni consiglio che ci ha dato ..
ARM Limited
Corso: Spark for Developers
Machine Translated
La macchina virtuale mi è piaciuto molto Il Maestro era molto ben informato per quanto riguarda l'argomento, così come altri argomenti, era molto bello e cordiale Mi è piaciuta la struttura a Dubai.
Safar Alqahtani - Elm Information Security
Corso: Big Data Analytics in Health
Machine Translated
compiti di pratica
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Corso: Python and Spark for Big Data (PySpark)
Machine Translated
Ajay è stato molto gentile, disponibile e anche ben informato sull'argomento di cui stava discutendo.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Corso: Spark for Developers
Machine Translated
Gli esercizi di laboratorio. Applicando la teoria dal primo giorno nei giorni successivi.
Dell
Corso: A Practical Introduction to Stream Processing
Machine Translated
L'insegnante ha adattato il programma di formazione alle nostre attuali esigenze.
EduBroker Sp. z o.o.
Corso: Python and Spark for Big Data (PySpark)
Machine Translated
Fare esercizi simili in modi diversi aiuta davvero a capire cosa può fare ogni componente ( Hadoop / Spark, standalone / cluster) da solo e insieme. Mi ha dato idee su come dovrei testare la mia applicazione sul mio computer locale quando sviluppo vs quando è distribuito su un cluster.
Thomas Carcaud - IT Frankfurt GmbH
Corso: Spark for Developers
Machine Translated
l'attenzione individuale.
ARCHANA ANILKUMAR - PPL
Corso: Python and Spark for Big Data (PySpark)
Machine Translated
Per saperne di più SPARK Streaming, Dabrbricks e AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Corso: Apache Spark in the Cloud
Machine Translated
Il contenuto e la conoscenza.
Jobstreet.com Shared Services Sdn. Bhd.
Corso: Apache Spark in the Cloud
Machine Translated
Era molto informativo. Ho avuto molta esperienza con la scintilla prima e finora questo corso ha fornito una buona introduzione al soggetto.
Intelligent Medical Objects
Corso: Apache Spark in the Cloud
Machine Translated
È stato bello capire cosa sta succedendo sotto il cofano di Spark. Sapere cosa sta succedendo sotto il cofano aiuta a capire meglio perché il codice è o non sta facendo quello che ci si aspetta che faccia. Un sacco di formazione era mani su cui è sempre grande e la sezione sulle ottimizzazioni era eccezionalmente rilevante per il mio lavoro attuale che era bello.
Intelligent Medical Objects
Corso: Apache Spark in the Cloud
Machine Translated
Questa è una grande classe! Mi apprezzano molto che Andras spiega molto chiaramente quale sia la scintilla, dove è venuto da e per problemi che è in grado di risolvere. Molto meglio di altre introduzione che ho visto che solo tuffarsi in come usarlo. Andras ha una profonda conoscenza dell'argomento e spiega le cose molto bene.
Intelligent Medical Objects
Corso: Apache Spark in the Cloud
Machine Translated
Gli esempi vivi che sono stati dati e mostravano gli aspetti fondamentali della scintilla.
Intelligent Medical Objects
Corso: Apache Spark in the Cloud
Machine Translated
1 . Equilibrio giusto tra concetti di alto livello e dettagli tecnici. 2. Andras è molto informato sul suo insegnamento. 3. Esercizio
Steven Wu - Intelligent Medical Objects
Corso: Apache Spark in the Cloud
Machine Translated
Avere le mani sulla sessione / assegnazioni
Poornima Chenthamarakshan - Intelligent Medical Objects
Corso: Apache Spark in the Cloud
Machine Translated
Trainer si è regolato la formazione leggermente basata sulla richiesta di pubblico, quindi gettano una luce su alcuni argomenti differiti che abbiamo richiesto
Intelligent Medical Objects
Corso: Apache Spark in the Cloud
Machine Translated
Il suo ritmo, era fantastico. Mi è piaciuto molto il fatto che sia andato in teoria in modo che capisco perché farebbe le cose che chiede.
Intelligent Medical Objects
Corso: Apache Spark in the Cloud
Machine Translated
Penso che l'allenatore avesse uno stile eccellente nel combinare umorismo e storie di vita reale per rendere gli argomenti a portata di mano molto avvicinabili. Consiglio vivamente questo professore in futuro.
Corso: Spark for Developers
Machine Translated
Questo è uno dei migliori corsi di formazione online che abbia mai seguito nella mia carriera di 13 anni. Continuate così!.
Corso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Sottocategorie Spark
Schema generale del corso Apache Spark
Questo allenamento diretto da istruttori (online o on-site) è rivolto a sviluppatori che vogliono utilizzare e integrare Spark, Hadoop, e Python per elaborare, analizzare e trasformare grandi e complessi set di dati.
Al termine di questo corso, i partecipanti saranno in grado di:
Crea l'ambiente necessario per iniziare il trattamento dei big data con Spark, Hadoop, e Python. Comprendere le caratteristiche, i componenti chiave e l'architettura di Spark e Hadoop. Scopri come integrare Spark, Hadoop, e Python per il trattamento dei big data. Esplora gli strumenti nell'ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, e Flume). Costruisci sistemi di raccomandazione di filtrazione collaborativa simili a Netflix, YouTube, Amazon, Spotify e Google. Apache Mahout per scalare gli algoritmi di apprendimento automatico.
Il formato del corso
Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
By the end of this training, participants will be able to:
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
Questo corso introdurrà Apache Spark . Gli studenti impareranno come Spark si inserisce nell'ecosistema Big Data e come utilizzare Spark per l'analisi dei dati. Il corso copre la shell Spark per l'analisi interattiva dei dati, gli interni Spark, le API Spark, Spark SQL , lo streaming Spark e l'apprendimento automatico e graphX.
PUBBLICO:
Sviluppatori / Analisti di dati
Questa formazione dal vivo con istruttore (in loco o remoto) introduce la Hortonworks Data Platform (HDP) e guida i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop .
Al termine di questa formazione, i partecipanti saranno in grado di:
- Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala.
- Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark.
- Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti in un progetto Spark.
- Elaborazione di diversi tipi di dati, inclusi strutturati, non strutturati, in movimento e a riposo.
Formato del corso
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
Questo istruttore guidato, allenamento dal vivo introduce i concetti e gli approcci per l'attuazione di analisi geospaziale e viaggia i partecipanti attraverso la creazione di un'applicazione di analisi preditiva utilizzando Magellan su Spark.
Al termine di questo corso, i partecipanti saranno in grado di:
Effettivamente chiedere, condividere e unire i set di dati geospaziali su scala Implementazione dei dati geospaziali nell'intelligenza aziendale e nelle applicazioni di analisi preditiva Utilizzare il contesto spaziale per estendere le capacità di dispositivi mobili, sensori, log e portatili
Il formato del corso
Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
In questo allenamento guidato da istruttori, i partecipanti impareranno come utilizzare Alluxio per collegare diversi framework di calcolo con i sistemi di archiviazione e gestire efficacemente i dati di scala multi-petabyte mentre passano attraverso la creazione di un'applicazione con Alluxio.
Al termine di questo corso, i partecipanti saranno in grado di:
Sviluppare un'applicazione con Alluxio Connettere i sistemi di big data e le applicazioni mantenendo uno spazio di nome Estratto efficiente di valore da grandi dati in qualsiasi formato di archiviazione Migliorare le prestazioni del lavoro Sviluppare e gestire Alluxio indipendente o clusterato
Il pubblico
Scienziato dei dati Sviluppatore amministratore del sistema
Il formato del corso
Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
- per eseguire query SQL .
- leggere i dati da un'installazione Hive esistente.
In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come analizzare vari tipi di set di dati utilizzando Spark SQL .
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura Spark SQL .
- Eseguire l'analisi dei dati utilizzando Spark SQL .
- Interroga set di dati in diversi formati.
- Visualizza i dati e i risultati delle query.
Formato del corso
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come impostare e integrare diversi framework di Stream Processing con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura diversi framework di Stream Processing flussi, come Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e in modo record per record.
- Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
- Integra la libreria di elaborazione del flusso più appropriata con applicazioni e microservizi aziendali.
Pubblico
- Sviluppatori
- Architetti del software
Formato del corso
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
Gli appunti
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
L'industria sanitaria ha enormi quantità di dati medici e clinici eterogenei complessi. L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel ricavare approfondimenti per migliorare l'erogazione dell'assistenza sanitaria. Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e applicazioni pratiche in un ambiente clinico.
In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercitazioni pratiche in laboratorio dal vivo.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark
- Comprendi le caratteristiche dei dati medici
- Applicare tecniche di big data per gestire i dati medici
- Studiare sistemi e algoritmi per big data nel contesto di applicazioni sanitarie
Pubblico
- Sviluppatori
- Scienziati dei dati
Formato del corso
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche.
Nota
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
PUBBLICO:
Data Engineer, DevOps , Data Scientist
Questa formazione dal vivo con istruttore (in loco o remoto) è rivolta agli ingegneri del software che desiderano trasmettere grandi quantità di dati con Spark Streaming e Scala .
Al termine di questa formazione, i partecipanti saranno in grado di:
- Crea applicazioni Spark con il linguaggio di programmazione Scala .
- Utilizzare Spark Streaming per elaborare flussi continui di dati.
- Elaborazione di flussi di dati in tempo reale con Spark Streaming.
Formato del corso
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
Questo allenamento diretto da istruttori, in diretta (online o on-site) è rivolto a scienziati dei dati che vogliono utilizzare la stack SMACK per costruire piattaforme di elaborazione dei dati per soluzioni di big data.
Al termine di questo corso, i partecipanti saranno in grado di:
Implementazione di un'architettura del pipeline dei dati per il trattamento dei big data. Sviluppare un'infrastruttura di cluster con Apache Mesos e Docker. Analisi dei dati con Spark e Scala. Gestire i dati non strutturati con Apache Cassandra.
Il formato del corso
Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
Questo istruttore guidato, la formazione in diretta (online o on-site) è rivolto agli ingegneri che vogliono implementare Apache Spark sistema per il trattamento di grandi quantità di dati.
Al termine di questo corso, i partecipanti saranno in grado di:
Installazione e configurazione Apache Spark. Conoscere la differenza tra Apache Spark e Hadoop MapReduce e quando utilizzare quale. Leggere rapidamente in e analizzare i set di dati molto grandi. Integrare Apache Spark con altri strumenti di apprendimento automatico.
Il formato del corso
Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
Questo allenamento diretto da istruttori, in diretta (online o on-site) è rivolto a sviluppatori che desiderano eseguire un’analisi dei big data utilizzando Apache Spark nelle loro applicazioni.NET.
Al termine di questo corso, i partecipanti saranno in grado di:
Installazione e configurazione Apache Spark. Comprendere come.NET implementa le API Spark in modo che possano essere accessibili da un'applicazione.NET. Sviluppare applicazioni di elaborazione dei dati utilizzando C# o F#, in grado di elaborare set di dati la cui dimensione è misurata in terabyte e pedabyte. Sviluppare funzionalità di apprendimento automatico per un'applicazione.NET utilizzando le capacità Apache Spark. Eseguire analisi esplorative utilizzando SQL domande su big data sets.
Il formato del corso
Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
Questo istruttore guidato, la formazione in diretta (online o on-site) è rivolto agli amministratori del sistema che vogliono imparare come configurare, implementare e gestire Hadoop cluster all'interno della loro organizzazione.
Al termine di questo corso, i partecipanti saranno in grado di:
Installare e configurare Apache Hadoop. Comprendere i quattro componenti principali dell'ecosistema Hadoop: HDFS, MapReduce, YARN e Hadoop Common. Utilizzare Hadoop Distribuito File System (HDFS) per scalare un cluster a centinaia o migliaia di nodi. di Imposta HDFS per funzionare come motore di archiviazione per i depositi Spark on-premise. Imposta Spark per accedere a soluzioni di archiviazione alternative come Amazon S3 e NoSQL sistemi di database come Redis, Elasticsearch, Couchbase, Aerospike, ecc. Eseguire compiti amministrativi come la fornitura, la gestione, il monitoraggio e la sicurezza di un cluster Apache.
Il formato del corso
Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
By the end of this training, participants will be able to:
- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
Si divide in due pacchetti:
-
spark.mllib contiene l'API originale basata su RDD.
-
spark.ml fornisce API di livello superiore basate su DataFrames per la costruzione di pipeline ML.
Pubblico
Questo corso è rivolto a ingegneri e sviluppatori che desiderano utilizzare una libreria di macchine integrata per Apache Spark
In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno le offerte tecnologiche e gli approcci di implementazione per l'elaborazione dei dati dei grafici. L'obiettivo è identificare gli oggetti del mondo reale, le loro caratteristiche e relazioni, quindi modellarli e elaborarli come dati usando un approccio di Graph Computing (noto anche come Graph Analytics). Iniziamo con un'ampia panoramica e approfondiamo strumenti specifici mentre passiamo attraverso una serie di case study, esercitazioni pratiche e distribuzioni dal vivo.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Comprendi come i dati del grafico sono persistenti e attraversati.
- Seleziona il framework migliore per una determinata attività (dai database dei grafici ai framework di elaborazione batch).
- Implementa Hadoop , Spark, GraphX e Pregel per eseguire il calcolo grafico su molte macchine in parallelo.
- Visualizza i problemi dei big data nel mondo reale in termini di grafici, processi e attraversamenti.
Formato del corso
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
Last Updated: