Stream processing Training Courses

Stream processing Training Courses

I corsi di formazione di Stream Processing in diretta locale e istruttori dimostrano attraverso discussioni interattive e handson di pratica sui fondamenti e sugli argomenti avanzati di Stream Processing Il training di Stream Processing è disponibile come "allenamento dal vivo sul posto" o "allenamento dal vivo a distanza" La formazione on-site in loco può essere svolta localmente presso la sede del cliente in Italia o nei centri di formazione aziendale NobleProg in Italia La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo NobleProg Il tuo fornitore di formazione locale.

Machine Translated

Recensioni

★★★★★
★★★★★

Schema generale del corso Stream processing

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Apache Ignite è una piattaforma di elaborazione in memoria che si trova tra l'applicazione e il livello dati per migliorare la velocità, la scalabilità e la disponibilità.

in questa formazione live, guidata da istruttori, i partecipanti impareranno i principi che stanno dietro allo storage persistente e puro in memoria mentre attraversano la creazione di un progetto di calcolo in memoria di esempio.

entro la fine di questa formazione, i partecipanti saranno in grado di:

- use Ignite per la persistenza in memoria, su disco e un database in memoria puramente distribuito.
- ottenere la persistenza senza sincronizzare i dati di nuovo in un database relazionale.
- USA Ignite per eseguire SQL e join distribuiti.
- migliorare le prestazioni spostando i dati più vicino alla CPU, utilizzando RAM come storage.
set di dati - spread in un cluster per ottenere scalabilità orizzontale.
- integra Ignite con RDBMS, NoSQL, Hadoop e processori di machine learning.

formato del corso

- conferenza interattiva e discussione.
- un sacco di esercizi e pratica.
- implementazione hands-on in un ambiente lab Live.

Opzioni di personalizzazione del corso

- per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
21 hours
Overview
Apache Apex è una piattaforma nativa YARN che unisce l'elaborazione di stream e batch. Elabora grandi quantità di dati in movimento in modo scalabile, performante, tollerante ai guasti, con stato, sicuro, distribuito e facilmente utilizzabile.

Questa formazione dal vivo con istruttore introduce l'architettura di elaborazione unificata di Apache Apex e guida i partecipanti alla creazione di un'applicazione distribuita utilizzando Apex su Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendere i concetti della pipeline di elaborazione dei dati come connettori per sorgenti e pozzi, trasformazioni di dati comuni, ecc.
- Costruisci, ridimensiona e ottimizza un'applicazione Apex
- Elaborazione di flussi di dati in tempo reale in modo affidabile e con una latenza minima
- Utilizzare Apex Core e la libreria Apex Malhar per consentire un rapido sviluppo delle applicazioni
- Utilizzare l'API Apex per scrivere e riutilizzare il codice Java esistente
- Integra Apex in altre applicazioni come motore di elaborazione
- Ottimizza, testa e ridimensiona le applicazioni Apex

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Apache Beam è un modello di programmazione unificata open source per la definizione e l'esecuzione di pipeline di elaborazione dati parallele Il suo potere risiede nella sua capacità di eseguire pipeline sia in batch che in streaming, con l'esecuzione eseguita da uno dei backend di elaborazione distribuiti supportati da Beam: Apache Apex, Apache Flink, Apache Spark e Google Cloud Dataflow Apache Beam è utile per le attività ETL (Estrai, Trasforma e Carica) come lo spostamento di dati tra diversi supporti di memorizzazione e origini dati, la trasformazione dei dati in un formato più desiderabile e il caricamento dei dati su un nuovo sistema In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come implementare gli SDK Apache Beam in un'applicazione Java o Python che definisce una pipeline di elaborazione dati per la decomposizione di un big data set in blocchi più piccoli per l'elaborazione parallela indipendente Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Apache Beam Utilizzare un singolo modello di programmazione per eseguire sia l'elaborazione batch che quella stream dall'applicazione Java o Python Esegui pipeline su più ambienti Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Nota Questo corso sarà disponibile in futuro Vi preghiamo di contattarci per organizzare .
14 hours
Overview
questo istruttore, Live Training (on-site o remote) è rivolto a ingegneri che desiderano utilizzare Confluent (una distribuzione di Kafka) per costruire e gestire una piattaforma di elaborazione dati in tempo reale per le loro applicazioni.

entro la fine di questa formazione, i partecipanti saranno in grado di:

- installare e configurare la piattaforma Confluent.
- utilizzare gli strumenti di gestione confluenti & #39; s e servizi per eseguire Kafka più facilmente.
- Archivia ed elabora i dati del flusso in ingresso.
- ottimizza e Gestisci i cluster Kafka.
- flussi di dati protetti.

formato del corso

- conferenza interattiva e discussione.
- un sacco di esercizi e di pratica.
implementazione hands-on - in un ambiente Live-Lab.

corso opzioni di personalizzazione

- questo corso si basa sulla versione open source di Confluent: Confluent open source.
- per richiedere un addestramento su misura per questo corso, seli metta in contatto con prego per organizzare.
28 hours
Overview
Apache Flink è un framework open source per il flusso scalabile e l'elaborazione dei dati batch.

questa formazione live guidata da istruttori introduce i principi e gli approcci dietro il flusso distribuito e l'elaborazione dei dati in batch e guida i partecipanti attraverso la creazione di un'applicazione di streaming dati in tempo reale in Apache Flink.

entro la fine di questa formazione, i partecipanti saranno in grado di:

- impostare un ambiente per lo sviluppo di applicazioni di analisi dei dati.
- pacchetto, eseguire e monitorare le applicazioni di streaming dati basate su Flink, fault-tolerant.
- gestire diversi carichi di workload.
- eseguire analisi avanzate utilizzando Flink ML.
- impostare un cluster Flink multi-nodo.
- misurare e ottimizzare le prestazioni.
- integra Flink con diversi sistemi Big Data.
- Confronta le funzionalità di Flink con quelle di altri Framework di elaborazione dei Big Data.

formato del corso

- part lezione, parte di discussione, esercitazioni e pratiche pratica pesante
21 hours
Overview
Stream Processing riferisce all'elaborazione in tempo reale di "dati in movimento", ovvero l'esecuzione di calcoli sui dati man mano che vengono ricevuti. Tali dati vengono letti come flussi continui da fonti di dati quali eventi dei sensori, attività dell'utente del sito Web, operazioni finanziarie, passaggi di carte di credito, flussi di clic, ecc. I framework di Stream Processing flussi sono in grado di leggere grandi volumi di dati in entrata e fornire informazioni preziose quasi istantaneamente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come impostare e integrare diversi framework di Stream Processing con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura diversi framework di Stream Processing flussi, come Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e in modo record per record.
- Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
- Integra la libreria di elaborazione del flusso più appropriata con applicazioni e microservizi aziendali.

Pubblico

- Sviluppatori
- Architetti del software

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Gli appunti

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
Kafka Streams è una libreria lato client per la creazione di applicazioni e microservizi i cui dati vengono trasmessi da e verso un sistema di messaggistica Kafka. Tradizionalmente, Apache Kafka ha fatto affidamento su Apache Spark o Apache Storm per elaborare i dati tra produttori di messaggi e consumatori. Chiamando l'API Kafka Streams dall'interno di un'applicazione, i dati possono essere elaborati direttamente all'interno di Kafka, evitando la necessità di inviare i dati a un cluster separato per l'elaborazione.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come integrare Kafka Streams in una serie di applicazioni Java di esempio che trasmettono dati da e verso Apache Kafka per l'elaborazione in streaming.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi le funzionalità e i vantaggi di Kafka Streams rispetto ad altri framework di elaborazione dei flussi
- Elaborare i dati del flusso direttamente all'interno di un cluster Kafka
- Scrivi un'applicazione o un microservizio Java o Scala che si integri con Kafka e Kafka Streams
- Scrivi un codice conciso che trasforma gli argomenti di Kafka di input in argomenti di Kafka di output
- Compilare, impacchettare e distribuire l'applicazione

Pubblico

- Sviluppatori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Gli appunti

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare
7 hours
Overview
Confluent KSQL is a stream processing framework built on top of Apache Kafka. It enables real-time data processing using SQL operations.

This instructor-led, live training (onsite or remote) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.

By the end of this training, participants will be able to:

- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
7 hours
Overview
In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno i concetti chiave dietro MapR Stream Architecture mentre sviluppano un'applicazione di streaming in tempo reale.

Entro la fine di questa formazione, i partecipanti saranno in grado di creare applicazioni per produttori e consumatori per l'elaborazione dei dati di flusso in tempo reale.

Pubblico

- Sviluppatori
- Amministratori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come distribuire e gestire Apache NiFi in un ambiente di laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Apachi NiFi.
- Fonte, trasformazione e gestione dei dati da fonti di dati disparate e distribuite, inclusi database e Big Data Lakes.
- Automatizza i flussi di dati.
- Abilita analisi di streaming.
- Applicare vari approcci per l'immissione dei dati.
- Trasforma i Big Data e le informazioni aziendali.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni demo, componenti e processori utilizzando Apache NiFi .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi i concetti di architettura e flusso di dati di NiFi.
- Sviluppa estensioni utilizzando NiFi e API di terze parti.
- Personalizza lo sviluppo del proprio processore Apache Nifi.
- Importa ed elabora dati in tempo reale da formati di file e fonti di dati disparati e non comuni.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Apache Samza è un framework computazionale asincrono quasi in tempo reale open source per l'elaborazione dei flussi. Utilizza Apache Kafka per la messaggistica e Apache Hadoop YARN per la tolleranza agli errori, l'isolamento del processore, la sicurezza e la gestione delle risorse.

Questa formazione dal vivo con istruttore introduce i principi alla base dei sistemi di messaggistica e dell'elaborazione del flusso distribuito, mentre accompagna i partecipanti attraverso la creazione di un progetto di esempio basato su Samza e l'esecuzione del lavoro.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Usa Samza per semplificare il codice necessario per produrre e consumare messaggi.
- Disaccoppiare la gestione dei messaggi da un'applicazione.
- Usa Samza per implementare il calcolo asincrono quasi in tempo reale.
- Utilizzare l'elaborazione del flusso per fornire un livello superiore di astrazione sui sistemi di messaggistica.

Pubblico

- Sviluppatori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
28 hours
Overview
Apache Storm è un motore di calcolo distribuito in tempo reale utilizzato per abilitare la business intelligence in tempo reale Lo fa consentendo alle applicazioni di elaborare in modo affidabile flussi di dati illimitati (ovvero l'elaborazione del flusso) "Storm è in grado di elaborare in tempo reale ciò che Hadoop è per l'elaborazione in batch!" In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come installare e configurare Apache Storm, quindi sviluppare e distribuire un'applicazione Apache Storm per l'elaborazione di big data in tempo reale Alcuni degli argomenti inclusi in questa formazione includono: Apache Storm nel contesto di Hadoop Lavorare con dati illimitati Calcolo continuo Analisi in tempo reale Elaborazione RPC distribuita e ETL Richiedi questo corso ora! Pubblico Sviluppatori di software e ETL Professionisti di mainframe Scienziati di dati Grandi analisti di dati Professionisti Hadoop Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
Fine settimana Stream processing corsi, Sera Stream processing training, Stream processing centro di addestramento, Stream processing con istruttore, Fine settimana Stream processing training, Sera Stream processing corsi, Stream processing coaching, Stream processing istruttore, Stream processing trainer, Stream processing corsi di formazione, Stream processing classi, Stream processing in loco, Stream processing corsi privati, Stream processing training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking to expand our presence in Italy!

As a Business Development Manager you will:

  • expand business in Italy
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!