Corso di formazione Stream Processing with Kafka Streams
Kafka Streams è una libreria lato client per la creazione di applicazioni e microservizi i cui dati vengono trasmessi da e verso un sistema di messaggistica Kafka. Tradizionalmente, Apache Kafka ha fatto affidamento su Apache Spark o Apache Storm per elaborare i dati tra produttori di messaggi e consumatori. Chiamando l'API Kafka Streams dall'interno di un'applicazione, i dati possono essere elaborati direttamente all'interno di Kafka, evitando la necessità di inviare i dati a un cluster separato per l'elaborazione.
In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come integrare Kafka Streams in una serie di applicazioni Java di esempio che trasmettono dati da e verso Apache Kafka per l'elaborazione in streaming.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Capire le caratteristiche e gli vantaggi di Kafka Streams rispetto ad altri framework di elaborazione di flussi
- Elaborare dati di flusso direttamente all'interno di un cluster Kafka
- Sviluppare un'applicazione o microservizio Java o Scala che si integra con Kafka e Kafka Streams
- Scrivere codice conciso che trasforma i topic di input Kafka in topic di output Kafka
- Compilare, pacchettizzare e distribuire l'applicazione
Pubblico
- Sviluppatori
Formato del corso
- Parte lezione, parte discussione, esercizi e pratica intensiva
Gli appunti
- Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare
Struttura del corso
Introduzione
- Kafka vs Spark, Flink, and Storm
Panoramica delle funzionalità di Kafka Streams
- Elaborazione a stato e senza stato, elaborazione basata sul tempo degli eventi, DSL, operazioni di finestra basate sul tempo degli eventi, ecc.
Caso di studio: API Kafka Streams per il budget predittivo
Impostazione dell'ambiente di sviluppo
Creazione di un'applicazione Streams
Avvio del cluster Kafka
Preparazione degli argomenti e dei dati di input
Opzioni per l'elaborazione dei dati del flusso
- High-level Kafka Streams DSL
- Lower-level Processor
Trasformazione dei dati di input
Ispezione dei dati di output
Arresto dell'ammasso di Kafka
Opzioni per la distribuzione dell'applicazione
- Strumenti tradizionali di gestione operativa (Puppet, Chef e Salt)
- Docker
- File WAR
Risoluzione dei problemi
Riassunto e conclusione
Requisiti
- Una comprensione di Apache Kafka
- esperienza di programmazione in Java
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Stream Processing with Kafka Streams - Booking
Corso di formazione Stream Processing with Kafka Streams - Enquiry
Stream Processing with Kafka Streams - Richiesta di consulenza
Richiesta di consulenza
Recensioni (1)
Recalling/reviewing keypoints of the topics discussed.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Corso - Building Stream Processing Applications with Kafka Streams
Corsi in Arrivo
Corsi relativi
Apache Kafka Connect
7 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto agli sviluppatori che desiderano integrarsi Apache Kafka con database e applicazioni esistenti per l'elaborazione, l'analisi, ecc.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Utilizzare Kafka Connect per inglobare grandi quantità di dati da un database nei topic di Kafka.
- Ingestire i dati di log generati dai server applicativi nei topic di Kafka.
- Make qualsiasi dato raccolto disponibile per il processing di flussi.
- Esportare dati dai topic di Kafka in sistemi secondari per lo storage e l'analisi.
Unified Batch and Stream Processing with Apache Beam
14 oreApache Beam è un modello di programmazione unificato open source per la definizione e l'esecuzione di pipeline di elaborazione dati parallele. La sua potenza risiede nella sua capacità di eseguire pipeline batch e di streaming, con l'esecuzione eseguita da uno dei back-end di elaborazione distribuita supportati da Beam: Apache Apex, Apache Flink, Apache Spark e Google Cloud Dataflow. Apache Beam è utile per le attività ETL (Extract, Transform, and Load) come lo spostamento di dati tra diversi supporti di archiviazione e origini dati, la trasformazione dei dati in un formato più desiderabile e il caricamento dei dati su un nuovo sistema.
In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come implementare gli SDK Apache Beam in un'applicazione Java o Python che definisce una pipeline di elaborazione dati per la scomposizione di un set di dati di grandi dimensioni in blocchi più piccoli per l'elaborazione parallela indipendente.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Installare e configurare Apache Beam.
- Utilizzare un unico modello di programmazione per eseguire sia l'elaborazione batch che quella in flusso dall'interno dell'applicazione Java o Python.
- Esegui pipeline in più ambienti.
Formato del corso
- In parte lezione, in parte discussione, esercizi e pratica pratica pesante
Nota
- Questo corso sarà disponibile Scala in futuro. Vi preghiamo di contattarci per organizzare.
Building Kafka Solutions with Confluent
14 orequesto istruttore, Live Training (on-site o remote) è rivolto a ingegneri che desiderano utilizzare Confluent (una distribuzione di Kafka) per costruire e gestire una piattaforma di elaborazione dati in tempo reale per le loro applicazioni.
entro la fine di questa formazione, i partecipanti saranno in grado di:
- Installare e configurare il Confluent Platform.
- Utilizzare gli strumenti e servizi di gestione di Confluent per eseguire Kafka in modo più semplice.
- Archiviare e processare i dati del flusso in arrivo.
- Ottimizzare e gestire i cluster Kafka.
- Sicurare i flussi di dati.
formato del corso
- Lettura interattiva e discussione.
- Molte esercitazioni e pratica.
- Possedere l'implementazione in un ambiente live-lab.
corso opzioni di personalizzazione
- Questo corso si basa sulla versione open source di Confluent: Confluent Open Source.
- Per richiedere una formazione personalizzata per questo corso, contattateci per organizzare.
Building Data Pipelines with Apache Kafka
7 oreApache Kafka è una piattaforma di streaming distribuita. È di fatto uno standard per la costruzione di pipeline di dati e risolve molti casi d'uso diversi relativi all'elaborazione dei dati: può essere utilizzato come coda di messaggi, registro distribuito, processore di flusso, ecc.
Inizieremo con una teoria alla base delle pipeline di dati in generale, quindi proseguiremo con concetti fondamentali alla base di Kafka. Scopriremo anche componenti importanti come Kafka Streams e Kafka Connect.
Apache Flink Fundamentals
28 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) introduce i principi e gli approcci alla base dell'elaborazione distribuita di flussi e batch di dati e guida i partecipanti attraverso la creazione di un'applicazione di streaming di dati in tempo reale in Apache Flink.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Configurare un ambiente per lo sviluppo di applicazioni di analisi dei dati.
- Scopri come funziona la libreria di elaborazione grafica (Gelly) di Apache Flink.
- Crea pacchetti, esegui e monitora applicazioni di streaming di dati basate su Flink e tolleranti ai guasti.
- Gestisci carichi di lavoro diversi.
- Esegui analisi avanzate.
- Configura un cluster Flink multi-nodo.
- Misura e ottimizza le prestazioni.
- Integra Flink con diversi sistemi Big Data.
- Confronta le funzionalità di Flink con quelle di altri framework di elaborazione dei big data.
A Practical Introduction to Stream Processing
21 oreIn questo corso di formazione dal vivo con istruttore in Italia (in loco o in remoto), i partecipanti impareranno come impostare e integrare diversi Stream Processing framework con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installare e configurare diversi framework Stream Processing, ad esempio Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e record per record.
- Integrare Stream Processing le soluzioni con database, data warehouse, data lake, ecc. esistenti.
- Integra la libreria di elaborazione dei flussi più appropriata con le applicazioni e i microservizi aziendali.
Distributed Messaging with Apache Kafka
14 oreQuesto corso è rivolto a architetti aziendali, sviluppatori, amministratori di sistema e chiunque desideri comprendere e utilizzare un sistema di messaggistica distribuito ad alto rendimento. Se hai requisiti più specifici (ad es. Solo lato amministrazione del sistema), questo corso può essere personalizzato per soddisfare al meglio le tue esigenze.
Kafka for Administrators
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto agli amministratori di sistema che desiderano configurare, distribuire, gestire e ottimizzare un cluster Kafka di livello aziendale.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Configurare e amministrare un cluster Kafka.
- Valuta i vantaggi e gli svantaggi dell'implementazione di Kafka on-premise rispetto al cloud.
- Distribuisci e monitora Kafka utilizzando vari strumenti on-premise e in ambiente cloud.
Apache Kafka for Python Programmers
7 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a ingegneri dei dati, data scientist e programmatori che desiderano utilizzare le funzionalità Apache Kafka nello streaming di dati con Python.
Al termine di questa formazione, i partecipanti saranno in grado di utilizzare Apache Kafka per monitorare e gestire le condizioni in flussi di dati continui utilizzando la programmazione Python.
Confluent KSQL
7 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto agli sviluppatori che desiderano implementare l'elaborazione di flussi Apache Kafka senza scrivere codice.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Installare e configurare Confluent KSQL.
- Impostare una pipeline di elaborazione del flusso utilizzando solo i comandi SQL (nessuna codifica Java o Python).
- Esegui il filtraggio dei dati, le trasformazioni, le aggregazioni, i join, il windowing e la sessionizzazione interamente in SQL.
- Progetta e distribuisci query interattive e continue per lo streaming ETL e l'analisi in tempo reale.
Apache NiFi for Administrators
21 oreIn questo corso di formazione dal vivo con istruttore in Italia (in loco o in remoto), i partecipanti impareranno come implementare e gestire Apache NiFi in un ambiente di laboratorio dal vivo.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Installa e configura Apachi NiFi.
- Acquisisci, trasforma e gestisci i dati da fonti di dati distribuite e disparate, tra cui database e big data lake.
- Automatizza i flussi di dati.
- Abilita l'analisi in streaming.
- Applicare vari approcci per l'inserimento dei dati.
- Trasforma Big Data e trasforma in insight aziendali.
Apache NiFi for Developers
7 oreIn questo corso di formazione dal vivo con istruttore in Italia, i partecipanti impareranno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni, componenti e processori demo utilizzando Apache NiFi.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Comprendi l'architettura e i concetti del flusso di dati di NiFi.
- Sviluppa estensioni utilizzando NiFi e API di terze parti.
- Sviluppare su misura il proprio processore Apache Nifi.
- Acquisisci ed elabora dati in tempo reale da formati di file e origini dati diversi e non comuni.
Spark Streaming with Python and Kafka
7 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a ingegneri dei dati, data scientist e programmatori che desiderano utilizzare Spark Streaming le funzionalità per l'elaborazione e l'analisi dei dati in tempo reale.
Al termine di questa formazione, i partecipanti saranno in grado di utilizzare Spark Streaming per elaborare flussi di dati in tempo reale da utilizzare in database, filesystem e dashboard in tempo reale.