Stream processing Training Courses

Stream processing Training Courses

I corsi di formazione di Stream Processing in diretta locale e istruttori dimostrano attraverso discussioni interattive e handson di pratica sui fondamenti e sugli argomenti avanzati di Stream Processing Il training di Stream Processing è disponibile come "allenamento dal vivo sul posto" o "allenamento dal vivo a distanza" La formazione on-site in loco può essere svolta localmente presso la sede del cliente in Italia o nei centri di formazione aziendale NobleProg in Italia La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo NobleProg Il tuo fornitore di formazione locale.

Machine Translated

Recensioni

★★★★★
★★★★★

Schema generale del corso Stream processing

Nome del corso
Durata
Overview
Nome del corso
Durata
Overview
14 hours
Apache Samza è un framework computazionale asincrono quasi in tempo reale open source per l'elaborazione dei flussi. Utilizza Apache Kafka per la messaggistica e Apache Hadoop YARN per la tolleranza agli errori, l'isolamento del processore, la sicurezza e la gestione delle risorse. Questa formazione dal vivo con istruttore introduce i principi alla base dei sistemi di messaggistica e dell'elaborazione del flusso distribuito, mentre accompagna i partecipanti attraverso la creazione di un progetto di esempio basato su Samza e l'esecuzione del lavoro. Al termine di questa formazione, i partecipanti saranno in grado di:
  • Usa Samza per semplificare il codice necessario per produrre e consumare messaggi.
  • Disaccoppiare la gestione dei messaggi da un'applicazione.
  • Usa Samza per implementare il calcolo asincrono quasi in tempo reale.
  • Utilizzare l'elaborazione del flusso per fornire un livello superiore di astrazione sui sistemi di messaggistica.
Pubblico
  • Sviluppatori
Formato del corso
  • Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
14 hours
Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
7 hours
In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno i concetti chiave dietro MapR Stream Architecture mentre sviluppano un'applicazione di streaming in tempo reale. Entro la fine di questa formazione, i partecipanti saranno in grado di creare applicazioni per produttori e consumatori per l'elaborazione dei dati di flusso in tempo reale. Pubblico
  • Sviluppatori
  • Amministratori
Formato del corso
  • Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
Nota
  • Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Kafka Streams è una libreria lato client per la creazione di applicazioni e microservizi i cui dati vengono trasmessi da e verso un sistema di messaggistica Kafka. Tradizionalmente, Apache Kafka ha fatto affidamento su Apache Spark o Apache Storm per elaborare i dati tra produttori di messaggi e consumatori. Chiamando l'API Kafka Streams dall'interno di un'applicazione, i dati possono essere elaborati direttamente all'interno di Kafka, evitando la necessità di inviare i dati a un cluster separato per l'elaborazione. In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come integrare Kafka Streams in una serie di applicazioni Java di esempio che trasmettono dati da e verso Apache Kafka per l'elaborazione in streaming. Al termine di questa formazione, i partecipanti saranno in grado di:
  • Comprendi le funzionalità e i vantaggi di Kafka Streams rispetto ad altri framework di elaborazione dei flussi
  • Elaborare i dati del flusso direttamente all'interno di un cluster Kafka
  • Scrivi un'applicazione o un microservizio Java o Scala che si integri con Kafka e Kafka Streams
  • Scrivi un codice conciso che trasforma gli argomenti di Kafka di input in argomenti di Kafka di output
  • Compilare, impacchettare e distribuire l'applicazione
Pubblico
  • Sviluppatori
Formato del corso
  • Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
Gli appunti
  • Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare
21 hours
Stream Processing riferisce all'elaborazione in tempo reale di "dati in movimento", ovvero l'esecuzione di calcoli sui dati man mano che vengono ricevuti. Tali dati vengono letti come flussi continui da fonti di dati quali eventi dei sensori, attività dell'utente del sito Web, operazioni finanziarie, passaggi di carte di credito, flussi di clic, ecc. I framework di Stream Processing flussi sono in grado di leggere grandi volumi di dati in entrata e fornire informazioni preziose quasi istantaneamente. In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come impostare e integrare diversi framework di Stream Processing con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi. Al termine di questa formazione, i partecipanti saranno in grado di:
  • Installa e configura diversi framework di Stream Processing flussi, come Spark Streaming e Kafka Streaming.
  • Comprendere e selezionare il framework più appropriato per il lavoro.
  • Elaborazione dei dati in modo continuo, simultaneo e in modo record per record.
  • Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
  • Integra la libreria di elaborazione del flusso più appropriata con applicazioni e microservizi aziendali.
Pubblico
  • Sviluppatori
  • Architetti del software
Formato del corso
  • Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
Gli appunti
  • Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
questo istruttore, Live Training (on-site o remote) è rivolto a ingegneri che desiderano utilizzare Confluent (una distribuzione di Kafka) per costruire e gestire una piattaforma di elaborazione dati in tempo reale per le loro applicazioni. entro la fine di questa formazione, i partecipanti saranno in grado di:
  • installare e configurare la piattaforma Confluent.
  • utilizzare gli strumenti di gestione confluenti & #39; s e servizi per eseguire Kafka più facilmente.
  • Archivia ed elabora i dati del flusso in ingresso.
  • ottimizza e Gestisci i cluster Kafka.
  • flussi di dati protetti.
formato del corso
  • conferenza interattiva e discussione.
  • un sacco di esercizi e di pratica.
  • implementazione hands-on
  • in un ambiente Live-Lab.
corso opzioni di personalizzazione
  • questo corso si basa sulla versione open source di Confluent: Confluent open source.
  • per richiedere un addestramento su misura per questo corso, seli metta in contatto con prego per organizzare.
7 hours
Apache Kafka è una piattaforma di elaborazione del flusso open source che fornisce una piattaforma veloce, affidabile e a bassa latenza per gestire l'analisi dei dati in tempo reale. Apache Kafka può essere integrato con le lingue di programmazione disponibili come Python. Questo istruttore guidato, la formazione in diretta (online o on-site) è rivolto agli ingegneri di dati, scienziati di dati e programmatori che vogliono utilizzare Apache Kafka caratteristiche in data streaming con Python. Al termine di questa formazione, i partecipanti saranno in grado di utilizzare Apache Kafka per monitorare e gestire le condizioni in continuo flusso di dati utilizzando Python programmazione. Il formato del corso
    Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
    Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
28 hours
This instructor-led, live training in Italia introduces the principles and approaches behind distributed stream and batch data processing, and walks participants through the creation of a real-time, data streaming application in Apache Flink.
21 hours
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale. In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come distribuire e gestire Apache NiFi in un ambiente di laboratorio dal vivo. Al termine di questa formazione, i partecipanti saranno in grado di:
  • Installa e configura Apachi NiFi.
  • Fonte, trasformazione e gestione dei dati da fonti di dati disparate e distribuite, inclusi database e Big Data Lakes.
  • Automatizza i flussi di dati.
  • Abilita analisi di streaming.
  • Applicare vari approcci per l'immissione dei dati.
  • Trasforma i Big Data e le informazioni aziendali.
Formato del corso
  • Conferenza e discussione interattiva.
  • Molti esercizi e pratiche.
  • Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
  • Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale. In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni demo, componenti e processori utilizzando Apache NiFi . Al termine di questa formazione, i partecipanti saranno in grado di:
  • Comprendi i concetti di architettura e flusso di dati di NiFi.
  • Sviluppa estensioni utilizzando NiFi e API di terze parti.
  • Personalizza lo sviluppo del proprio processore Apache Nifi.
  • Importa ed elabora dati in tempo reale da formati di file e fonti di dati disparati e non comuni.
Formato del corso
  • Conferenza e discussione interattiva.
  • Molti esercizi e pratiche.
  • Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
  • Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
28 hours
Apache Storm è un motore di calcolo distribuito in tempo reale utilizzato per consentire l'intelligenza aziendale in tempo reale. Lo fa consentendo alle applicazioni di elaborare in modo affidabile i flussi di dati illimitati (ad es. Il processo di trasformazione). "Storm è per il trattamento in tempo reale che Hadoop è per il trattamento di batch!" In questo allenamento diretto da istruttori, i partecipanti impareranno come installare e configurare Apache Storm, poi sviluppare e implementare un'applicazione Apache Storm per il trattamento dei big data in tempo reale. Alcuni dei temi inclusi in questa formazione includono:
    Apache Storm nel contesto di Hadoop Lavorare con dati illimitati Il calcolo continuo Analisi in tempo reale RPC e elaborazione ETL
Richiedi questo corso ora! Il pubblico
    Software e sviluppatori ETL Professionisti di Mainframe scienziati dati Big Data analisti Hadoop I professionisti
Il formato del corso
       lezioni a parte, discussioni a parte, esercizi e pratiche pesanti
21 hours
Apache Apex è una piattaforma nativa YARN che unisce l'elaborazione di stream e batch. Elabora grandi quantità di dati in movimento in modo scalabile, performante, tollerante ai guasti, con stato, sicuro, distribuito e facilmente utilizzabile. Questa formazione dal vivo con istruttore introduce l'architettura di elaborazione unificata di Apache Apex e guida i partecipanti alla creazione di un'applicazione distribuita utilizzando Apex su Hadoop . Al termine di questa formazione, i partecipanti saranno in grado di:
  • Comprendere i concetti della pipeline di elaborazione dei dati come connettori per sorgenti e pozzi, trasformazioni di dati comuni, ecc.
  • Costruisci, ridimensiona e ottimizza un'applicazione Apex
  • Elaborazione di flussi di dati in tempo reale in modo affidabile e con una latenza minima
  • Utilizzare Apex Core e la libreria Apex Malhar per consentire un rapido sviluppo delle applicazioni
  • Utilizzare l'API Apex per scrivere e riutilizzare il codice Java esistente
  • Integra Apex in altre applicazioni come motore di elaborazione
  • Ottimizza, testa e ridimensiona le applicazioni Apex
Formato del corso
  • Conferenza e discussione interattiva.
  • Molti esercizi e pratiche.
  • Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
  • Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Apache Beam è un modello di programmazione unificata open source per la definizione e l'esecuzione di pipeline di elaborazione dati parallele Il suo potere risiede nella sua capacità di eseguire pipeline sia in batch che in streaming, con l'esecuzione eseguita da uno dei backend di elaborazione distribuiti supportati da Beam: Apache Apex, Apache Flink, Apache Spark e Google Cloud Dataflow Apache Beam è utile per le attività ETL (Estrai, Trasforma e Carica) come lo spostamento di dati tra diversi supporti di memorizzazione e origini dati, la trasformazione dei dati in un formato più desiderabile e il caricamento dei dati su un nuovo sistema In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come implementare gli SDK Apache Beam in un'applicazione Java o Python che definisce una pipeline di elaborazione dati per la decomposizione di un big data set in blocchi più piccoli per l'elaborazione parallela indipendente Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Apache Beam Utilizzare un singolo modello di programmazione per eseguire sia l'elaborazione batch che quella stream dall'applicazione Java o Python Esegui pipeline su più ambienti Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Nota Questo corso sarà disponibile in futuro Vi preghiamo di contattarci per organizzare .
14 hours
Apache Ignite è una piattaforma di computer in-memory che si trova tra l'applicazione e la striscia di dati per migliorare la velocità, la scala e la disponibilità. In questo allenamento diretto da istruttori, i partecipanti impareranno i principi dietro lo storage in memoria persistente e puro mentre passano attraverso la creazione di un progetto di campione in memoria. Al termine di questo corso, i partecipanti saranno in grado di:
    Utilizzare Ignite per la consistenza in-memoria, sul disco e una base di dati in-memoria distribuita puramente. Ottenere persistenza senza sincronizzare i dati in un database relativo. Utilizzare Ignite per eseguire i collegamenti SQL e distribuiti. Migliora le prestazioni spostando i dati più vicino alla CPU, utilizzando la RAM come archiviazione. I dati diffusi vengono raccolti attraverso un cluster per raggiungere la scalabilità orizzontale. Integrare Ignite con i processori RDBMS, NoSQL, Hadoop e machine learning.
Il formato del corso
    Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
    Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
7 hours
This instructor-led, live training in Italia (online or onsite) is aimed at developers who wish to implement Apache Kafka stream processing without writing code. By the end of this training, participants will be able to:
  • Install and configure Confluent KSQL.
  • Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
  • Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
  • Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.
7 hours
Apache Spark Streaming è un sistema di trasmissione open source scalabile che consente agli utenti di elaborare dati in tempo reale da fonti supportate. Spark Streaming consente il trattamento di errori tolleranti dei flussi di dati. Questo istruttore guidato, la formazione in diretta (online o on-site) è rivolto agli ingegneri di dati, scienziati di dati e programmatori che desiderano utilizzare Spark Streaming caratteristiche nel trattamento e nell'analisi dei dati in tempo reale. Al termine di questa formazione, i partecipanti saranno in grado di utilizzare Spark Streaming per elaborare i flussi di dati dal vivo per l'uso in database, file systems e dashboards dal vivo. Il formato del corso
    Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
    Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.

Last Updated:

Fine settimana Stream processing corsi, Sera Stream processing training, Stream processing centro di addestramento, Stream processing con istruttore, Fine settimana Stream processing training, Sera Stream processing corsi, Stream processing coaching, Stream processing istruttore, Stream processing trainer, Stream processing corsi di formazione, Stream processing classi, Stream processing in loco, Stream processing corsi privati, Stream processing training individuale

Corsi scontati

No course discounts for now.

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking for a good mixture of IT and soft skills in Italy!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions