Big Data Training Courses

Big Data Training Courses

I corsi di formazione di Big Data dal vivo con istruttore iniziano con un´introduzione ai concetti elementali sui Big Data, quindi avanzano nei linguaggi di programmazione e nelle metodologie utilizzate per eseguire l´analisi dei dati. Gli strumenti e l´infrastruttura per abilitare l´archiviazione dei Big Data, l´elaborazione distribuita e la scalabilità sono discussi, confrontati e implementati nelle sessioni di pratica dimostrativa. La formazione sui Big Data è disponibile come formazione dal vivo sul posto o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, Il tuo fornitore di formazione locale.

Recensioni

★★★★★
★★★★★

Schema generale del corso Big Data

Nome del corso
Durata
Overview
Nome del corso
Durata
Overview
14 hours
Overview
Go al:

Imparare a lavorare con SPSS a livello di indipendenza

I destinatari:

Analisti, ricercatori, scienziati, studenti e tutti coloro che desiderano acquisire la capacità di utilizzare il pacchetto SPSS e apprendere tecniche di data mining popolari.
28 hours
Overview
MonetDB è un database open source che ha aperto la strada all'approccio della tecnologia di archivio di colonne.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare MonetDB e come trarne il massimo valore.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi MonetDB e le sue caratteristiche
- Installa e inizia con MonetDB
- Esplora ed esegui diverse funzioni e attività in MonetDB
- Accelera la consegna del loro progetto massimizzando le capacità di MonetDB

Pubblico

- Sviluppatori
- Esperti tecnici

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
7 hours
Overview
Spark SQL è il modulo di Apache Spark per lavorare con dati strutturati e non strutturati. Spark SQL fornisce informazioni sulla struttura dei dati e sul calcolo eseguito. Queste informazioni possono essere utilizzate per eseguire ottimizzazioni. Due usi comuni per Spark SQL sono:
- per eseguire query SQL .
- leggere i dati da un'installazione Hive esistente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come analizzare vari tipi di set di dati utilizzando Spark SQL .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Spark SQL .
- Eseguire l'analisi dei dati utilizzando Spark SQL .
- Interroga set di dati in diversi formati.
- Visualizza i dati e i risultati delle query.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
L'obiettivo del corso è consentire ai partecipanti di acquisire una padronanza dei fondamenti di R e di come lavorare con i dati.
14 hours
Overview
Obiettivo : questo corso di formazione mira ad aiutare i partecipanti a capire perché i Big Data stanno cambiando la nostra vita e come sta alterando il modo in cui le aziende ci vedono come consumatori. In effetti, gli utenti di big data nelle aziende scoprono che i big data liberano una grande quantità di informazioni e approfondimenti che si traducono in maggiori profitti, costi ridotti e meno rischi. Tuttavia, il lato negativo era la frustrazione a volte quando si poneva troppa enfasi sulle singole tecnologie e non si concentrava abbastanza sui pilastri della gestione dei big data.

I partecipanti impareranno durante questo corso come gestire i big data usando i suoi tre pilastri di integrazione dei dati, governance dei dati e sicurezza dei dati al fine di trasformare i big data in un reale valore aziendale. Diversi esercizi condotti su un caso di studio sulla gestione dei clienti aiuteranno i partecipanti a comprendere meglio i processi sottostanti.
14 hours
Overview
Apache Hama è un framework basato sul modello di elaborazione Bulk Synchronous Parallel (BSP) ed è utilizzato principalmente per l'analisi dei Big Data .

In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno i fondamenti di Apache Hama mentre passano attraverso la creazione di un'applicazione basata su BSP e un programma incentrato sui vertici usando i framework Apache Hama .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Apache Hama
- Comprendi i fondamenti di Apache Hama e il modello di programmazione Bulk Synchronous Parallel (BSP)
- Costruisci un programma basato su BSP usando il framework Apache Hama BSP
- Costruisci un programma incentrato sui vertici usando Apache Hama Graph Framework
- Compilare, testare ed eseguire il debug delle proprie applicazioni Apache Hama

Pubblico

- Sviluppatori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Questa sessione di formazione in aula esplorerà i Big Data . I delegati avranno esempi basati su computer ed esercitazioni di casi di studio da intraprendere con strumenti di big data pertinenti
7 hours
Overview
Kafka Streams è una libreria lato client per la creazione di applicazioni e microservizi i cui dati vengono trasmessi da e verso un sistema di messaggistica Kafka. Tradizionalmente, Apache Kafka ha fatto affidamento su Apache Spark o Apache Storm per elaborare i dati tra produttori di messaggi e consumatori. Chiamando l'API Kafka Streams dall'interno di un'applicazione, i dati possono essere elaborati direttamente all'interno di Kafka, evitando la necessità di inviare i dati a un cluster separato per l'elaborazione.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come integrare Kafka Streams in una serie di applicazioni Java di esempio che trasmettono dati da e verso Apache Kafka per l'elaborazione in streaming.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi le funzionalità e i vantaggi di Kafka Streams rispetto ad altri framework di elaborazione dei flussi
- Elaborare i dati del flusso direttamente all'interno di un cluster Kafka
- Scrivi un'applicazione o un microservizio Java o Scala che si integri con Kafka e Kafka Streams
- Scrivi un codice conciso che trasforma gli argomenti di Kafka di input in argomenti di Kafka di output
- Compilare, impacchettare e distribuire l'applicazione

Pubblico

- Sviluppatori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Gli appunti

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare
21 hours
Overview
Dremio è una "piattaforma dati selfservice" opensource che accelera l'interrogazione di diversi tipi di fonti di dati Dremio si integra con database relazionali, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch e altre fonti di dati Supporta SQL e fornisce un'interfaccia utente Web per la creazione di query In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come installare, configurare e utilizzare Dremio come strato unificante per gli strumenti di analisi dei dati e gli archivi di dati sottostanti Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Dremio Esegui query su più origini dati, indipendentemente dalla posizione, dalle dimensioni o dalla struttura Integrazione di Dremio con BI e origini dati come Tableau ed Elasticsearch Pubblico Scienziati di dati Analisti aziendali Ingegneri dei dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Gli appunti Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .
7 hours
Overview
Apache Drill è un motore di query SQL colonnare senza memoria, distribuito e inmemoria per Hadoop, NoSQL e altri sistemi di archiviazione di file e cloud La potenza di Apache Drill risiede nella sua capacità di unire i dati da più archivi di dati utilizzando un'unica query Apache Drill supporta numerosi database NoSQL e file system, inclusi HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS e file locali Apache Drill è la versione open source del sistema Dremel di Google, disponibile come servizio di infrastruttura denominato Google BigQuery In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come ottimizzare e eseguire il debug di Apache Drill per migliorare le prestazioni delle query su set di dati molto grandi Il corso inizia con una panoramica architettonica e il confronto delle funzionalità tra Apache Drill e altri strumenti di analisi dei dati interattivi I partecipanti quindi passano attraverso una serie di sessioni pratiche interattive, che includono installazione, configurazione, valutazione delle prestazioni, ottimizzazione delle query, partizionamento dei dati e debug di un'istanza di Apache Drill in un ambiente di laboratorio dal vivo Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Apache Drill Comprendere l'architettura e le caratteristiche di Apache Drill Comprendere come Apache Drills riceve ed esegue query Ottimizza le query Drill per l'esecuzione SQL distribuita Esegui il debug di Apache Drill Pubblico Sviluppatori Amministratori di sistema Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Gli appunti Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .
7 hours
Overview
In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno i concetti chiave dietro MapR Stream Architecture mentre sviluppano un'applicazione di streaming in tempo reale.

Entro la fine di questa formazione, i partecipanti saranno in grado di creare applicazioni per produttori e consumatori per l'elaborazione dei dati di flusso in tempo reale.

Pubblico

- Sviluppatori
- Amministratori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Apache Drill è un motore di query SQL colonnare senza memoria, distribuito e inmemoria per Hadoop, NoSQL e altri sistemi di archiviazione di file e cloud La potenza di Apache Drill risiede nella sua capacità di unire i dati da più archivi di dati utilizzando un'unica query Apache Drill supporta numerosi database NoSQL e file system, inclusi HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS e file locali Apache Drill è la versione open source del sistema Dremel di Google, disponibile come servizio di infrastruttura denominato Google BigQuery In questo corso di formazione dal vivo, istruito, i partecipanti apprenderanno i fondamenti di Apache Drill, quindi sfrutteranno la potenza e la convenienza di SQL per interrogare interattivamente i big data su più origini dati, senza scrivere codice I partecipanti impareranno anche come ottimizzare le loro query Drill per l'esecuzione SQL distribuita Alla fine di questa formazione, i partecipanti saranno in grado di: Esegui l'esplorazione "selfservice" su dati strutturati e semistrutturati su Hadoop Interrogazione anche di dati sconosciuti tramite query SQL Comprendere come Apache Drills riceve ed esegue query Scrivi query SQL per analizzare diversi tipi di dati, inclusi i dati strutturati in Hive, i dati semistrutturati nelle tabelle HBase o MapRDB e i dati salvati in file come Parquet e JSON Utilizzare Apache Drill per eseguire il discovery di schema onthefly, ignorando la necessità di operazioni ETL e schema complesse Integrazione di Apache Drill con strumenti di BI (Business Intelligence) come Tableau, Qlikview, MicroStrategy ed Excel Pubblico Analisti di dati Scienziati di dati Programmatori SQL Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
28 hours
Overview
Mem SQL è un sistema di gestione di database SQL in memoria, distribuito per cloud e locale. È un data warehouse in tempo reale che fornisce immediatamente informazioni dettagliate su dati storici e in tempo reale.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno gli elementi essenziali di Mem SQL per lo sviluppo e l'amministrazione.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi i concetti e le caratteristiche chiave di Mem SQL
- Installa, progetta, mantieni e gestisci Mem SQL
- Ottimizza gli schemi in Mem SQL
- Migliora le query in Mem SQL
- Prestazioni di benchmark in Mem SQL
- Crea applicazioni di dati in tempo reale utilizzando Mem SQL

Pubblico

- Sviluppatori
- Amministratori
- Ingegneri Operativi

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Overview
Amazon Redshift è un servizio di data warehouse basato su cloud petabytescale in AWS In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno i fondamenti di Amazon Redshift Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Amazon Redshift Carica, configura, distribuisci, esegui query e visualizza i dati con Amazon Redshift Pubblico Sviluppatori Professionisti IT Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Nota Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .
28 hours
Overview
Hadoop è un famoso framework per l'elaborazione di Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintassi e leggibilità del codice In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark usando Python mentre passano attraverso più esempi e casi d'uso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendi i concetti di base di Hadoop, MapReduce, Pig e Spark Usa Python con Hadoop Distributed File System (HDFS), MapReduce, Pig e Spark Usa Snakebite per accedere a livello di codice HDFS in Python Usa mrjob per scrivere lavori MapReduce in Python Scrivi programmi Spark con Python Estendi le funzionalità di pig usando le UDF di Python Gestisci i lavori MapReduce e gli script Pig usando Luigi Pubblico Sviluppatori Professionisti IT Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Python è un linguaggio di programmazione di alto livello famoso per la sua sintassi chiara e la leggibilità del codice. Spark è un motore di elaborazione dei dati utilizzato per interrogare, analizzare e trasformare i big data. PySpark consente agli utenti di interfacciare Spark con Python .

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare Python e Spark insieme per analizzare i big data mentre lavorano su esercizi pratici.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Scopri come utilizzare Spark con Python per analizzare i Big Data .
- Lavora su esercizi che imitano le circostanze del mondo reale.
- Usa diversi strumenti e tecniche per l'analisi dei big data usando PySpark .

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
35 hours
Overview
I progressi nelle tecnologie e la crescente quantità di informazioni stanno trasformando il modo in cui viene condotta l'applicazione della legge. Le sfide poste dai Big Data sono quasi scoraggianti come la promessa dei Big Data . La memorizzazione efficiente dei dati è una di queste sfide; analizzarlo efficacemente è un altro.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno la mentalità con cui affrontare le tecnologie dei Big Data , valutare il loro impatto sui processi e sulle politiche esistenti e implementare queste tecnologie allo scopo di identificare l'attività criminale e prevenire la criminalità. Verranno esaminati casi di studio da parte delle forze dell'ordine di tutto il mondo per ottenere approfondimenti sugli approcci, le sfide e i risultati relativi all'adozione.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Combina la tecnologia dei Big Data con i tradizionali processi di raccolta dei dati per mettere insieme una storia durante un'indagine
- Implementare soluzioni industriali di archiviazione e elaborazione dei big data per l'analisi dei dati
- Preparare una proposta per l'adozione degli strumenti e dei processi più adeguati per consentire un approccio basato sui dati alle indagini penali

Pubblico

- Specialisti delle forze dell'ordine con un background tecnico

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
14 hours
Overview
Per soddisfare la conformità dei regolatori, i CSP (fornitori di servizi di Communication ) possono attingere all'analisi dei Big Data che non solo li aiuta a soddisfare la conformità, ma nell'ambito dello stesso progetto possono aumentare la soddisfazione del cliente e quindi ridurre il churn. Infatti, poiché la conformità è correlata alla qualità del servizio legata a un contratto, qualsiasi iniziativa volta a soddisfare la conformità migliorerà il "vantaggio competitivo" dei CSP. Pertanto, è importante che i regolatori siano in grado di consigliare / guidare una serie di pratiche analitiche sui Big Data per i CSP che saranno di reciproco vantaggio tra i regolatori e i CSP.

Il corso è composto da 8 moduli (4 il giorno 1 e 4 il giorno 2)
28 hours
Overview
Molti problemi del mondo reale possono essere descritti in termini di grafici. Ad esempio, il grafico Web, il grafico della rete sociale, il grafico della rete del treno e il grafico della lingua. Questi grafici tendono ad essere estremamente grandi; la loro elaborazione richiede una serie specializzata di strumenti e processi: questi strumenti e processi possono essere definiti Graph Computing (noto anche come Graph Analytics).

In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno le offerte tecnologiche e gli approcci di implementazione per l'elaborazione dei dati dei grafici. L'obiettivo è identificare gli oggetti del mondo reale, le loro caratteristiche e relazioni, quindi modellarli e elaborarli come dati usando un approccio di Graph Computing (noto anche come Graph Analytics). Iniziamo con un'ampia panoramica e approfondiamo strumenti specifici mentre passiamo attraverso una serie di case study, esercitazioni pratiche e distribuzioni dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi come i dati del grafico sono persistenti e attraversati.
- Seleziona il framework migliore per una determinata attività (dai database dei grafici ai framework di elaborazione batch).
- Implementa Hadoop , Spark, GraphX e Pregel per eseguire il calcolo grafico su molte macchine in parallelo.
- Visualizza i problemi dei big data nel mondo reale in termini di grafici, processi e attraversamenti.

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni demo, componenti e processori utilizzando Apache NiFi .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi i concetti di architettura e flusso di dati di NiFi.
- Sviluppa estensioni utilizzando NiFi e API di terze parti.
- Personalizza lo sviluppo del proprio processore Apache Nifi.
- Importa ed elabora dati in tempo reale da formati di file e fonti di dati disparati e non comuni.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come distribuire e gestire Apache NiFi in un ambiente di laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Apachi NiFi.
- Fonte, trasformazione e gestione dei dati da fonti di dati disparate e distribuite, inclusi database e Big Data Lakes.
- Automatizza i flussi di dati.
- Abilita analisi di streaming.
- Applicare vari approcci per l'immissione dei dati.
- Trasforma i Big Data e le informazioni aziendali.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Apache SolrCloud è un motore di elaborazione dati distribuito che facilita la ricerca e l'indicizzazione di file su una rete distribuita In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come impostare un'istanza SolrCloud su Amazon AWS Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere le funzionalità di SolCloud e il modo in cui esse si confrontano con quelle dei cluster di masterslave convenzionali Configura un cluster centralizzato SolCloud Automatizza i processi come comunicare con i frammenti, aggiungere documenti ai frammenti, ecc Utilizzare Zookeeper in combinazione con SolrCloud per automatizzare ulteriormente i processi Utilizzare l'interfaccia per gestire la segnalazione degli errori Caricare il bilanciamento di un'installazione SolrCloud Configurare SolrCloud per l'elaborazione e il failover continui Pubblico Solr Developers Capi progetto Amministratori di sistema Cerca analisti Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
28 hours
Overview
La modellazione di data vault è una tecnica di modellazione di database che fornisce memoria storica a lungo termine di dati provenienti da più origini Un data vault memorizza una singola versione dei fatti o "tutti i dati, sempre" Il suo design flessibile, scalabile, coerente e adattabile racchiude gli aspetti migliori di 3a forma normale (3NF) e schema a stella In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come costruire un Data Vault Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere i concetti di architettura e design alla base di Data Vault 20 e la sua interazione con Big Data, NoSQL e AI Utilizzare tecniche di vaulting dei dati per abilitare il controllo, la traccia e l'ispezione dei dati storici in un data warehouse Sviluppare un processo ETL (Estrarre, Trasformare, Caricare) coerente e ripetibile Costruisci e distribuisci magazzini altamente scalabili e ripetibili Pubblico Modellatori di dati Specialista di data warehousing Specialisti in Business Intelligence Ingegneri dei dati Amministratori del database Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Datameer è una piattaforma di analisi e business intelligence basata su Hadoop Consente agli utenti finali di accedere, esplorare e correlare dati di grandi dimensioni, strutturati, semistrutturati e non strutturati in modo facile da usare In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come utilizzare Datameer per superare la curva di apprendimento ripida di Hadoop mentre passano attraverso l'installazione e l'analisi di una serie di fonti di dati di grandi dimensioni Alla fine di questa formazione, i partecipanti saranno in grado di: Creare, curare e esplorare in modo interattivo un lago di dati aziendali Accedere ai data warehouse aziendali, ai database transazionali e ad altri negozi di analisi Utilizzare l'interfaccia utente di un foglio di calcolo per progettare condotte di elaborazione dati endtoend Accedi a funzioni preconfigurate per esplorare relazioni dati complesse Utilizzare le procedure guidate di draganddrop per visualizzare i dati e creare dashboard Utilizza tabelle, grafici, grafici e mappe per analizzare i risultati delle query Pubblico Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Stream Processing riferisce all'elaborazione in tempo reale di "dati in movimento", ovvero l'esecuzione di calcoli sui dati man mano che vengono ricevuti. Tali dati vengono letti come flussi continui da fonti di dati quali eventi dei sensori, attività dell'utente del sito Web, operazioni finanziarie, passaggi di carte di credito, flussi di clic, ecc. I framework di Stream Processing flussi sono in grado di leggere grandi volumi di dati in entrata e fornire informazioni preziose quasi istantaneamente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come impostare e integrare diversi framework di Stream Processing con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura diversi framework di Stream Processing flussi, come Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e in modo record per record.
- Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
- Integra la libreria di elaborazione del flusso più appropriata con applicazioni e microservizi aziendali.

Pubblico

- Sviluppatori
- Architetti del software

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Gli appunti

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
28 hours
Overview
Pentaho Open Source BI Suite Community Edition (CE) è un pacchetto di business intelligence che offre funzionalità di integrazione dati, reportistica, dashboard e caricamento.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come massimizzare le funzionalità di Pentaho Open Source BI Suite Community Edition (CE).

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Pentaho Open Source BI Suite Community Edition (CE)
- Comprendi i fondamenti degli strumenti Pentaho CE e le loro caratteristiche
- Crea report utilizzando Pentaho CE
- Integrare dati di terze parti in Pentaho CE
- Lavora con big data e analisi in Pentaho CE

Pubblico

- I programmatori
- Sviluppatori BI

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Apache Ignite è una piattaforma di elaborazione in memoria che si trova tra l'applicazione e il livello dati per migliorare la velocità, la scalabilità e la disponibilità.

in questa formazione live, guidata da istruttori, i partecipanti impareranno i principi che stanno dietro allo storage persistente e puro in memoria mentre attraversano la creazione di un progetto di calcolo in memoria di esempio.

entro la fine di questa formazione, i partecipanti saranno in grado di:

- use Ignite per la persistenza in memoria, su disco e un database in memoria puramente distribuito.
- ottenere la persistenza senza sincronizzare i dati di nuovo in un database relazionale.
- USA Ignite per eseguire SQL e join distribuiti.
- migliorare le prestazioni spostando i dati più vicino alla CPU, utilizzando RAM come storage.
set di dati - spread in un cluster per ottenere scalabilità orizzontale.
- integra Ignite con RDBMS, NoSQL, Hadoop e processori di machine learning.

formato del corso

- conferenza interattiva e discussione.
- un sacco di esercizi e pratica.
- implementazione hands-on in un ambiente lab Live.

Opzioni di personalizzazione del corso

- per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
21 hours
Overview
Scala è una versione ridotta di Java per la programmazione funzionale e orientata agli oggetti su larga scala. Apache Spark Streaming è un componente esteso dell'API Spark per l'elaborazione di set di big data come flussi in tempo reale. Insieme, Spark Streaming e Scala consentono lo streaming di big data.

Questa formazione dal vivo con istruttore (in loco o remoto) è rivolta agli ingegneri del software che desiderano trasmettere grandi quantità di dati con Spark Streaming e Scala .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Crea applicazioni Spark con il linguaggio di programmazione Scala .
- Utilizzare Spark Streaming per elaborare flussi continui di dati.
- Elaborazione di flussi di dati in tempo reale con Spark Streaming.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
This instructor-led, live training in Italia (online or onsite) is aimed at data engineers, data scientists, and programmers who wish to use Apache Kafka features in data streaming with Python.

By the end of this training, participants will be able to use Apache Kafka to monitor and manage conditions in continuous data streams using Python programming.
28 hours
Overview
This instructor-led, live training in Italia (online or onsite) is aimed at technical persons who wish to deploy Talend Open Studio for Big Data to simplifying the process of reading and crunching through Big Data.

By the end of this training, participants will be able to:

- Install and configure Talend Open Studio for Big Data.
- Connect with Big Data systems such as Cloudera, HortonWorks, MapR, Amazon EMR and Apache.
- Understand and set up Open Studio's big data components and connectors.
- Configure parameters to automatically generate MapReduce code.
- Use Open Studio's drag-and-drop interface to run Hadoop jobs.
- Prototype big data pipelines.
- Automate big data integration projects.

Prossimi corsi Big Data

Fine settimana Big Data corsi, Sera Big Data training, Big Data centro di addestramento, Big Data con istruttore, Fine settimana Big Data training, Sera Big Data corsi, Big Data coaching, Big Data istruttore, Big Data trainer, Big Data corsi di formazione, Big Data classi, Big Data in loco, Big Data corsi privati, Big Data training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking for a good mixture of IT and soft skills in Italy!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions