Big Data Training Courses

Big Data Training Courses

I corsi di formazione di Big Data dal vivo con istruttore iniziano con un´introduzione ai concetti elementali sui Big Data, quindi avanzano nei linguaggi di programmazione e nelle metodologie utilizzate per eseguire l´analisi dei dati. Gli strumenti e l´infrastruttura per abilitare l´archiviazione dei Big Data, l´elaborazione distribuita e la scalabilità sono discussi, confrontati e implementati nelle sessioni di pratica dimostrativa. La formazione sui Big Data è disponibile come formazione dal vivo sul posto o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, Il tuo fornitore di formazione locale.

Recensioni

★★★★★
★★★★★

Schema generale del corso Big Data

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Go al:

Imparare a lavorare con SPSS a livello di indipendenza

I destinatari:

Analisti, ricercatori, scienziati, studenti e tutti coloro che desiderano acquisire la capacità di utilizzare il pacchetto SPSS e apprendere tecniche di data mining popolari.
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni demo, componenti e processori utilizzando Apache NiFi .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi i concetti di architettura e flusso di dati di NiFi.
- Sviluppa estensioni utilizzando NiFi e API di terze parti.
- Personalizza lo sviluppo del proprio processore Apache Nifi.
- Importa ed elabora dati in tempo reale da formati di file e fonti di dati disparati e non comuni.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Apache Drill è un motore di query SQL colonnare senza memoria, distribuito e inmemoria per Hadoop, NoSQL e altri sistemi di archiviazione di file e cloud La potenza di Apache Drill risiede nella sua capacità di unire i dati da più archivi di dati utilizzando un'unica query Apache Drill supporta numerosi database NoSQL e file system, inclusi HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS e file locali Apache Drill è la versione open source del sistema Dremel di Google, disponibile come servizio di infrastruttura denominato Google BigQuery In questo corso di formazione dal vivo, istruito, i partecipanti apprenderanno i fondamenti di Apache Drill, quindi sfrutteranno la potenza e la convenienza di SQL per interrogare interattivamente i big data su più origini dati, senza scrivere codice I partecipanti impareranno anche come ottimizzare le loro query Drill per l'esecuzione SQL distribuita Alla fine di questa formazione, i partecipanti saranno in grado di: Esegui l'esplorazione "selfservice" su dati strutturati e semistrutturati su Hadoop Interrogazione anche di dati sconosciuti tramite query SQL Comprendere come Apache Drills riceve ed esegue query Scrivi query SQL per analizzare diversi tipi di dati, inclusi i dati strutturati in Hive, i dati semistrutturati nelle tabelle HBase o MapRDB e i dati salvati in file come Parquet e JSON Utilizzare Apache Drill per eseguire il discovery di schema onthefly, ignorando la necessità di operazioni ETL e schema complesse Integrazione di Apache Drill con strumenti di BI (Business Intelligence) come Tableau, Qlikview, MicroStrategy ed Excel Pubblico Analisti di dati Scienziati di dati Programmatori SQL Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
28 hours
Overview
MonetDB è un database open source che ha aperto la strada all'approccio della tecnologia di archivio di colonne.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare MonetDB e come trarne il massimo valore.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi MonetDB e le sue caratteristiche
- Installa e inizia con MonetDB
- Esplora ed esegui diverse funzioni e attività in MonetDB
- Accelera la consegna del loro progetto massimizzando le capacità di MonetDB

Pubblico

- Sviluppatori
- Esperti tecnici

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
28 hours
Overview
Mem SQL è un sistema di gestione di database SQL in memoria, distribuito per cloud e locale. È un data warehouse in tempo reale che fornisce immediatamente informazioni dettagliate su dati storici e in tempo reale.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno gli elementi essenziali di Mem SQL per lo sviluppo e l'amministrazione.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi i concetti e le caratteristiche chiave di Mem SQL
- Installa, progetta, mantieni e gestisci Mem SQL
- Ottimizza gli schemi in Mem SQL
- Migliora le query in Mem SQL
- Prestazioni di benchmark in Mem SQL
- Crea applicazioni di dati in tempo reale utilizzando Mem SQL

Pubblico

- Sviluppatori
- Amministratori
- Ingegneri Operativi

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
28 hours
Overview
Hadoop è un famoso framework per l'elaborazione di Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintassi e leggibilità del codice In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark usando Python mentre passano attraverso più esempi e casi d'uso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendi i concetti di base di Hadoop, MapReduce, Pig e Spark Usa Python con Hadoop Distributed File System (HDFS), MapReduce, Pig e Spark Usa Snakebite per accedere a livello di codice HDFS in Python Usa mrjob per scrivere lavori MapReduce in Python Scrivi programmi Spark con Python Estendi le funzionalità di pig usando le UDF di Python Gestisci i lavori MapReduce e gli script Pig usando Luigi Pubblico Sviluppatori Professionisti IT Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Python è un linguaggio di programmazione di alto livello famoso per la sua sintassi chiara e la leggibilità del codice. Spark è un motore di elaborazione dei dati utilizzato per interrogare, analizzare e trasformare i big data. PySpark consente agli utenti di interfacciare Spark con Python .

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare Python e Spark insieme per analizzare i big data mentre lavorano su esercizi pratici.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Scopri come utilizzare Spark con Python per analizzare i Big Data .
- Lavora su esercizi che imitano le circostanze del mondo reale.
- Usa diversi strumenti e tecniche per l'analisi dei big data usando PySpark .

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
35 hours
Overview
I progressi delle tecnologie e la crescente quantità di informazioni stanno trasformando il modo in cui vengono condotte le forze dell'ordine Le sfide poste dai Big Data sono quasi scoraggianti quanto le promesse di Big Data Memorizzare i dati in modo efficiente è una di queste sfide; analizzarlo efficacemente è un altro In questo corso di formazione dal vivo istruito, i partecipanti apprenderanno la mentalità con cui affrontare le tecnologie dei Big Data, valutare il loro impatto sui processi e le politiche esistenti e implementare queste tecnologie allo scopo di identificare l'attività criminale e prevenire il crimine Verranno esaminati casi di studio da organizzazioni di polizia di tutto il mondo per ottenere informazioni sugli approcci, le sfide e i risultati di adozione Alla fine di questa formazione, i partecipanti saranno in grado di: Combina la tecnologia Big Data con i tradizionali processi di raccolta dei dati per ricostruire una storia durante un'indagine Implementare soluzioni di archiviazione e elaborazione di big data industriali per l'analisi dei dati Preparare una proposta per l'adozione degli strumenti e dei processi più adeguati per consentire un approccio basato sui dati alle indagini criminali Pubblico Specialisti di Law Enforcement con un background tecnico Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Per soddisfare la conformità dei regolatori, i CSP (fornitori di servizi di Communication ) possono attingere all'analisi dei Big Data che non solo li aiuta a soddisfare la conformità, ma nell'ambito dello stesso progetto possono aumentare la soddisfazione del cliente e quindi ridurre il churn. Infatti, poiché la conformità è correlata alla qualità del servizio legata a un contratto, qualsiasi iniziativa volta a soddisfare la conformità migliorerà il "vantaggio competitivo" dei CSP. Pertanto, è importante che i regolatori siano in grado di consigliare / guidare una serie di pratiche analitiche sui Big Data per i CSP che saranno di reciproco vantaggio tra i regolatori e i CSP.

Il corso è composto da 8 moduli (4 il giorno 1 e 4 il giorno 2)
28 hours
Overview
Molti problemi del mondo reale possono essere descritti in termini di grafici. Ad esempio, il grafico Web, il grafico della rete sociale, il grafico della rete del treno e il grafico della lingua. Questi grafici tendono ad essere estremamente grandi; la loro elaborazione richiede una serie specializzata di strumenti e processi: questi strumenti e processi possono essere definiti Graph Computing (noto anche come Graph Analytics).

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno le offerte tecnologiche e gli approcci di implementazione per l'elaborazione dei dati dei grafici. L'obiettivo è identificare gli oggetti del mondo reale, le loro caratteristiche e relazioni, quindi modellarli e elaborarli come dati usando un approccio di Graph Computing (noto anche come Graph Analytics). Iniziamo con un'ampia panoramica e approfondiamo strumenti specifici mentre passiamo attraverso una serie di case study, esercitazioni pratiche e distribuzioni dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi come i dati del grafico sono persistenti e attraversati.
- Seleziona il framework migliore per una determinata attività (dai database dei grafici ai framework di elaborazione batch).
- Implementa Hadoop , Spark, GraphX e Pregel per eseguire il calcolo grafico su molte macchine in parallelo.
- Visualizza i problemi dei big data nel mondo reale in termini di grafici, processi e attraversamenti.

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Overview
L'analisi predittiva è il processo di utilizzo dell'analisi dei dati per fare previsioni sul futuro Questo processo utilizza i dati insieme a tecniche di data mining, statistiche e machine learning per creare un modello predittivo per la previsione di eventi futuri In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare Matlab per costruire modelli predittivi e applicarli a grandi serie di dati di esempio per prevedere eventi futuri basati sui dati Alla fine di questa formazione, i partecipanti saranno in grado di: Creare modelli predittivi per analizzare i modelli nei dati storici e transazionali Utilizzare la modellazione predittiva per identificare rischi e opportunità Costruisci modelli matematici che catturino tendenze importanti Utilizzare i dati di dispositivi e sistemi aziendali per ridurre gli sprechi, risparmiare tempo o ridurre i costi Pubblico Sviluppatori ingegneri Esperti di dominio Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come distribuire e gestire Apache NiFi in un ambiente di laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Apachi NiFi.
- Fonte, trasformazione e gestione dei dati da fonti di dati disparate e distribuite, inclusi database e Big Data Lakes.
- Automatizza i flussi di dati.
- Abilita analisi di streaming.
- Applicare vari approcci per l'immissione dei dati.
- Trasforma i Big Data e le informazioni aziendali.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno i concetti chiave dietro MapR Stream Architecture mentre sviluppano un'applicazione di streaming in tempo reale.

Entro la fine di questa formazione, i partecipanti saranno in grado di creare applicazioni per produttori e consumatori per l'elaborazione dei dati di flusso in tempo reale.

Pubblico

- Sviluppatori
- Amministratori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Apache SolrCloud è un motore di elaborazione dati distribuito che facilita la ricerca e l'indicizzazione di file su una rete distribuita In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come impostare un'istanza SolrCloud su Amazon AWS Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere le funzionalità di SolCloud e il modo in cui esse si confrontano con quelle dei cluster di masterslave convenzionali Configura un cluster centralizzato SolCloud Automatizza i processi come comunicare con i frammenti, aggiungere documenti ai frammenti, ecc Utilizzare Zookeeper in combinazione con SolrCloud per automatizzare ulteriormente i processi Utilizzare l'interfaccia per gestire la segnalazione degli errori Caricare il bilanciamento di un'installazione SolrCloud Configurare SolrCloud per l'elaborazione e il failover continui Pubblico Solr Developers Capi progetto Amministratori di sistema Cerca analisti Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
28 hours
Overview
La modellazione di data vault è una tecnica di modellazione di database che fornisce memoria storica a lungo termine di dati provenienti da più origini Un data vault memorizza una singola versione dei fatti o "tutti i dati, sempre" Il suo design flessibile, scalabile, coerente e adattabile racchiude gli aspetti migliori di 3a forma normale (3NF) e schema a stella In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come costruire un Data Vault Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere i concetti di architettura e design alla base di Data Vault 20 e la sua interazione con Big Data, NoSQL e AI Utilizzare tecniche di vaulting dei dati per abilitare il controllo, la traccia e l'ispezione dei dati storici in un data warehouse Sviluppare un processo ETL (Estrarre, Trasformare, Caricare) coerente e ripetibile Costruisci e distribuisci magazzini altamente scalabili e ripetibili Pubblico Modellatori di dati Specialista di data warehousing Specialisti in Business Intelligence Ingegneri dei dati Amministratori del database Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Datameer è una piattaforma di analisi e business intelligence basata su Hadoop Consente agli utenti finali di accedere, esplorare e correlare dati di grandi dimensioni, strutturati, semistrutturati e non strutturati in modo facile da usare In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come utilizzare Datameer per superare la curva di apprendimento ripida di Hadoop mentre passano attraverso l'installazione e l'analisi di una serie di fonti di dati di grandi dimensioni Alla fine di questa formazione, i partecipanti saranno in grado di: Creare, curare e esplorare in modo interattivo un lago di dati aziendali Accedere ai data warehouse aziendali, ai database transazionali e ad altri negozi di analisi Utilizzare l'interfaccia utente di un foglio di calcolo per progettare condotte di elaborazione dati endtoend Accedi a funzioni preconfigurate per esplorare relazioni dati complesse Utilizzare le procedure guidate di draganddrop per visualizzare i dati e creare dashboard Utilizza tabelle, grafici, grafici e mappe per analizzare i risultati delle query Pubblico Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Apache Ignite è una piattaforma di elaborazione in memoria che si trova tra l'applicazione e il livello dati per migliorare la velocità, la scalabilità e la disponibilità.

in questa formazione live, guidata da istruttori, i partecipanti impareranno i principi che stanno dietro allo storage persistente e puro in memoria mentre attraversano la creazione di un progetto di calcolo in memoria di esempio.

entro la fine di questa formazione, i partecipanti saranno in grado di:

- use Ignite per la persistenza in memoria, su disco e un database in memoria puramente distribuito.
- ottenere la persistenza senza sincronizzare i dati di nuovo in un database relazionale.
- USA Ignite per eseguire SQL e join distribuiti.
- migliorare le prestazioni spostando i dati più vicino alla CPU, utilizzando RAM come storage.
set di dati - spread in un cluster per ottenere scalabilità orizzontale.
- integra Ignite con RDBMS, NoSQL, Hadoop e processori di machine learning.

formato del corso

- conferenza interattiva e discussione.
- un sacco di esercizi e pratica.
- implementazione hands-on in un ambiente lab Live.

Opzioni di personalizzazione del corso

- per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
14 hours
Overview
Vespa è un motore open source per l'elaborazione e il trattamento dei big data creato da Yahoo È utilizzato per rispondere alle domande degli utenti, formulare raccomandazioni e fornire contenuti e annunci personalizzati in tempo reale Questo corso di formazione dal vivo con istruttore introduce le sfide di offrire dati di grandi dimensioni e partecipa ai partecipanti attraverso la creazione di un'applicazione in grado di calcolare le risposte alle richieste degli utenti, su dataset di grandi dimensioni in tempo reale Alla fine di questa formazione, i partecipanti saranno in grado di: Usa Vespa per calcolare rapidamente i dati (memorizzare, cercare, classificare, organizzare) al momento di servire mentre un utente aspetta Implementa Vespa in applicazioni esistenti che includono ricerca di funzionalità, consigli e personalizzazione Integrare e distribuire Vespa con i sistemi di big data esistenti come Hadoop e Storm Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Apache Apex è una piattaforma nativa YARN che unisce l'elaborazione di stream e batch. Elabora grandi quantità di dati in movimento in modo scalabile, performante, tollerante ai guasti, con stato, sicuro, distribuito e facilmente utilizzabile.

Questa formazione dal vivo con istruttore introduce l'architettura di elaborazione unificata di Apache Apex e guida i partecipanti alla creazione di un'applicazione distribuita utilizzando Apex su Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendere i concetti della pipeline di elaborazione dei dati come connettori per sorgenti e pozzi, trasformazioni di dati comuni, ecc.
- Costruisci, ridimensiona e ottimizza un'applicazione Apex
- Elaborazione di flussi di dati in tempo reale in modo affidabile e con una latenza minima
- Utilizzare Apex Core e la libreria Apex Malhar per consentire un rapido sviluppo delle applicazioni
- Utilizzare l'API Apex per scrivere e riutilizzare il codice Java esistente
- Integra Apex in altre applicazioni come motore di elaborazione
- Ottimizza, testa e ridimensiona le applicazioni Apex

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
Alluxio è un sistema di archiviazione distribuito virtuale open source che unifica diversi sistemi di archiviazione e consente alle applicazioni di interagire con i dati alla velocità della memoria. È utilizzato da aziende come Intel, Baidu e Alibaba.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Alluxio per collegare diversi framework di calcolo con sistemi di archiviazione e gestire in modo efficiente dati su scala multi-petabyte mentre passano attraverso la creazione di un'applicazione con Alluxio .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Sviluppa un'applicazione con Alluxio
- Connetti sistemi e applicazioni per big data preservando uno spazio dei nomi
- Estrai in modo efficiente il valore dai big data in qualsiasi formato di archiviazione
- Migliora le prestazioni del carico di lavoro
- Distribuire e gestire Alluxio autonomo o in cluster

Pubblico

- Data scientist
- Sviluppatore
- Amministratore di sistema

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
28 hours
Overview
Apache Flink è un framework open source per il flusso scalabile e l'elaborazione dei dati batch.

questa formazione live guidata da istruttori introduce i principi e gli approcci dietro il flusso distribuito e l'elaborazione dei dati in batch e guida i partecipanti attraverso la creazione di un'applicazione di streaming dati in tempo reale in Apache Flink.

entro la fine di questa formazione, i partecipanti saranno in grado di:

- impostare un ambiente per lo sviluppo di applicazioni di analisi dei dati.
- pacchetto, eseguire e monitorare le applicazioni di streaming dati basate su Flink, fault-tolerant.
- gestire diversi carichi di workload.
- eseguire analisi avanzate utilizzando Flink ML.
- impostare un cluster Flink multi-nodo.
- misurare e ottimizzare le prestazioni.
- integra Flink con diversi sistemi Big Data.
- Confronta le funzionalità di Flink con quelle di altri Framework di elaborazione dei Big Data.

formato del corso

- part lezione, parte di discussione, esercitazioni e pratiche pratica pesante
14 hours
Overview
L'intelligenza artificiale è una raccolta di tecnologie per la costruzione di sistemi intelligenti in grado di comprendere i dati e le attività che li circondano per prendere "decisioni intelligenti". Per i fornitori di telecomunicazioni, la creazione di applicazioni e servizi che utilizzano l'intelligenza artificiale potrebbe aprire le porte a operazioni e servizi migliorati in settori quali la manutenzione e l'ottimizzazione della rete.

In questo corso esaminiamo le varie tecnologie che compongono l'IA e le competenze necessarie per metterle in pratica. Durante il corso, esaminiamo le applicazioni specifiche dell'IA nel settore delle telecomunicazioni.

Pubblico

- Ingegneri di rete
- Personale addetto alle operazioni di rete
- Responsabili tecnici delle telecomunicazioni

Formato del corso

- Parte lezione, parte discussione, esercitazioni pratiche
7 hours
Overview
Apache Drill è un motore di query SQL colonnare senza memoria, distribuito e inmemoria per Hadoop, NoSQL e altri sistemi di archiviazione di file e cloud La potenza di Apache Drill risiede nella sua capacità di unire i dati da più archivi di dati utilizzando un'unica query Apache Drill supporta numerosi database NoSQL e file system, inclusi HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS e file locali Apache Drill è la versione open source del sistema Dremel di Google, disponibile come servizio di infrastruttura denominato Google BigQuery In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come ottimizzare e eseguire il debug di Apache Drill per migliorare le prestazioni delle query su set di dati molto grandi Il corso inizia con una panoramica architettonica e il confronto delle funzionalità tra Apache Drill e altri strumenti di analisi dei dati interattivi I partecipanti quindi passano attraverso una serie di sessioni pratiche interattive, che includono installazione, configurazione, valutazione delle prestazioni, ottimizzazione delle query, partizionamento dei dati e debug di un'istanza di Apache Drill in un ambiente di laboratorio dal vivo Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Apache Drill Comprendere l'architettura e le caratteristiche di Apache Drill Comprendere come Apache Drills riceve ed esegue query Ottimizza le query Drill per l'esecuzione SQL distribuita Esegui il debug di Apache Drill Pubblico Sviluppatori Amministratori di sistema Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Gli appunti Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .
14 hours
Overview
Apache Zeppelin è un notebook basato sul Web per l'acquisizione, l'esplorazione, la visualizzazione e la condivisione di dati basati su Hadoop e Spark.

Questa formazione dal vivo con istruttore introduce i concetti alla base dell'analisi dei dati interattiva e guida i partecipanti attraverso l'implementazione e l'utilizzo di Zeppelin in un ambiente a utente singolo o multiutente.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Zeppelin
- Sviluppa, organizza, esegui e condividi dati in un'interfaccia basata su browser
- Visualizza i risultati senza fare riferimento alla riga di comando o ai dettagli del cluster
- Esegui e collabora su lunghi flussi di lavoro
- Funziona con uno qualsiasi dei vari linguaggi plug-in / backend di elaborazione dati, come Scala (con Apache Spark ), Python (con Apache Spark ), Spark SQL , JDBC, Markdown e Shell.
- Integra Zeppelin con Spark, Flink e Map Reduce
- Proteggi le istanze multiutente di Zeppelin con Apache Shiro

Pubblico

- Ingegneri dei dati
- Analisti di dati
- Data scientist
- Sviluppatori di software

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
14 hours
Overview
Apache Arrow è un framework di elaborazione dati in memoria open source. Viene spesso utilizzato insieme ad altri strumenti di data science per accedere a diversi data store per l'analisi. Si integra bene con altre tecnologie come database GPU , librerie e strumenti di machine learning, motori di esecuzione e framework di visualizzazione dei dati.

In questa formazione dal vivo condotta da un istruttore in loco, i partecipanti impareranno come integrare Apache Arrow con vari framework di Data Science per accedere ai dati da diverse fonti di dati.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Apache Arrow in un ambiente cluster distribuito
- Utilizzare la Apache Arrow per accedere ai dati da origini dati diverse
- Utilizzare Apache Arrow per aggirare la necessità di costruire e mantenere complesse pipeline ETL
- Analizza i dati attraverso diverse fonti di dati senza doverli consolidare in un repository centralizzato

Pubblico

- Data scientist
- Ingegneri dei dati

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
Questa formazione dal vivo con istruttore (in loco o remoto) è rivolta a persone tecniche che desiderano apprendere come implementare una strategia di apprendimento automatico massimizzando l'utilizzo dei big data.

Al termine di questa formazione, i partecipanti dovranno:

- Comprendi l'evoluzione e le tendenze dell'apprendimento automatico.
- Sapere come l'apprendimento automatico viene utilizzato in diversi settori.
- Acquisire familiarità con gli strumenti, le competenze e i servizi disponibili per implementare l'apprendimento automatico all'interno di un'organizzazione.
- Comprendi come l'apprendimento automatico può essere utilizzato per migliorare il data mining e l'analisi.
- Scopri cos'è un back-end di dati medio e come viene utilizzato dalle aziende.
- Comprendi il ruolo svolto dai big data e dalle applicazioni intelligenti in tutti i settori.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Teradata is a popular Relational Database Management System for building large scale data warehousing applications. Teradata achieves this by way of parallelism.

This instructor-led, live training (onsite or remote) is aimed at application developers and engineers who wish to master more sophisticated usages of the Teradata database.

By the end of this training, participants will be able to:

- Manage Teradata space.
- Protect and distribute data in Teradata.
- Read Explain Plan.
- Improve SQL proficiency.
- Use main utilities of Teradata.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 hours
Overview
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 hours
Overview
Pivotal Greenplum is a Massively Parallel Processing (MPP) Data Warehouse platform based on PostgreSQL.

This instructor-led, live training (onsite or remote) is aimed at developers who wish to set up a multi-node Greenplum database.

By the end of this training, participants will be able to:

- Install and configure Pivotal Greenplum.
- Model data in accordance to current needs and future expansion plans.
- Carry out different techniques for distributing data across multiple nodes.
- Improve database performance through tuning.
- Monitor and troubleshoot a Greenplum database.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
Fine settimana Big Data corsi, Sera Big Data training, Big Data centro di addestramento, Big Data con istruttore, Fine settimana Big Data training, Sera Big Data corsi, Big Data coaching, Big Data istruttore, Big Data trainer, Big Data corsi di formazione, Big Data classi, Big Data in loco, Big Data corsi privati, Big Data training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking to expand our presence in Italy!

As a Business Development Manager you will:

  • expand business in Italy
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!