Big Data Training Courses

Big Data Training Courses

I corsi di formazione di Big Data dal vivo con istruttore iniziano con un´introduzione ai concetti elementali sui Big Data, quindi avanzano nei linguaggi di programmazione e nelle metodologie utilizzate per eseguire l´analisi dei dati. Gli strumenti e l´infrastruttura per abilitare l´archiviazione dei Big Data, l´elaborazione distribuita e la scalabilità sono discussi, confrontati e implementati nelle sessioni di pratica dimostrativa. La formazione sui Big Data è disponibile come formazione dal vivo sul posto o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, Il tuo fornitore di formazione locale.

Recensioni

★★★★★
★★★★★

Schema generale del corso Big Data

Title
Duration
Overview
Title
Duration
Overview
21 hours
Overview
Apache Accumulo è un archivio chiavi / valori distribuito e ordinato che fornisce archiviazione e recupero dei dati robusti e scalabili È basato sul design di Google BigTable ed è basato su Apache Hadoop, Apache Zookeeper e Apache Thrift Questo corso copre i principi di lavoro di Accumulo e accompagna i partecipanti attraverso lo sviluppo di un'applicazione di esempio su Apache Accumulo Pubblico Sviluppatori di applicazioni Ingegneri del software Consulenti tecnici Formato del corso Lezione di parte, discussione parziale, sviluppo e implementazione di handson, test occasionali per misurare la comprensione .
21 hours
Overview
Stream Processing si riferisce all'elaborazione in tempo reale di "dati in movimento", ovvero, esegue calcoli sui dati mentre vengono ricevuti Tali dati vengono letti come flussi continui da fonti di dati come eventi sensore, attività dell'utente del sito Web, scambi finanziari, swip della carta di credito, flussi di clic, ecc I framework di elaborazione stream sono in grado di leggere grandi volumi di dati in ingresso e fornire informazioni preziose quasi istantaneamente In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti apprenderanno come configurare e integrare diversi framework di Stream Processing con i sistemi di archiviazione di big data esistenti e le relative applicazioni software e microservizi Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura diversi framework di Stream Processing, come Spark Streaming e Kafka Streaming Comprendere e selezionare la struttura più appropriata per il lavoro Processo di dati in modo continuo, simultaneo e in modalità recordbyrecord Integrare le soluzioni di elaborazione dei flussi con database esistenti, data warehouse, laghi dati, ecc Integrazione della libreria di elaborazione del flusso più appropriata con applicazioni aziendali e microservizi Pubblico Sviluppatori Architetti del software Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Gli appunti Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .
28 hours
Overview
MemSQL è un sistema di gestione di database SQL inmemoria e distribuito per cloud e onpremises È un data warehouse in tempo reale che offre immediatamente informazioni dettagliate su dati storici e in tempo reale In questo corso di formazione dal vivo, istruito, i partecipanti apprenderanno gli elementi essenziali di MemSQL per lo sviluppo e l'amministrazione Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere i concetti chiave e le caratteristiche di MemSQL Installa, progetta, mantieni e gestisci MemSQL Ottimizza gli schemi in MemSQL Migliora le query in MemSQL Prestazioni di riferimento in MemSQL Costruisci applicazioni di dati in tempo reale usando MemSQL Pubblico Sviluppatori Amministratori Ingegneri operativi Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
L'analisi predittiva è il processo di utilizzo dell'analisi dei dati per fare previsioni sul futuro Questo processo utilizza i dati insieme a tecniche di data mining, statistiche e machine learning per creare un modello predittivo per la previsione di eventi futuri In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare Matlab per costruire modelli predittivi e applicarli a grandi serie di dati di esempio per prevedere eventi futuri basati sui dati Alla fine di questa formazione, i partecipanti saranno in grado di: Creare modelli predittivi per analizzare i modelli nei dati storici e transazionali Utilizzare la modellazione predittiva per identificare rischi e opportunità Costruisci modelli matematici che catturino tendenze importanti Utilizzare i dati di dispositivi e sistemi aziendali per ridurre gli sprechi, risparmiare tempo o ridurre i costi Pubblico Sviluppatori ingegneri Esperti di dominio Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
7 hours
Overview
In questo corso di formazione dal vivo, istruito, i partecipanti apprenderanno i concetti fondamentali alla base di MapR Stream Architecture mentre sviluppano un'applicazione di streaming in tempo reale Entro la fine di questa formazione, i partecipanti saranno in grado di creare applicazioni per produttori e consumatori per l'elaborazione dei dati in tempo reale Pubblico Sviluppatori Amministratori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Nota Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .
14 hours
Overview
Magellan è un motore di esecuzione distribuito opensource per l'analisi geospaziale su big data Implementato su Apache Spark, estende Spark SQL e fornisce un'astrazione relazionale per l'analisi geospaziale Questo corso di formazione dal vivo con istruttore introduce i concetti e gli approcci per l'implementazione dell'analisi geospaziale e accompagna i partecipanti attraverso la creazione di un'applicazione di analisi predittiva utilizzando Magellan su Spark Alla fine di questa formazione, i partecipanti saranno in grado di: Interrogare, analizzare e unire in modo efficiente set di dati geospaziali su vasta scala Implementare dati geospaziali in applicazioni di business intelligence e analisi predittiva Utilizzare il contesto spaziale per estendere le funzionalità di dispositivi mobili, sensori, registri e dispositivi indossabili Pubblico Sviluppatori di applicazioni Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Apache Kylin è un motore di analisi estremo e distribuito per i big data In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Apache Kylin per creare un data warehouse in tempo reale Alla fine di questa formazione, i partecipanti saranno in grado di: Consuma dati streaming in tempo reale usando Kylin Utilizza le potenti funzionalità di Apache Kylin, tra cui il supporto degli schemi a fiocco di neve, un'interfaccia SQL ricca, una scintilla di cubatura e una latenza di query di sottoscala Nota Usiamo l'ultima versione di Kylin (al momento in cui scrivo, Apache Kylin v20) Pubblico Grandi ingegneri di dati Analisti di Big Data Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Conoscenza scoperta in database (KDD) è il processo di scoperta di conoscenze utili da una raccolta di dati Le applicazioni di vita reale per questa tecnica di data mining includono marketing, rilevamento di frodi, telecomunicazioni e produzione In questo corso, introduciamo i processi coinvolti in KDD e svolgiamo una serie di esercizi per praticare l'implementazione di tali processi Pubblico Analisti di dati o chiunque sia interessato a imparare come interpretare i dati per risolvere i problemi Formato del corso Dopo una discussione teorica su KDD, l'istruttore presenterà casi reali che richiedono l'applicazione di KDD per risolvere un problema I partecipanti prepareranno, selezioneranno e ripuliranno i set di dati di esempio e useranno le loro conoscenze preliminari sui dati per proporre soluzioni basate sui risultati delle loro osservazioni .
7 hours
Overview
Kafka Streams è una libreria clientide per la creazione di applicazioni e microservizi i cui dati vengono trasferiti da e verso un sistema di messaggistica Kafka Tradizionalmente, Apache Kafka si è basata su Apache Spark o Apache Storm per elaborare i dati tra produttori di messaggi e consumatori Chiamando l'API di Kafka Streams da un'applicazione, i dati possono essere elaborati direttamente all'interno di Kafka, evitando la necessità di inviare i dati a un cluster separato per l'elaborazione In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come integrare i flussi di Kafka in una serie di applicazioni Java di esempio che trasmettono dati da e verso Apache Kafka per l'elaborazione del flusso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere le caratteristiche e i vantaggi di Kafka Stream rispetto ad altri framework di elaborazione dello stream Elabora i dati del flusso direttamente all'interno di un cluster Kafka Scrivi un'applicazione Java o Scala o microservizio che si integri con Kafka e Kafka Stream Scrivi un codice conciso che trasforma gli argomenti di input di Kafka in argomenti di output di Kafka Costruisci, impacchetta e distribuisci l'applicazione Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Gli appunti Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .
21 hours
Overview
Le stime per Internet of Things o il valore di mercato dell'IoT sono enormi, poiché per definizione l'IoT è uno strato integrato e diffuso di dispositivi, sensori e potenza di calcolo che si sovrappone a tutto il settore consumer, business-to-business e governativo. L'IoT rappresenterà un numero sempre maggiore di connessioni: 1,9 miliardi di dispositivi oggi e 9 miliardi entro il 2018. Quell'anno sarà all'incirca uguale al numero di smartphone, smart TV, tablet, computer indossabili e PC messi insieme. & Nbsp ; Nello spazio di consumo, molti prodotti e servizi sono già stati introdotti nell'IoT, tra cui cucina e elettrodomestici, parcheggio, RFID, prodotti per l'illuminazione e il riscaldamento e una serie di applicazioni in Internet industriale. & nbsp; Tuttavia le tecnologie sottostanti dell'IoT non sono nulla di nuovo poiché la comunicazione M2M esisteva sin dalla nascita di Internet. Tuttavia, ciò che è cambiato negli ultimi due anni è l'emergere del numero di tecnologie wireless economiche aggiunte dall'enorme adattamento di smartphone e tablet in ogni casa. La crescita esplosiva dei dispositivi mobili ha portato alla domanda attuale di IoT. & Nbsp; A causa delle illimitate opportunità nel settore degli affari IoT, un gran numero di imprenditori di piccole e medie dimensioni sono saliti sul carro della corsa all'oro dell'IoT. Anche a causa dell'emergere dell'elettronica open source e della piattaforma IoT, i costi di sviluppo del sistema IoT e la successiva gestione della sua considerevole produzione sono sempre più accessibili. I proprietari di prodotti elettronici esistenti stanno facendo pressione per integrare il proprio dispositivo con l'applicazione Internet o Mobile. & Nbsp; Questo corso di formazione è inteso per una revisione tecnologica e aziendale di un settore emergente in modo che gli appassionati / imprenditori IoT possano cogliere le basi della tecnologia e degli affari IoT. Obiettivi del corso & nbsp; L'obiettivo principale del corso è quello di introdurre opzioni tecnologiche emergenti, piattaforme e casi di studio sull'implementazione dell'IoT in casa e amp; automazione urbana (case intelligenti e città), Internet industriale, sanità, Governo, Cellulare e altre aree. & nbsp; Introduzione di base di tutti gli elementi della piattaforma IoT-Mechanical, elettronica / sensore, protocolli wireless e wireline, integrazione da mobile a elettronica, integrazione da mobile a enterprise, analisi dei dati e piano di controllo totale. & nbsp; Protocolli wireless M2M per IoT- WiFi, Zigbee / Zwave, Bluetooth, ANT +: quando e dove usare quale? & nbsp; Mobile / Desktop / Web app - per la registrazione, l'acquisizione e il controllo dei dati; Disponibile & nbsp; M2M piattaforma di acquisizione dati per IoT- & ndash; Xively, Omega e NovoTech, ecc. Problemi di sicurezza e soluzioni di sicurezza per IoT Piattaforma elettronica open source / commerciale per IoT-Rasberry Pi, Adruino, ArmMbedLPC ecc. & nbsp; Piattaforma cloud enterprise open source / commerciale per IoT-Ayla, iO Bridge, Libellium, Axeda, Cisco frog cloud Studi di business e tecnologia di alcuni dei dispositivi IoT comuni come & nbsp; domotica, antifurto, veicoli, militari, & nbsp; sanità domestica ecc. Pubblico di destinazione & nbsp; Investitori e imprenditori IoT & nbsp; Manager e ingegneri la cui azienda si sta avventurando nello spazio IoT & nbsp; Analisti aziendali e amp; Gli investitori
14 hours
Overview
Questo corso è destinato a Sviluppatori Formato del corso Lezioni frontali, esercitazioni pratiche, piccoli test lungo la strada per valutare la comprensione .
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma per la logistica dei dati integrata in tempo reale e una semplice piattaforma di elaborazione degli eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata su web per gestire i flussi di dati in tempo reale In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come implementare e gestire Apache NiFi in un ambiente di laboratorio dal vivo Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Apachi NiFi Sorgente, trasformazione e gestione dei dati da diverse fonti di dati distribuite, inclusi database e grandi laghi di dati Automatizza i flussi di dati Abilita analisi di streaming Applicare vari approcci per l'ingestione dei dati Trasforma i Big Data e le informazioni di business Pubblico Amministratori di sistema Ingegneri dei dati Sviluppatori DevOps Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Cloudera Impala è un motore di query SQL con elaborazione massiva parallelamente (MPP) open source per cluster Apache Hadoop Impala consente agli utenti di inviare query SQL a bassa latenza ai dati archiviati in Hadoop Distributed File System e Apache Hbase senza richiedere lo spostamento o la trasformazione dei dati Pubblico Questo corso è rivolto a analisti e scienziati che eseguono analisi sui dati archiviati in Hadoop tramite strumenti di Business Intelligence o SQL Dopo questo corso i delegati saranno in grado di Estrarre informazioni significative dai cluster Hadoop con Impala Scrivi programmi specifici per facilitare la Business Intelligence in Impala SQL Dialect Risolvi Impala .
7 hours
Overview
Questo corso illustra come utilizzare il linguaggio Hive SQL (AKA: Hive HQL, SQL on Hive, HiveQL) per le persone che estraggono i dati da Hive .
21 hours
Overview
Hortonworks Data Platform è una piattaforma di supporto opensource Apache Hadoop che fornisce una base stabile per lo sviluppo di soluzioni di big data nell'ecosistema di Apache Hadoop Questo corso di formazione dal vivo con istruttore introduce Hortonworks e accompagna i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop Alla fine di questa formazione, i partecipanti saranno in grado di: Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti di un progetto Spark Elabora diversi tipi di dati, inclusi strutturati, non strutturati, inmotion e atrest Pubblico Amministratori Hadoop Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Questo corso introduce HBase - un archivio NoSQL su Hadoop Il corso è rivolto agli sviluppatori che utilizzeranno HBase per sviluppare applicazioni e amministratori che gestiranno i cluster HBase Cammineremo uno sviluppatore attraverso l'architettura HBase e la modellazione dei dati e lo sviluppo di applicazioni su HBase Discuterà inoltre l'utilizzo di MapReduce con HBase e alcuni argomenti di amministrazione relativi all'ottimizzazione delle prestazioni Il corso è molto pratico con molti esercizi di laboratorio Durata : 3 giorni Pubblico : sviluppatori e amministratori .
28 hours
Overview
Hadoop è un famoso framework per l'elaborazione di Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintassi e leggibilità del codice In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark usando Python mentre passano attraverso più esempi e casi d'uso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendi i concetti di base di Hadoop, MapReduce, Pig e Spark Usa Python con Hadoop Distributed File System (HDFS), MapReduce, Pig e Spark Usa Snakebite per accedere a livello di codice HDFS in Python Usa mrjob per scrivere lavori MapReduce in Python Scrivi programmi Spark con Python Estendi le funzionalità di pig usando le UDF di Python Gestisci i lavori MapReduce e gli script Pig usando Luigi Pubblico Sviluppatori Professionisti IT Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
28 hours
Overview
Pubblico:

Questo corso intende demistificare la tecnologia big data / hadoop e mostrarlo non è difficile da capire.
14 hours
Overview
Man mano che sempre più software e progetti IT migrano dall'elaborazione locale e dalla gestione dei dati all'elaborazione distribuita e all'archiviazione di big data, i Project Manager stanno riscontrando la necessità di aggiornare le proprie conoscenze e competenze per cogliere concetti e pratiche pertinenti ai progetti e alle opportunità dei Big Data Questo corso introduce i Project Manager al più popolare framework di elaborazione dei Big Data: Hadoop In questo corso di formazione istruito, i partecipanti apprenderanno i componenti principali dell'ecosistema Hadoop e come queste tecnologie possano essere utilizzate per risolvere problemi su vasta scala Nell'apprendimento di queste basi, i partecipanti miglioreranno anche la loro capacità di comunicare con gli sviluppatori e gli implementatori di questi sistemi, nonché con i data scientist e gli analisti coinvolti in molti progetti IT Pubblico Project Manager che desiderano implementare Hadoop nello sviluppo o nell'infrastruttura IT esistente Project Manager che hanno bisogno di comunicare con team interfunzionali che includono ingegneri dei big data, scienziati dei dati e analisti aziendali Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Hadoop è il framework di elaborazione Big Data più popolare .
21 hours
Overview
Apache Hadoop è uno dei framework più popolari per l'elaborazione di Big Data su cluster di server Questo corso approfondisce la gestione dei dati in HDFS, Pig avanzato, Hive e HBase Queste tecniche di programmazione avanzate saranno utili agli sviluppatori esperti di Hadoop Pubblico : sviluppatori Durata: tre giorni Formato: lezioni (50%) e handson lab (50%) .
28 hours
Overview
MonetDB è un database opensource che ha aperto la strada all'approccio alla tecnologia columnstore In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare MonetDB e come ottenere il massimo da esso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendi MonetDB e le sue funzionalità Installa e inizia con MonetDB Esplora ed esegui diverse funzioni e attività in MonetDB Accelerare la consegna del loro progetto massimizzando le capacità di MonetDB Pubblico Sviluppatori Esperti tecnici Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma per la logistica dei dati integrata in tempo reale e una semplice piattaforma di elaborazione degli eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata su web per gestire i flussi di dati in tempo reale In questo corso di formazione dal vivo, istruito, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano un numero di estensioni demo, componenti e processori utilizzando Apache NiFi Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere i concetti di architettura e flusso di dati di NiFi Sviluppa estensioni utilizzando NiFi e API di terze parti Personalizzato sviluppa il proprio processore Apache Nifi Integra ed elabora i dati in tempo reale da formati di file e origini dati diversi e non comuni Pubblico Sviluppatori Ingegneri dei dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Apache Hadoop è il framework più popolare per l'elaborazione di Big Data Hadoop offre capacità di analisi approfondite e approfondite e sta facendo breccia nel mondo dell'analisi BI tradizionale Questo corso introdurrà un analista ai componenti principali del sistema eco Hadoop e alle sue analisi Pubblico Analisti aziendali Durata tre giorni Formato Lezioni frontali e lezioni in laboratorio .
35 hours
Overview
MLlib è la libreria di machine learning (ML) di Spark Il suo obiettivo è rendere l'apprendimento della macchina pratico scalabile e facile Consiste in algoritmi e utilità di apprendimento comuni, tra cui classificazione, regressione, clustering, filtraggio collaborativo, riduzione della dimensionalità, primitive di ottimizzazione di livello inferiore e API di pipeline più elevate Si divide in due pacchetti: sparkmllib contiene l'API originale costruita su RDD sparkml fornisce API higherlevel basate su DataFrames per la costruzione di pipeline ML Pubblico Questo corso è rivolto a ingegneri e sviluppatori che desiderano utilizzare una libreria macchina integrata per Apache Spark .
14 hours
Overview
Apache Zeppelin è un notebook in rete per catturare, esplorare, visualizzare e condividere i dati basati su Hadoop e Spark Questo corso di formazione dal vivo con istruttore introduce i concetti alla base dell'analisi dei dati interattiva e accompagna i partecipanti attraverso l'implementazione e l'utilizzo di Zeppelin in un ambiente singolo o multiutente Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Zeppelin Sviluppa, organizza, esegui e condividi i dati in un'interfaccia basata su browser Visualizza i risultati senza fare riferimento alla riga di comando o ai dettagli del cluster Esegui e collabora a lunghi flussi di lavoro Lavora con uno qualsiasi dei vari linguaggi di plug-in / elaborazione dei dati, come Scala (con Apache Spark), Python (con Apache Spark), Spark SQL, JDBC, Markdown e Shell Integrare Zeppelin con Spark, Flink e Map Reduce Istanze multiutente sicure di Zeppelin con Apache Shiro Pubblico Ingegneri dei dati Analisti di dati Scienziati di dati Sviluppatori di software Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Vespa è un motore open source per l'elaborazione e il trattamento dei big data creato da Yahoo È utilizzato per rispondere alle domande degli utenti, formulare raccomandazioni e fornire contenuti e annunci personalizzati in tempo reale Questo corso di formazione dal vivo con istruttore introduce le sfide di offrire dati di grandi dimensioni e partecipa ai partecipanti attraverso la creazione di un'applicazione in grado di calcolare le risposte alle richieste degli utenti, su dataset di grandi dimensioni in tempo reale Alla fine di questa formazione, i partecipanti saranno in grado di: Usa Vespa per calcolare rapidamente i dati (memorizzare, cercare, classificare, organizzare) al momento di servire mentre un utente aspetta Implementa Vespa in applicazioni esistenti che includono ricerca di funzionalità, consigli e personalizzazione Integrare e distribuire Vespa con i sistemi di big data esistenti come Hadoop e Storm Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Teradata è uno dei popolari sistemi di gestione dei database relazionali È adatto principalmente per la realizzazione di applicazioni di data warehousing di grandi dimensioni Teradata realizza questo concetto con il parallelismo Questo corso introduce i delegati a Teradata .
28 hours
Overview
Talend Open Studio per l'integrazione dei dati è un prodotto di integrazione dei dati opensource utilizzato per combinare, convertire e aggiornare i dati in varie sedi in un'azienda In questo corso di formazione dal vivo istruito, i partecipanti impareranno come utilizzare lo strumento ETL di Talend per eseguire la trasformazione dei dati, l'estrazione dei dati e la connettività con Hadoop, Hive e Pig Entro la fine di questa formazione, i partecipanti saranno in grado di Spiegare i concetti alla base dell'ETL (Estrai, Trasforma, Carica) e la propagazione Definire i metodi ETL e gli strumenti ETL per connettersi con Hadoop Accumula, recupera, digerisce, consuma, trasforma e modula in modo efficiente i big data in base ai requisiti aziendali Carica ed estrai record di grandi dimensioni da Hadoop (opzionale), Hive (opzionale) e NoSQL Pubblico Professionisti della business intelligence Capi progetto Professionisti del database Sviluppatori SQL Sviluppatori ETL Architetti di soluzione Data architects Professionisti del data warehousing Amministratori di sistema e integratori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Nota Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare .

Prossimi corsi Big Data

Fine settimana Big Data corsi, Sera Big Data training, Big Data centro di addestramento, Big Data con istruttore, Fine settimana Big Data training, Sera Big Data corsi, Big Data coaching, Big Data istruttore, Big Data trainer, Big Data corsi di formazione, Big Data classi, Big Data in loco, Big Data corsi privati, Big Data training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking to expand our presence in Italy!

As a Business Development Manager you will:

  • expand business in Italy
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!