Hadoop Training Courses

Hadoop Training Courses

I corsi di formazione Apache Hadoop live condotti da istruttori locali dimostrano attraverso pratiche interattive pratiche i componenti principali dell'ecosistema Hadoop e come queste tecnologie possano essere utilizzate per risolvere problemi su larga scala. L'allenamento Hadoop è disponibile come "allenamento dal vivo in loco" o "allenamento dal vivo a distanza". La formazione on-site in loco può essere svolta localmente presso la sede del cliente in Italia o nei centri di formazione aziendale NobleProg in Italia . La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg: il tuo fornitore di formazione locale

Machine Translated

Recensioni

★★★★★
★★★★★

Schema generale del corso Hadoop

Nome del corso
Durata
Overview
Nome del corso
Durata
Overview
7 hours
Overview
Alluxio è un sistema di archiviazione distribuito virtuale open source che unifica diversi sistemi di archiviazione e consente alle applicazioni di interagire con i dati alla velocità della memoria. È utilizzato da aziende come Intel, Baidu e Alibaba.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Alluxio per collegare diversi framework di calcolo con sistemi di archiviazione e gestire in modo efficiente dati su scala multi-petabyte mentre passano attraverso la creazione di un'applicazione con Alluxio .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Sviluppa un'applicazione con Alluxio
- Connetti sistemi e applicazioni per big data preservando uno spazio dei nomi
- Estrai in modo efficiente il valore dai big data in qualsiasi formato di archiviazione
- Migliora le prestazioni del carico di lavoro
- Distribuire e gestire Alluxio autonomo o in cluster

Pubblico

- Data scientist
- Sviluppatore
- Amministratore di sistema

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
28 hours
Overview
Pubblico:

Questo corso ha lo scopo di demistificare la tecnologia dei big data / hadoop e di dimostrare che non è difficile da capire.
14 hours
Overview
Sqoop è uno strumento software open source per il trasferimento di dati tra Hadoop e database relazionali o mainframe. Può essere utilizzato per importare dati da un sistema di gestione di database relazionali (RDBMS) come My SQL o Oracle o un mainframe in Hadoop Distributed File System (HDFS). Successivamente, i dati possono essere trasformati in Hadoop MapReduce e quindi riesportati nuovamente in un RDBMS.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Sqoop per importare i dati da un database relazionale tradizionale all'archiviazione Hadoop come HDFS o Hive e viceversa.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Sqoop
- Importa i dati da My SQL a HDFS e Hive
- Importa i dati da HDFS e Hive in My SQL

Pubblico

- Amministratori di sistema
- Ingegneri dei dati

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Apache Samza è un framework computazionale asincrono quasi in tempo reale open source per l'elaborazione dei flussi. Utilizza Apache Kafka per la messaggistica e Apache Hadoop YARN per la tolleranza agli errori, l'isolamento del processore, la sicurezza e la gestione delle risorse.

Questa formazione dal vivo con istruttore introduce i principi alla base dei sistemi di messaggistica e dell'elaborazione del flusso distribuito, mentre accompagna i partecipanti attraverso la creazione di un progetto di esempio basato su Samza e l'esecuzione del lavoro.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Usa Samza per semplificare il codice necessario per produrre e consumare messaggi.
- Disaccoppiare la gestione dei messaggi da un'applicazione.
- Usa Samza per implementare il calcolo asincrono quasi in tempo reale.
- Utilizzare l'elaborazione del flusso per fornire un livello superiore di astrazione sui sistemi di messaggistica.

Pubblico

- Sviluppatori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni demo, componenti e processori utilizzando Apache NiFi .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi i concetti di architettura e flusso di dati di NiFi.
- Sviluppa estensioni utilizzando NiFi e API di terze parti.
- Personalizza lo sviluppo del proprio processore Apache Nifi.
- Importa ed elabora dati in tempo reale da formati di file e fonti di dati disparati e non comuni.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come distribuire e gestire Apache NiFi in un ambiente di laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Apachi NiFi.
- Fonte, trasformazione e gestione dei dati da fonti di dati disparate e distribuite, inclusi database e Big Data Lakes.
- Automatizza i flussi di dati.
- Abilita analisi di streaming.
- Applicare vari approcci per l'immissione dei dati.
- Trasforma i Big Data e le informazioni aziendali.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
audience

- sviluppatori

formato del corso

- lezioni, esercitazioni pratiche, piccoli test lungo la strada per valutare la comprensione
21 hours
Overview
Cloudera Impala è un motore di query SQL elaborazione massiccia in parallelo (MPP) open source per i cluster Apache Hadoop .

Impala consente agli utenti di inviare query SQL bassa latenza ai dati archiviati in Hadoop Distributed File System e Apache Hbase senza richiedere lo spostamento o la trasformazione dei dati.

Pubblico

Questo corso è rivolto ad analisti e data scientist che eseguono analisi sui dati archiviati in Hadoop tramite strumenti di Business Intelligence o SQL .

Dopo questo corso, i delegati potranno farlo

- Estrai informazioni significative dai cluster Hadoop con Impala .
- Scrivi programmi specifici per facilitare la Business Intelligence in Impala SQL Dialect.
- Impala problemi di Impala .
7 hours
Overview
Questo corso illustra come utilizzare il linguaggio Hive SQL (AKA: Hive HQL, SQL on Hive , Hive QL) per le persone che estraggono dati da Hive
21 hours
Overview
Hortonworks Data Platform (HDP) è una piattaforma di supporto open source Apache Hadoop che fornisce una base stabile per lo sviluppo di soluzioni per big data sull'ecosistema Apache Hadoop .

Questa formazione dal vivo con istruttore (in loco o remoto) introduce la Hortonworks Data Platform (HDP) e guida i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala.
- Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark.
- Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti in un progetto Spark.
- Elaborazione di diversi tipi di dati, inclusi strutturati, non strutturati, in movimento e a riposo.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Questo corso introduce HBase, un archivio No SQL su Hadoop . Il corso è destinato agli sviluppatori che useranno HBase per sviluppare applicazioni e agli amministratori che gestiranno i cluster HBase.

Seguiremo uno sviluppatore attraverso l'architettura HBase e la modellazione dei dati e lo sviluppo di applicazioni su HBase. Discuterà anche dell'uso di MapReduce con HBase e di alcuni argomenti di amministrazione relativi all'ottimizzazione delle prestazioni. Il corso è molto pratico con molti esercizi di laboratorio.

Durata : 3 giorni

Pubblico : sviluppatori e amministratori
28 hours
Overview
Hadoop è un famoso framework per l'elaborazione di Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintassi e leggibilità del codice In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark usando Python mentre passano attraverso più esempi e casi d'uso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendi i concetti di base di Hadoop, MapReduce, Pig e Spark Usa Python con Hadoop Distributed File System (HDFS), MapReduce, Pig e Spark Usa Snakebite per accedere a livello di codice HDFS in Python Usa mrjob per scrivere lavori MapReduce in Python Scrivi programmi Spark con Python Estendi le funzionalità di pig usando le UDF di Python Gestisci i lavori MapReduce e gli script Pig usando Luigi Pubblico Sviluppatori Professionisti IT Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Man mano che sempre più software e progetti IT migrano dall'elaborazione locale e dalla gestione dei dati all'elaborazione distribuita e all'archiviazione di big data, i Project Manager stanno riscontrando la necessità di aggiornare le proprie conoscenze e competenze per cogliere concetti e pratiche pertinenti ai progetti e alle opportunità dei Big Data Questo corso introduce i Project Manager al più popolare framework di elaborazione dei Big Data: Hadoop In questo corso di formazione istruito, i partecipanti apprenderanno i componenti principali dell'ecosistema Hadoop e come queste tecnologie possano essere utilizzate per risolvere problemi su vasta scala Nell'apprendimento di queste basi, i partecipanti miglioreranno anche la loro capacità di comunicare con gli sviluppatori e gli implementatori di questi sistemi, nonché con i data scientist e gli analisti coinvolti in molti progetti IT Pubblico Project Manager che desiderano implementare Hadoop nello sviluppo o nell'infrastruttura IT esistente Project Manager che hanno bisogno di comunicare con team interfunzionali che includono ingegneri dei big data, scienziati dei dati e analisti aziendali Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Apache Ambari è una piattaforma di gestione open source per il provisioning, la gestione, il monitoraggio e la protezione dei cluster Apache Hadoop .

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno gli strumenti e le pratiche di gestione forniti da Ambari per gestire con successo i cluster Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Crea un cluster di Big Data dal vivo usando Ambari
- Applica le caratteristiche e le funzionalità avanzate di Ambari a vari casi d'uso
- Aggiungi e rimuovi i nodi senza interruzioni, se necessario
- Migliora le prestazioni di un cluster Hadoop attraverso l'ottimizzazione e la modifica

Pubblico

- DevOps
- Amministratori di sistema
- DBA
- Professionisti dei test Hadoop

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Overview
Hadoop è il framework di elaborazione Big Data più popolare .
21 hours
Overview
Apache Hadoop è uno dei framework più popolari per l'elaborazione di Big Data su cluster di server. Questo corso approfondisce la gestione dei dati in HDFS, Pig avanzato, Hive e HBase. Queste tecniche di programmazione avanzate saranno utili per gli sviluppatori Hadoop esperti.

Pubblico : sviluppatori

Durata: tre giorni

Formato: lezioni frontali (50%) e esercitazioni pratiche (50%).
28 hours
Overview
Apache Hadoop è il framework più popolare per l'elaborazione di Big Data su cluster di server. Questo corso introdurrà uno sviluppatore a vari componenti (HDFS, MapReduce, Pig, Hive e HBase) dell'ecosistema Hadoop .
21 hours
Overview
Apache Hadoop è il framework più popolare per l'elaborazione di Big Data Hadoop offre capacità di analisi approfondite e approfondite e sta facendo breccia nel mondo dell'analisi BI tradizionale Questo corso introdurrà un analista ai componenti principali del sistema eco Hadoop e alle sue analisi Pubblico Analisti aziendali Durata tre giorni Formato Lezioni frontali e lezioni in laboratorio .
21 hours
Overview
Apache Hadoop è il framework più popolare per l'elaborazione di Big Data su cluster di server. In questo corso di tre (facoltativamente, quattro) giorni, i partecipanti apprenderanno i vantaggi aziendali e i casi d'uso per Hadoop e il suo ecosistema, come pianificare la distribuzione e la crescita dei cluster, come installare, gestire, monitorare, risolvere i problemi e ottimizzare Hadoop . Eserciteranno inoltre il caricamento di dati in blocco dei cluster, acquisiranno familiarità con varie distribuzioni Hadoop e si eserciteranno nell'installazione e nella gestione degli strumenti dell'ecosistema Hadoop . Il corso termina con la discussione sulla protezione del cluster con Kerberos.

“… I materiali sono stati preparati molto bene e sono stati accuratamente coperti. Il laboratorio è stato molto utile e ben organizzato ”
- Andrew Nguyen, ingegnere principale di integrazione DW, Microsoft Online Advertising

Pubblico

Amministratori di Hadoop

Formato

Lezioni frontali e esercitazioni pratiche, bilancio approssimativo 60% lezioni frontali, 40% laboratori.
21 hours
Overview
Il corso è dedicato agli specialisti IT che sono alla ricerca di una soluzione per archiviare ed elaborare grandi set di dati in un ambiente di sistema distribuito

Obiettivo del corso:

Acquisire conoscenze sull'amministrazione del cluster Hadoop
14 hours
Overview
Datameer è una piattaforma di analisi e business intelligence basata su Hadoop Consente agli utenti finali di accedere, esplorare e correlare dati di grandi dimensioni, strutturati, semistrutturati e non strutturati in modo facile da usare In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come utilizzare Datameer per superare la curva di apprendimento ripida di Hadoop mentre passano attraverso l'installazione e l'analisi di una serie di fonti di dati di grandi dimensioni Alla fine di questa formazione, i partecipanti saranno in grado di: Creare, curare e esplorare in modo interattivo un lago di dati aziendali Accedere ai data warehouse aziendali, ai database transazionali e ad altri negozi di analisi Utilizzare l'interfaccia utente di un foglio di calcolo per progettare condotte di elaborazione dati endtoend Accedi a funzioni preconfigurate per esplorare relazioni dati complesse Utilizzare le procedure guidate di draganddrop per visualizzare i dati e creare dashboard Utilizza tabelle, grafici, grafici e mappe per analizzare i risultati delle query Pubblico Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
L'analisi dei big data prevede il processo di esame di grandi quantità di set di dati diversi al fine di scoprire correlazioni, schemi nascosti e altre informazioni utili.

L'industria sanitaria ha enormi quantità di dati medici e clinici eterogenei complessi. L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel ricavare approfondimenti per migliorare l'erogazione dell'assistenza sanitaria. Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e applicazioni pratiche in un ambiente clinico.

In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercitazioni pratiche in laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark
- Comprendi le caratteristiche dei dati medici
- Applicare tecniche di big data per gestire i dati medici
- Studiare sistemi e algoritmi per big data nel contesto di applicazioni sanitarie

Pubblico

- Sviluppatori
- Scienziati dei dati

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche.

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Questo corso è destinato a sviluppatori, architetti, data scientist o qualsiasi profilo che richieda l'accesso ai dati in modo intensivo o su base regolare.

L'obiettivo principale del corso è la manipolazione e la trasformazione dei dati.

Tra gli strumenti dell'ecosistema Hadoop questo corso include l'uso di Pig e Hive entrambi ampiamente utilizzati per la trasformazione e la manipolazione dei dati.

Questa formazione affronta anche le metriche e l'ottimizzazione delle prestazioni.

Il corso è interamente pratico ed è scandito da presentazioni degli aspetti teorici.
35 hours
Overview
Pubblico:

Il corso è destinato agli specialisti IT che cercano una soluzione per archiviare ed elaborare grandi set di dati in un ambiente di sistema distribuito

Go al:

Conoscenza approfondita dell'amministrazione dei cluster Hadoop .
14 hours
Overview
Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
Fine settimana Hadoop corsi, Sera Apache Hadoop training, Apache Hadoop centro di addestramento, Apache Hadoop con istruttore, Fine settimana Apache Hadoop training, Sera Apache Hadoop corsi, Hadoop coaching, Apache Hadoop istruttore, Hadoop trainer, Apache Hadoop corsi di formazione, Apache Hadoop classi, Hadoop in loco, Apache Hadoop corsi privati, Hadoop training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking to expand our presence in Italy!

As a Business Development Manager you will:

  • expand business in Italy
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!