Hadoop Training Courses

Hadoop Training Courses

I corsi di formazione Apache Hadoop live condotti da istruttori locali dimostrano attraverso pratiche interattive pratiche i componenti principali dell'ecosistema Hadoop e come queste tecnologie possano essere utilizzate per risolvere problemi su larga scala. L'allenamento Hadoop è disponibile come "allenamento dal vivo in loco" o "allenamento dal vivo a distanza". La formazione on-site in loco può essere svolta localmente presso la sede del cliente in Italia o nei centri di formazione aziendale NobleProg in Italia . La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg: il tuo fornitore di formazione locale

Machine Translated

Recensioni

★★★★★
★★★★★

Schema generale del corso Hadoop

Nome del corso
Durata
Overview
Nome del corso
Durata
Overview
21 hours
Python è un linguaggio di programmazione scalabile, flessibile e ampiamente utilizzato per la scienza dei dati e l'apprendimento automatico. Spark è un motore di elaborazione dei dati utilizzato per la ricerca, l'analisi e la trasformazione dei big data, mentre Hadoop è un framework della libreria software per lo storage e il trattamento dei dati su larga scala.

Questo allenamento diretto da istruttori (online o on-site) è rivolto a sviluppatori che vogliono utilizzare e integrare Spark, Hadoop, e Python per elaborare, analizzare e trasformare grandi e complessi set di dati.

Al termine di questo corso, i partecipanti saranno in grado di:

Crea l'ambiente necessario per iniziare il trattamento dei big data con Spark, Hadoop, e Python. Comprendere le caratteristiche, i componenti chiave e l'architettura di Spark e Hadoop. Scopri come integrare Spark, Hadoop, e Python per il trattamento dei big data. Esplora gli strumenti nell'ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, e Flume). Costruisci sistemi di raccomandazione di filtrazione collaborativa simili a Netflix, YouTube, Amazon, Spotify e Google. Apache Mahout per scalare gli algoritmi di apprendimento automatico.

Il formato del corso

Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.

Opzioni di personalizzazione del corso

Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
7 hours
Questo corso illustra come utilizzare il linguaggio Hive SQL (AKA: Hive HQL, SQL on Hive , Hive QL) per le persone che estraggono dati da Hive
14 hours
Datameer è una piattaforma di analisi e business intelligence basata su Hadoop Consente agli utenti finali di accedere, esplorare e correlare dati di grandi dimensioni, strutturati, semistrutturati e non strutturati in modo facile da usare In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come utilizzare Datameer per superare la curva di apprendimento ripida di Hadoop mentre passano attraverso l'installazione e l'analisi di una serie di fonti di dati di grandi dimensioni Alla fine di questa formazione, i partecipanti saranno in grado di: Creare, curare e esplorare in modo interattivo un lago di dati aziendali Accedere ai data warehouse aziendali, ai database transazionali e ad altri negozi di analisi Utilizzare l'interfaccia utente di un foglio di calcolo per progettare condotte di elaborazione dati endtoend Accedi a funzioni preconfigurate per esplorare relazioni dati complesse Utilizzare le procedure guidate di draganddrop per visualizzare i dati e creare dashboard Utilizza tabelle, grafici, grafici e mappe per analizzare i risultati delle query Pubblico Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment

Course goal:

Getting knowledge regarding Hadoop cluster administration
35 hours
Pubblico:

Il corso è destinato agli specialisti IT che cercano una soluzione per archiviare ed elaborare grandi set di dati in un ambiente di sistema distribuito

Go al:

Conoscenza approfondita dell'amministrazione dei cluster Hadoop .
28 hours
Audience:

This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 hours
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.
21 hours
Apache Hadoop è uno dei framework più popolari per l'elaborazione di Big Data su cluster di server. Questo corso approfondisce la gestione dei dati in HDFS, Pig avanzato, Hive e HBase. Queste tecniche di programmazione avanzate saranno utili per gli sviluppatori Hadoop esperti.

Pubblico : sviluppatori

Durata: tre giorni

Formato: lezioni frontali (50%) e esercitazioni pratiche (50%).
21 hours
This course introduces HBase – a NoSQL store on top of Hadoop. The course is intended for developers who will be using HBase to develop applications, and administrators who will manage HBase clusters.

We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course is very hands-on with lots of lab exercises.

Duration : 3 days

Audience : Developers & Administrators
21 hours
Apache Hadoop è il framework più popolare per l'elaborazione di Big Data su cluster di server. In questo corso di tre (facoltativamente, quattro) giorni, i partecipanti apprenderanno i vantaggi aziendali e i casi d'uso per Hadoop e il suo ecosistema, come pianificare la distribuzione e la crescita dei cluster, come installare, gestire, monitorare, risolvere i problemi e ottimizzare Hadoop . Eserciteranno inoltre il caricamento di dati in blocco dei cluster, acquisiranno familiarità con varie distribuzioni Hadoop e si eserciteranno nell'installazione e nella gestione degli strumenti dell'ecosistema Hadoop . Il corso termina con la discussione sulla protezione del cluster con Kerberos.

“… I materiali sono stati preparati molto bene e sono stati accuratamente coperti. Il laboratorio è stato molto utile e ben organizzato ”
- Andrew Nguyen, ingegnere principale di integrazione DW, Microsoft Online Advertising

Pubblico

Amministratori di Hadoop

Formato

Lezioni frontali e esercitazioni pratiche, bilancio approssimativo 60% lezioni frontali, 40% laboratori.
21 hours
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics

Audience

Business Analysts

Duration

three days

Format

Lectures and hands on labs.
21 hours
Hadoop è il framework di elaborazione Big Data più popolare .
14 hours
Audience

- Developers

Format of the Course

- Lectures, hands-on practice, small tests along the way to gauge understanding
21 hours
Questo corso è destinato a sviluppatori, architetti, data scientist o qualsiasi profilo che richieda l'accesso ai dati in modo intensivo o su base regolare.

L'obiettivo principale del corso è la manipolazione e la trasformazione dei dati.

Tra gli strumenti dell'ecosistema Hadoop questo corso include l'uso di Pig e Hive entrambi ampiamente utilizzati per la trasformazione e la manipolazione dei dati.

Questa formazione affronta anche le metriche e l'ottimizzazione delle prestazioni.

Il corso è interamente pratico ed è scandito da presentazioni degli aspetti teorici.
14 hours
In this instructor-led training in Italia, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve.

Audience

- Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
- Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 hours
Apache Samza è un framework computazionale asincrono quasi in tempo reale open source per l'elaborazione dei flussi. Utilizza Apache Kafka per la messaggistica e Apache Hadoop YARN per la tolleranza agli errori, l'isolamento del processore, la sicurezza e la gestione delle risorse.

Questa formazione dal vivo con istruttore introduce i principi alla base dei sistemi di messaggistica e dell'elaborazione del flusso distribuito, mentre accompagna i partecipanti attraverso la creazione di un progetto di esempio basato su Samza e l'esecuzione del lavoro.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Usa Samza per semplificare il codice necessario per produrre e consumare messaggi.
- Disaccoppiare la gestione dei messaggi da un'applicazione.
- Usa Samza per implementare il calcolo asincrono quasi in tempo reale.
- Utilizzare l'elaborazione del flusso per fornire un livello superiore di astrazione sui sistemi di messaggistica.

Pubblico

- Sviluppatori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
7 hours
Alluxio è un sistema di archiviazione distribuito virtuale open source che unisce sistemi di archiviazione diversi e consente alle applicazioni di interagire con i dati a velocità di memoria. È utilizzato da aziende come Intel, Baidu e Alibaba.

In questo allenamento guidato da istruttori, i partecipanti impareranno come utilizzare Alluxio per collegare diversi framework di calcolo con i sistemi di archiviazione e gestire efficacemente i dati di scala multi-petabyte mentre passano attraverso la creazione di un'applicazione con Alluxio.

Al termine di questo corso, i partecipanti saranno in grado di:

Sviluppare un'applicazione con Alluxio Connettere i sistemi di big data e le applicazioni mantenendo uno spazio di nome Estratto efficiente di valore da grandi dati in qualsiasi formato di archiviazione Migliorare le prestazioni del lavoro Sviluppare e gestire Alluxio indipendente o clusterato

Il pubblico

Scienziato dei dati Sviluppatore amministratore del sistema

Il formato del corso

Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
14 hours
Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come distribuire e gestire Apache NiFi in un ambiente di laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Apachi NiFi.
- Fonte, trasformazione e gestione dei dati da fonti di dati disparate e distribuite, inclusi database e Big Data Lakes.
- Automatizza i flussi di dati.
- Abilita analisi di streaming.
- Applicare vari approcci per l'immissione dei dati.
- Trasforma i Big Data e le informazioni aziendali.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale.

In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni demo, componenti e processori utilizzando Apache NiFi .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi i concetti di architettura e flusso di dati di NiFi.
- Sviluppa estensioni utilizzando NiFi e API di terze parti.
- Personalizza lo sviluppo del proprio processore Apache Nifi.
- Importa ed elabora dati in tempo reale da formati di file e fonti di dati disparati e non comuni.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
28 hours
Hadoop è un framework di elaborazione popolare Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintasi e leggibilità del codice.

In questo allenamento guidato da istruttori, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark utilizzando Python mentre passano attraverso diversi esempi e utilizzano casi.

Al termine di questo corso, i partecipanti saranno in grado di:

Comprendere i concetti di base dietro Hadoop, MapReduce, Pig, e Spark Utilizzare Python con Hadoop Distribuito File System (HDFS), MapReduce, Pig, e Spark Utilizzare Snakebite per accedere programmaticamente a HDFS all'interno Python Utilizzare mrjob per scrivere MapReduce lavori in Python Scrivere programmi Spark con Python Estendere la funzionalità del maiale utilizzando Python UDF Gestione MapReduce posti di lavoro e script di Pig utilizzando Luigi

Il pubblico

sviluppatori I professionisti

Il formato del corso

Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
14 hours
Sqoop è uno strumento software open source per il trasferimento di dati tra Hadoop e database relazionali o mainframe. Può essere utilizzato per importare dati da un sistema di gestione di database relazionali (RDBMS) come My SQL o Oracle o un mainframe in Hadoop Distributed File System (HDFS). Successivamente, i dati possono essere trasformati in Hadoop MapReduce e quindi riesportati nuovamente in un RDBMS.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Sqoop per importare i dati da un database relazionale tradizionale all'archiviazione Hadoop come HDFS o Hive e viceversa.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Sqoop
- Importa i dati da My SQL a HDFS e Hive
- Importa i dati da HDFS e Hive in My SQL

Pubblico

- Amministratori di sistema
- Ingegneri dei dati

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
L'analisi dei big data prevede il processo di esame di grandi quantità di set di dati diversi al fine di scoprire correlazioni, schemi nascosti e altre informazioni utili.

L'industria sanitaria ha enormi quantità di dati medici e clinici eterogenei complessi. L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel ricavare approfondimenti per migliorare l'erogazione dell'assistenza sanitaria. Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e applicazioni pratiche in un ambiente clinico.

In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercitazioni pratiche in laboratorio dal vivo.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark
- Comprendi le caratteristiche dei dati medici
- Applicare tecniche di big data per gestire i dati medici
- Studiare sistemi e algoritmi per big data nel contesto di applicazioni sanitarie

Pubblico

- Sviluppatori
- Scienziati dei dati

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche.

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
35 hours
Apache Hadoop è un popolare framework di elaborazione dei dati per il trattamento di grandi set di dati su molti computer.

Questo istruttore guidato, la formazione in diretta (online o on-site) è rivolto agli amministratori del sistema che vogliono imparare come configurare, implementare e gestire Hadoop cluster all'interno della loro organizzazione.

Al termine di questo corso, i partecipanti saranno in grado di:

Installare e configurare Apache Hadoop. Comprendere i quattro componenti principali dell'ecosistema Hadoop: HDFS, MapReduce, YARN e Hadoop Common. Utilizzare Hadoop Distribuito File System (HDFS) per scalare un cluster a centinaia o migliaia di nodi. di Imposta HDFS per funzionare come motore di archiviazione per i depositi Spark on-premise. Imposta Spark per accedere a soluzioni di archiviazione alternative come Amazon S3 e NoSQL sistemi di database come Redis, Elasticsearch, Couchbase, Aerospike, ecc. Eseguire compiti amministrativi come la fornitura, la gestione, il monitoraggio e la sicurezza di un cluster Apache.

Il formato del corso

Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.

Opzioni di personalizzazione del corso

Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
21 hours
Cloudera Impala è un motore di domanda di elaborazione massivamente parallela open source (MPP) SQL per i cluster Apache Hadoop.

Impala consente agli utenti di rilasciare domande a bassa latenza per i dati memorizzati in Hadoop Distribuito File System e Apache Hbase senza richiedere il movimento o la trasformazione dei dati.

Il pubblico

Questo corso si rivolge agli analisti e agli scienziati dei dati che svolgono analisi sui dati memorizzati in Hadoop tramite strumentiBusiness Intelligence o SQL.

Dopo questo corso i delegati saranno in grado di

Eseguire informazioni significative da Hadoop cluster con Impala. Scrivere programmi specifici per facilitare Business Intelligence in Impala SQL Dialect. Il disagio Impala
21 hours
Apache Ambari è una piattaforma di gestione open source per il provisioning, la gestione, il monitoraggio e la protezione dei cluster Apache Hadoop .

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno gli strumenti e le pratiche di gestione forniti da Ambari per gestire con successo i cluster Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Crea un cluster di Big Data dal vivo usando Ambari
- Applica le caratteristiche e le funzionalità avanzate di Ambari a vari casi d'uso
- Aggiungi e rimuovi i nodi senza interruzioni, se necessario
- Migliora le prestazioni di un cluster Hadoop attraverso l'ottimizzazione e la modifica

Pubblico

- DevOps
- Amministratori di sistema
- DBA
- Professionisti dei test Hadoop

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Hortonworks Data Platform (HDP) è una piattaforma di supporto open source Apache Hadoop che fornisce una base stabile per lo sviluppo di soluzioni per big data sull'ecosistema Apache Hadoop .

Questa formazione dal vivo con istruttore (in loco o remoto) introduce la Hortonworks Data Platform (HDP) e guida i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala.
- Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark.
- Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti in un progetto Spark.
- Elaborazione di diversi tipi di dati, inclusi strutturati, non strutturati, in movimento e a riposo.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.

Last Updated:

Prossimi corsi Hadoop

Fine settimana Hadoop corsi, Sera Apache Hadoop training, Apache Hadoop centro di addestramento, Apache Hadoop con istruttore, Fine settimana Apache Hadoop training, Sera Apache Hadoop corsi, Hadoop coaching, Apache Hadoop istruttore, Hadoop trainer, Apache Hadoop corsi di formazione, Apache Hadoop classi, Hadoop in loco, Apache Hadoop corsi privati, Hadoop training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking for a good mixture of IT and soft skills in Italy!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions