
Local instructor-led live Hadoop training courses in Italia.
Apache Hadoop Subcategories
Hadoop Course Outlines
Nome del corso
Durata
Overview
Nome del corso
Durata
Overview
21 hours
Python è un linguaggio di programmazione scalabile, flessibile e ampiamente utilizzato per la scienza dei dati e l'apprendimento automatico. Spark è un motore di elaborazione dei dati utilizzato per la ricerca, l'analisi e la trasformazione dei big data, mentre Hadoop è un framework della libreria software per lo storage e il trattamento dei dati su larga scala.
Questo allenamento diretto da istruttori (online o on-site) è rivolto a sviluppatori che vogliono utilizzare e integrare Spark, Hadoop, e Python per elaborare, analizzare e trasformare grandi e complessi set di dati.
Al termine di questo corso, i partecipanti saranno in grado di:
-
Crea l'ambiente necessario per iniziare il trattamento dei big data con Spark, Hadoop, e Python.
Comprendere le caratteristiche, i componenti chiave e l'architettura di Spark e Hadoop.
Scopri come integrare Spark, Hadoop, e Python per il trattamento dei big data.
Esplora gli strumenti nell'ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, e Flume).
Costruisci sistemi di raccomandazione di filtrazione collaborativa simili a Netflix, YouTube, Amazon, Spotify e Google.
Apache Mahout per scalare gli algoritmi di apprendimento automatico.
-
Interattiva lezione e discussione.
Molti esercizi e pratiche.
Implementazione a mano in un ambiente live-lab.
-
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
7 hours
Questo corso illustra come utilizzare il linguaggio Hive SQL (AKA: Hive HQL, SQL on Hive , Hive QL) per le persone che estraggono dati da Hive
14 hours
Datameer è una piattaforma di analisi e business intelligence basata su Hadoop Consente agli utenti finali di accedere, esplorare e correlare dati di grandi dimensioni, strutturati, semistrutturati e non strutturati in modo facile da usare In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come utilizzare Datameer per superare la curva di apprendimento ripida di Hadoop mentre passano attraverso l'installazione e l'analisi di una serie di fonti di dati di grandi dimensioni Alla fine di questa formazione, i partecipanti saranno in grado di: Creare, curare e esplorare in modo interattivo un lago di dati aziendali Accedere ai data warehouse aziendali, ai database transazionali e ad altri negozi di analisi Utilizzare l'interfaccia utente di un foglio di calcolo per progettare condotte di elaborazione dati endtoend Accedi a funzioni preconfigurate per esplorare relazioni dati complesse Utilizzare le procedure guidate di draganddrop per visualizzare i dati e creare dashboard Utilizza tabelle, grafici, grafici e mappe per analizzare i risultati delle query Pubblico Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
7 hours
Alluxio è un sistema di archiviazione distribuito virtuale open source che unisce sistemi di archiviazione diversi e consente alle applicazioni di interagire con i dati a velocità di memoria. È utilizzato da aziende come Intel, Baidu e Alibaba.
In questo allenamento guidato da istruttori, i partecipanti impareranno come utilizzare Alluxio per collegare diversi framework di calcolo con i sistemi di archiviazione e gestire efficacemente i dati di scala multi-petabyte mentre passano attraverso la creazione di un'applicazione con Alluxio.
Al termine di questo corso, i partecipanti saranno in grado di:
-
Sviluppare un'applicazione con Alluxio
Connettere i sistemi di big data e le applicazioni mantenendo uno spazio di nome
Estratto efficiente di valore da grandi dati in qualsiasi formato di archiviazione
Migliorare le prestazioni del lavoro
Sviluppare e gestire Alluxio indipendente o clusterato
-
Scienziato dei dati
Sviluppatore
amministratore del sistema
-
Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
35 hours
Pubblico: Il corso è destinato agli specialisti IT che cercano una soluzione per archiviare ed elaborare grandi set di dati in un ambiente di sistema distribuito Go al: Conoscenza approfondita dell'amministrazione dei cluster Hadoop .
21 hours
Questo corso è destinato a sviluppatori, architetti, data scientist o qualsiasi profilo che richieda l'accesso ai dati in modo intensivo o su base regolare. L'obiettivo principale del corso è la manipolazione e la trasformazione dei dati. Tra gli strumenti dell'ecosistema Hadoop questo corso include l'uso di Pig e Hive entrambi ampiamente utilizzati per la trasformazione e la manipolazione dei dati. Questa formazione affronta anche le metriche e l'ottimizzazione delle prestazioni. Il corso è interamente pratico ed è scandito da presentazioni degli aspetti teorici.
21 hours
L'analisi dei big data prevede il processo di esame di grandi quantità di set di dati diversi al fine di scoprire correlazioni, schemi nascosti e altre informazioni utili. L'industria sanitaria ha enormi quantità di dati medici e clinici eterogenei complessi. L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel ricavare approfondimenti per migliorare l'erogazione dell'assistenza sanitaria. Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e applicazioni pratiche in un ambiente clinico. In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercitazioni pratiche in laboratorio dal vivo. Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark
- Comprendi le caratteristiche dei dati medici
- Applicare tecniche di big data per gestire i dati medici
- Studiare sistemi e algoritmi per big data nel contesto di applicazioni sanitarie
- Sviluppatori
- Scienziati dei dati
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche.
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Il corso è dedicato agli specialisti IT che sono alla ricerca di una soluzione per archiviare ed elaborare grandi set di dati in un ambiente di sistema distribuito Obiettivo del corso: Acquisire conoscenze sull'amministrazione del cluster Hadoop
21 hours
Apache Hadoop è il framework più popolare per l'elaborazione di Big Data su cluster di server. In questo corso di tre (facoltativamente, quattro) giorni, i partecipanti apprenderanno i vantaggi aziendali e i casi d'uso per Hadoop e il suo ecosistema, come pianificare la distribuzione e la crescita dei cluster, come installare, gestire, monitorare, risolvere i problemi e ottimizzare Hadoop . Eserciteranno inoltre il caricamento di dati in blocco dei cluster, acquisiranno familiarità con varie distribuzioni Hadoop e si eserciteranno nell'installazione e nella gestione degli strumenti dell'ecosistema Hadoop . Il corso termina con la discussione sulla protezione del cluster con Kerberos. “… I materiali sono stati preparati molto bene e sono stati accuratamente coperti. Il laboratorio è stato molto utile e ben organizzato ”
- Andrew Nguyen, ingegnere principale di integrazione DW, Microsoft Online Advertising Pubblico Amministratori di Hadoop Formato Lezioni frontali e esercitazioni pratiche, bilancio approssimativo 60% lezioni frontali, 40% laboratori.
- Andrew Nguyen, ingegnere principale di integrazione DW, Microsoft Online Advertising Pubblico Amministratori di Hadoop Formato Lezioni frontali e esercitazioni pratiche, bilancio approssimativo 60% lezioni frontali, 40% laboratori.
21 hours
Apache Hadoop è il framework più popolare per l'elaborazione di Big Data Hadoop offre capacità di analisi approfondite e approfondite e sta facendo breccia nel mondo dell'analisi BI tradizionale Questo corso introdurrà un analista ai componenti principali del sistema eco Hadoop e alle sue analisi Pubblico Analisti aziendali Durata tre giorni Formato Lezioni frontali e lezioni in laboratorio .
28 hours
Apache Hadoop è il framework più popolare per l'elaborazione di Big Data su cluster di server. Questo corso introdurrà uno sviluppatore a vari componenti (HDFS, MapReduce, Pig, Hive e HBase) dell'ecosistema Hadoop .
21 hours
Apache Hadoop è uno dei framework più popolari per l'elaborazione di Big Data su cluster di server. Questo corso approfondisce la gestione dei dati in HDFS, Pig avanzato, Hive e HBase. Queste tecniche di programmazione avanzate saranno utili per gli sviluppatori Hadoop esperti. Pubblico : sviluppatori Durata: tre giorni Formato: lezioni frontali (50%) e esercitazioni pratiche (50%).
21 hours
Hadoop è il framework di elaborazione Big Data più popolare .
14 hours
Man mano che sempre più software e progetti IT migrano dall'elaborazione locale e dalla gestione dei dati all'elaborazione distribuita e all'archiviazione di big data, i Project Manager stanno riscontrando la necessità di aggiornare le proprie conoscenze e competenze per cogliere concetti e pratiche pertinenti ai progetti e alle opportunità dei Big Data Questo corso introduce i Project Manager al più popolare framework di elaborazione dei Big Data: Hadoop In questo corso di formazione istruito, i partecipanti apprenderanno i componenti principali dell'ecosistema Hadoop e come queste tecnologie possano essere utilizzate per risolvere problemi su vasta scala Nell'apprendimento di queste basi, i partecipanti miglioreranno anche la loro capacità di comunicare con gli sviluppatori e gli implementatori di questi sistemi, nonché con i data scientist e gli analisti coinvolti in molti progetti IT Pubblico Project Manager che desiderano implementare Hadoop nello sviluppo o nell'infrastruttura IT esistente Project Manager che hanno bisogno di comunicare con team interfunzionali che includono ingegneri dei big data, scienziati dei dati e analisti aziendali Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
28 hours
Pubblico: Questo corso ha lo scopo di demistificare la tecnologia dei big data / hadoop e di dimostrare che non è difficile da capire.
28 hours
Hadoop è un framework di elaborazione popolare Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintasi e leggibilità del codice.
In questo allenamento guidato da istruttori, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark utilizzando Python mentre passano attraverso diversi esempi e utilizzano casi.
Al termine di questo corso, i partecipanti saranno in grado di:
-
Comprendere i concetti di base dietro Hadoop, MapReduce, Pig, e Spark
Utilizzare Python con Hadoop Distribuito File System (HDFS), MapReduce, Pig, e Spark
Utilizzare Snakebite per accedere programmaticamente a HDFS all'interno Python
Utilizzare mrjob per scrivere MapReduce lavori in Python
Scrivere programmi Spark con Python
Estendere la funzionalità del maiale utilizzando Python UDF
Gestione MapReduce posti di lavoro e script di Pig utilizzando Luigi
-
sviluppatori
I professionisti
-
Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
35 hours
Apache Hadoop è un popolare framework di elaborazione dei dati per il trattamento di grandi set di dati su molti computer.
Questo istruttore guidato, la formazione in diretta (online o on-site) è rivolto agli amministratori del sistema che vogliono imparare come configurare, implementare e gestire Hadoop cluster all'interno della loro organizzazione.
Al termine di questo corso, i partecipanti saranno in grado di:
-
Installare e configurare Apache Hadoop.
Comprendere i quattro componenti principali dell'ecosistema Hadoop: HDFS, MapReduce, YARN e Hadoop Common.
Utilizzare Hadoop Distribuito File System (HDFS) per scalare un cluster a centinaia o migliaia di nodi. di
Imposta HDFS per funzionare come motore di archiviazione per i depositi Spark on-premise.
Imposta Spark per accedere a soluzioni di archiviazione alternative come Amazon S3 e NoSQL sistemi di database come Redis, Elasticsearch, Couchbase, Aerospike, ecc.
Eseguire compiti amministrativi come la fornitura, la gestione, il monitoraggio e la sicurezza di un cluster Apache.
-
Interattiva lezione e discussione.
Molti esercizi e pratiche.
Implementazione a mano in un ambiente live-lab.
-
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
21 hours
Questo corso introduce HBase, un archivio No SQL su Hadoop . Il corso è destinato agli sviluppatori che useranno HBase per sviluppare applicazioni e agli amministratori che gestiranno i cluster HBase. Seguiremo uno sviluppatore attraverso l'architettura HBase e la modellazione dei dati e lo sviluppo di applicazioni su HBase. Discuterà anche dell'uso di MapReduce con HBase e di alcuni argomenti di amministrazione relativi all'ottimizzazione delle prestazioni. Il corso è molto pratico con molti esercizi di laboratorio.
Durata : 3 giorni Pubblico : sviluppatori e amministratori
Durata : 3 giorni Pubblico : sviluppatori e amministratori
14 hours
audience
- sviluppatori
- lezioni, esercitazioni pratiche, piccoli test lungo la strada per valutare la comprensione
21 hours
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale. In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come distribuire e gestire Apache NiFi in un ambiente di laboratorio dal vivo. Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura Apachi NiFi.
- Fonte, trasformazione e gestione dei dati da fonti di dati disparate e distribuite, inclusi database e Big Data Lakes.
- Automatizza i flussi di dati.
- Abilita analisi di streaming.
- Applicare vari approcci per l'immissione dei dati.
- Trasforma i Big Data e le informazioni aziendali.
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Apache NiFi (Hortonworks DataFlow) è una piattaforma integrata per la logistica dei dati in tempo reale e la semplice elaborazione di eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi. È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata sul Web per gestire i flussi di dati in tempo reale. In questo corso di formazione dal vivo con istruttore, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano una serie di estensioni demo, componenti e processori utilizzando Apache NiFi . Al termine di questa formazione, i partecipanti saranno in grado di:
- Comprendi i concetti di architettura e flusso di dati di NiFi.
- Sviluppa estensioni utilizzando NiFi e API di terze parti.
- Personalizza lo sviluppo del proprio processore Apache Nifi.
- Importa ed elabora dati in tempo reale da formati di file e fonti di dati disparati e non comuni.
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Apache Samza è un framework computazionale asincrono quasi in tempo reale open source per l'elaborazione dei flussi. Utilizza Apache Kafka per la messaggistica e Apache Hadoop YARN per la tolleranza agli errori, l'isolamento del processore, la sicurezza e la gestione delle risorse. Questa formazione dal vivo con istruttore introduce i principi alla base dei sistemi di messaggistica e dell'elaborazione del flusso distribuito, mentre accompagna i partecipanti attraverso la creazione di un progetto di esempio basato su Samza e l'esecuzione del lavoro. Al termine di questa formazione, i partecipanti saranno in grado di:
- Usa Samza per semplificare il codice necessario per produrre e consumare messaggi.
- Disaccoppiare la gestione dei messaggi da un'applicazione.
- Usa Samza per implementare il calcolo asincrono quasi in tempo reale.
- Utilizzare l'elaborazione del flusso per fornire un livello superiore di astrazione sui sistemi di messaggistica.
- Sviluppatori
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
14 hours
Sqoop è uno strumento software open source per il trasferimento di dati tra Hadoop e database relazionali o mainframe. Può essere utilizzato per importare dati da un sistema di gestione di database relazionali (RDBMS) come My SQL o Oracle o un mainframe in Hadoop Distributed File System (HDFS). Successivamente, i dati possono essere trasformati in Hadoop MapReduce e quindi riesportati nuovamente in un RDBMS. In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Sqoop per importare i dati da un database relazionale tradizionale all'archiviazione Hadoop come HDFS o Hive e viceversa. Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura Sqoop
- Importa i dati da My SQL a HDFS e Hive
- Importa i dati da HDFS e Hive in My SQL
- Amministratori di sistema
- Ingegneri dei dati
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Cloudera Impala è un motore di query open source MPP (Massively Parallel Processing) SQL per cluster Apache Hadoop.
Impala consente agli utenti di inviare query a bassa latenza SQL ai dati archiviati in Hadoop Distributed File System e Apache Hbase senza richiedere lo spostamento o la trasformazione dei dati.
Pubblico
Questo corso è rivolto ad analisti e data scientist che eseguono analisi sui dati memorizzati in Hadoop tramite strumenti di Business Intelligence o SQL.
Dopo questo corso i delegati saranno in grado di
-
Estrai informazioni significative dai cluster Hadoop con Impala.
Scrivere programmi specifici per facilitare la Business Intelligence in Impala SQL Dialetto.
Risoluzione dei problemi relativi a Impala.
21 hours
Apache Ambari è una piattaforma di gestione open source per il provisioning, la gestione, il monitoraggio e la protezione dei cluster Apache Hadoop . In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno gli strumenti e le pratiche di gestione forniti da Ambari per gestire con successo i cluster Hadoop . Al termine di questa formazione, i partecipanti saranno in grado di:
- Crea un cluster di Big Data dal vivo usando Ambari
- Applica le caratteristiche e le funzionalità avanzate di Ambari a vari casi d'uso
- Aggiungi e rimuovi i nodi senza interruzioni, se necessario
- Migliora le prestazioni di un cluster Hadoop attraverso l'ottimizzazione e la modifica
- DevOps
- Amministratori di sistema
- DBA
- Professionisti dei test Hadoop
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
21 hours
Hortonworks Data Platform (HDP) è una piattaforma di supporto open source Apache Hadoop che fornisce una base stabile per lo sviluppo di soluzioni per big data sull'ecosistema Apache Hadoop . Questa formazione dal vivo con istruttore (in loco o remoto) introduce la Hortonworks Data Platform (HDP) e guida i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop . Al termine di questa formazione, i partecipanti saranno in grado di:
- Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala.
- Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark.
- Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti in un progetto Spark.
- Elaborazione di diversi tipi di dati, inclusi strutturati, non strutturati, in movimento e a riposo.
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
Last Updated:
Other countries
Consulting
Fine settimana Hadoop corsi, Sera Apache Hadoop training, Apache Hadoop centro di addestramento, Apache Hadoop con istruttore, Fine settimana Apache Hadoop training, Sera Apache Hadoop corsi, Hadoop coaching, Apache Hadoop istruttore, Hadoop trainer, Apache Hadoop corsi di formazione, Apache Hadoop classi, Hadoop in loco, Apache Hadoop corsi privati, Hadoop training individuale