
I corsi di formazione di Big Data dal vivo con istruttore iniziano con un´introduzione ai concetti elementali sui Big Data, quindi avanzano nei linguaggi di programmazione e nelle metodologie utilizzate per eseguire l´analisi dei dati. Gli strumenti e l´infrastruttura per abilitare l´archiviazione dei Big Data, l´elaborazione distribuita e la scalabilità sono discussi, confrontati e implementati nelle sessioni di pratica dimostrativa. La formazione sui Big Data è disponibile come formazione dal vivo sul posto o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, Il tuo fornitore di formazione locale.
Recensioni
Esperienza pratica del formatore, non colorando la soluzione discussa ma anche non introducendo una caratteristica negativa. Sento che il formatore mi sta preparando per un uso reale e pratico dello strumento - questi preziosi dettagli di solito non si trovano nei libri.
Krzysztof Miodek - Beata Szylhabel, Krajowy Rejestr Długów Biuro Informacji Gospodarczej S.A.
Corso: Apache Spark Fundamentals
Machine Translated
- formazione con esempi pratici. - materiali e ambiente molto ben preparati per esercizi indipendenti -frequenti suggerimenti/consigli derivati dalla pratica del formatore.
Beata Szylhabel, Krajowy Rejestr Długów Biuro Informacji Gospodarczej S.A.
Corso: Apache Spark Fundamentals
Machine Translated
Mancanza di un approccio rigido alla conduzione della formazione. Flessibilità. Senza formalità inutili "Mr", "Mrs", "ą", "ę".
Beata Szylhabel, Krajowy Rejestr Długów Biuro Informacji Gospodarczej S.A.
Corso: Apache Spark Fundamentals
Machine Translated
Big Data Course Outlines
-
Crea l'ambiente necessario per iniziare il trattamento dei big data con Spark, Hadoop, e Python.
Comprendere le caratteristiche, i componenti chiave e l'architettura di Spark e Hadoop.
Scopri come integrare Spark, Hadoop, e Python per il trattamento dei big data.
Esplora gli strumenti nell'ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, e Flume).
Costruisci sistemi di raccomandazione di filtrazione collaborativa simili a Netflix, YouTube, Amazon, Spotify e Google.
Apache Mahout per scalare gli algoritmi di apprendimento automatico.
-
Interattiva lezione e discussione.
Molti esercizi e pratiche.
Implementazione a mano in un ambiente live-lab.
-
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
-
Installazione e configurazione Weka
Comprendere il Weka ambiente e il lavoro.
Eseguire i compiti di mining dei dati utilizzando Weka.
-
Interattiva lezione e discussione.
Molti esercizi e pratiche.
Implementazione a mano in un ambiente live-lab.
-
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
-
Conoscere i fondamenti della miniera dei dati.
Scopri come importare e valutare la qualità dei dati con il Modeller.
Sviluppare, implementare e valutare i modelli di dati in modo efficiente.
-
Interattiva lezione e discussione.
Molti esercizi e pratiche.
Implementazione a mano in un ambiente live-lab.
-
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
-
Parziale lezione, parziale discussione, pratica e implementazione, occasionale quiz per misurare il progresso.
- Scopri come utilizzare Spark con Python per analizzare i Big Data .
- Lavora su esercizi che imitano le circostanze del mondo reale.
- Usa diversi strumenti e tecniche per l'analisi dei big data usando PySpark .
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
-
Analisti di dati o chiunque sia interessato a imparare come interpretare i dati per risolvere i problemi
-
Dopo un dibattito teorico di KDD, l'insegnante presenterà casi di vita reale che richiedono l'applicazione di KDD per risolvere un problema. I partecipanti prepareranno, selezioneranno e purneranno i set di dati di campione e utilizzeranno le loro conoscenze precedenti sui dati per proporre soluzioni basate sui risultati delle loro osservazioni.
-
Consumo di dati in tempo reale tramite Kylin
Utilize Apache Kylin's funzionalità potenti, richi SQL interfaccia, spark cubing e latenza della domanda subseconda
-
Utilizziamo la versione più recente di Kylin (sulla base di questa scrittura, Apache Kylin v2.0)
-
Ingegnere Big Data
Big Data Gli analisti
-
Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
- Esplora i dati con Excel per eseguire il data mining e l'analisi.
- Utilizza gli algoritmi Microsoft per il data mining.
- Comprendi i concetti nel data mining di Excel .
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
-
Installazione e configurazione Dremio
Eseguire domande contro diverse fonti di dati, indipendentemente dalla posizione, dalla dimensione o dalla struttura
Integrare Dremio con BI e fonti di dati come Tableau e Elasticsearch
-
scienziati dati
Business Gli analisti
Ingegnere dati
-
Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
-
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
- Installa e configura Apache Arrow in un ambiente cluster distribuito
- Utilizzare la Apache Arrow per accedere ai dati da origini dati diverse
- Utilizzare Apache Arrow per aggirare la necessità di costruire e mantenere complesse pipeline ETL
- Analizza i dati attraverso diverse fonti di dati senza doverli consolidare in un repository centralizzato
- Data scientist
- Ingegneri dei dati
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
- Mobile devices and applications
- Cloud services
- Social business technologies and networking
- Big Data and analytics
- Combina la tecnologia dei Big Data con i tradizionali processi di raccolta dei dati per mettere insieme una storia durante un'indagine
- Implementare soluzioni industriali di archiviazione e elaborazione dei big data per l'analisi dei dati
- Preparare una proposta per l'adozione degli strumenti e dei processi più adeguati per consentire un approccio basato sui dati alle indagini penali
- Specialisti delle forze dell'ordine con un background tecnico
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
- Comprendi l'evoluzione e le tendenze dell'apprendimento automatico.
- Sapere come l'apprendimento automatico viene utilizzato in diversi settori.
- Acquisire familiarità con gli strumenti, le competenze e i servizi disponibili per implementare l'apprendimento automatico all'interno di un'organizzazione.
- Comprendi come l'apprendimento automatico può essere utilizzato per migliorare il data mining e l'analisi.
- Scopri cos'è un back-end di dati medio e come viene utilizzato dalle aziende.
- Comprendi il ruolo svolto dai big data e dalle applicazioni intelligenti in tutti i settori.
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
- Ingrandisci i Big Data con Sqoop e Flume.
- Inserimento di dati da più origini dati.
- Spostare i dati da database relazionali a HDFS e Hive.
- Esportare dati da HDFS in un database relazionale.
- Lezione interattiva e discussione.
- Un sacco di esercizi e pratica.
- Implementazione pratica in un ambiente live-lab.
- Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare.
-
Installare e configurare Talend Open Studio per Big Data.
Connettiti con sistemi Big Data come Cloudera, HortonWorks, MapR, Amazon EMR e Apache.
Comprendere e installare i componenti e i connettori di big data di Open Studio.
Configurare i parametri per generare automaticamente il codice MapReduce.
Utilizzare l'interfaccia drag-and-drop di Open Studio's per eseguire Hadoop lavori.
Il prototipo dei big data pipeline.
Progetti di integrazione dei big data.
-
Interattiva lezione e discussione.
Molti esercizi e pratiche.
Implementazione a mano in un ambiente live-lab.
-
Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
-
Sviluppare un'applicazione con Alluxio
Connettere i sistemi di big data e le applicazioni mantenendo uno spazio di nome
Estratto efficiente di valore da grandi dati in qualsiasi formato di archiviazione
Migliorare le prestazioni del lavoro
Sviluppare e gestire Alluxio indipendente o clusterato
-
Scienziato dei dati
Sviluppatore
amministratore del sistema
-
Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
Last Updated: