Big Data Training Courses

Big Data Training Courses

I corsi di formazione di Big Data dal vivo con istruttore iniziano con un´introduzione ai concetti elementali sui Big Data, quindi avanzano nei linguaggi di programmazione e nelle metodologie utilizzate per eseguire l´analisi dei dati. Gli strumenti e l´infrastruttura per abilitare l´archiviazione dei Big Data, l´elaborazione distribuita e la scalabilità sono discussi, confrontati e implementati nelle sessioni di pratica dimostrativa. La formazione sui Big Data è disponibile come formazione dal vivo sul posto o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, Il tuo fornitore di formazione locale.

Recensioni

★★★★★
★★★★★

Schema generale del corso Big Data

Nome del corso
Durata
Overview
Nome del corso
Durata
Overview
21 hours
Python è un linguaggio di programmazione scalabile, flessibile e ampiamente utilizzato per la scienza dei dati e l'apprendimento automatico. Spark è un motore di elaborazione dei dati utilizzato per la ricerca, l'analisi e la trasformazione dei big data, mentre Hadoop è un framework della libreria software per lo storage e il trattamento dei dati su larga scala. Questo allenamento diretto da istruttori (online o on-site) è rivolto a sviluppatori che vogliono utilizzare e integrare Spark, Hadoop, e Python per elaborare, analizzare e trasformare grandi e complessi set di dati. Al termine di questo corso, i partecipanti saranno in grado di:
    Crea l'ambiente necessario per iniziare il trattamento dei big data con Spark, Hadoop, e Python. Comprendere le caratteristiche, i componenti chiave e l'architettura di Spark e Hadoop. Scopri come integrare Spark, Hadoop, e Python per il trattamento dei big data. Esplora gli strumenti nell'ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, e Flume). Costruisci sistemi di raccomandazione di filtrazione collaborativa simili a Netflix, YouTube, Amazon, Spotify e Google. Apache Mahout per scalare gli algoritmi di apprendimento automatico.
Il formato del corso
    Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
    Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
14 hours
Waikato Environment for Knowledge Analysis (Weka) è un software di visualizzazione del mining di dati open source. Fornisce una raccolta di algoritmi di apprendimento automatico per la preparazione dei dati, la classificazione, il clustering e altre attività di mining dei dati. Questo istruttore guidato, la formazione in diretta (online o on-site) è rivolto ad analisti di dati e scienziati di dati che vogliono utilizzare Weka per svolgere compiti di mining dei dati. Al termine di questo corso, i partecipanti saranno in grado di:
    Installazione e configurazione Weka Comprendere il Weka ambiente e il lavoro. Eseguire i compiti di mining dei dati utilizzando Weka.
Il formato del corso
    Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
    Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
14 hours
IBM SPSS Modeler è un software utilizzato per la miniera dei dati e l'analisi del testo. Fornisce un insieme di strumenti di mining dei dati che possono costruire modelli predettivi e svolgere compiti di analisi dei dati. Questo allenamento guidato da istruttori, in diretta (online o on-site) è rivolto agli analisti dei dati o a chiunque desideri utilizzare SPSS Modeler per svolgere attività di mining dei dati. Al termine di questo corso, i partecipanti saranno in grado di:
    Conoscere i fondamenti della miniera dei dati. Scopri come importare e valutare la qualità dei dati con il Modeller. Sviluppare, implementare e valutare i modelli di dati in modo efficiente.
Il formato del corso
    Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
    Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
35 hours
I partecipanti che completano questa formazione guidata da istruttori, in diretta, acquisteranno una comprensione pratica e reale della Big Data e delle sue tecnologie, metodologie e strumenti correlati. I partecipanti avranno l'opportunità di mettere questa conoscenza in pratica attraverso esercizi pratici. L'interazione di gruppo e il feedback degli istruttori costituiscono un componente importante della classe. Il corso inizia con un'introduzione ai concetti elementari di Big Data, poi si sviluppa nelle lingue di programmazione e nelle metodologie utilizzate per eseguire Data Analysis. Infine, stiamo discutendo gli strumenti e le infrastrutture che consentono Big Data storage, elaborazione distribuita e Scalabilità. Il formato del corso
    Parziale lezione, parziale discussione, pratica e implementazione, occasionale quiz per misurare il progresso.
21 hours
In this instructor-led, live training in Italia, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to:
  • Learn how to use Spark with Python to analyze Big Data.
  • Work on exercises that mimic real world cases.
  • Use different tools and techniques for big data analysis using PySpark.
7 hours
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
21 hours
La scoperta della conoscenza in database (KDD) è il processo di scoperta di conoscenze utili da una raccolta di dati. Le applicazioni di vita reale per questa tecnica di mining dei dati includono marketing, rilevamento di frodi, telecomunicazioni e produzione. In questo corso guidato da insegnanti, in diretta, introduciamo i processi coinvolti nel KDD e realizziamo una serie di esercizi per praticare la realizzazione di questi processi. Il pubblico
    Analisti di dati o chiunque sia interessato a imparare come interpretare i dati per risolvere i problemi
Il formato del corso
    Dopo un dibattito teorico di KDD, l'insegnante presenterà casi di vita reale che richiedono l'applicazione di KDD per risolvere un problema. I partecipanti prepareranno, selezioneranno e purneranno i set di dati di campione e utilizzeranno le loro conoscenze precedenti sui dati per proporre soluzioni basate sui risultati delle loro osservazioni.
14 hours
Apache Kylin è un motore di analisi estremamente distribuito per i big data. In questo allenamento diretto da istruttori, i partecipanti impareranno come utilizzare Apache Kylin per installare un magazzino di dati in tempo reale. Al termine di questo corso, i partecipanti saranno in grado di:
    Consumo di dati in tempo reale tramite Kylin Utilize Apache Kylin's funzionalità potenti, richi SQL interfaccia, spark cubing e latenza della domanda subseconda
Nota
    Utilizziamo la versione più recente di Kylin (sulla base di questa scrittura, Apache Kylin v2.0)
Il pubblico
    Ingegnere Big Data Big Data Gli analisti
Il formato del corso
    Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
14 hours
Datameer è una piattaforma di analisi e business intelligence basata su Hadoop Consente agli utenti finali di accedere, esplorare e correlare dati di grandi dimensioni, strutturati, semistrutturati e non strutturati in modo facile da usare In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come utilizzare Datameer per superare la curva di apprendimento ripida di Hadoop mentre passano attraverso l'installazione e l'analisi di una serie di fonti di dati di grandi dimensioni Alla fine di questa formazione, i partecipanti saranno in grado di: Creare, curare e esplorare in modo interattivo un lago di dati aziendali Accedere ai data warehouse aziendali, ai database transazionali e ad altri negozi di analisi Utilizzare l'interfaccia utente di un foglio di calcolo per progettare condotte di elaborazione dati endtoend Accedi a funzioni preconfigurate per esplorare relazioni dati complesse Utilizzare le procedure guidate di draganddrop per visualizzare i dati e creare dashboard Utilizza tabelle, grafici, grafici e mappe per analizzare i risultati delle query Pubblico Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Il data mining è il processo di identificazione dei modelli nei big data con metodi di data science come l'apprendimento automatico. Utilizzando Excel come suite di analisi dei dati, gli utenti possono eseguire il data mining e l'analisi. Questa formazione dal vivo con istruttore (in loco o remoto) è rivolta agli scienziati dei dati che desiderano utilizzare Excel per il data mining. Al termine di questa formazione, i partecipanti saranno in grado di:
  • Esplora i dati con Excel per eseguire il data mining e l'analisi.
  • Utilizza gli algoritmi Microsoft per il data mining.
  • Comprendi i concetti nel data mining di Excel .
Formato del corso
  • Conferenza e discussione interattiva.
  • Molti esercizi e pratiche.
  • Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
  • Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Dremio è una piattaforma di dati open source "self-service" che accelera la ricerca di diversi tipi di fonti di dati. Dremio integra con database relativi, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, e altre fonti di dati. Supporta SQL e fornisce un web UI per le domande di costruzione. In questo allenamento diretto da istruttori, i partecipanti impareranno come installare, configurare e utilizzare Dremio come strato unificante per gli strumenti di analisi dei dati e i repositori dei dati di base. Al termine di questo corso, i partecipanti saranno in grado di:
    Installazione e configurazione Dremio Eseguire domande contro diverse fonti di dati, indipendentemente dalla posizione, dalla dimensione o dalla struttura Integrare Dremio con BI e fonti di dati come Tableau e Elasticsearch
Il pubblico
    scienziati dati Business Gli analisti Ingegnere dati
Il formato del corso
    Lezioni parziali, discussioni parziali, esercizi e pratiche pesanti
Notizie
    Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
21 hours
Apache Drill è un motore di query SQL colonnare senza memoria, distribuito e inmemoria per Hadoop, NoSQL e altri sistemi di archiviazione di file e cloud La potenza di Apache Drill risiede nella sua capacità di unire i dati da più archivi di dati utilizzando un'unica query Apache Drill supporta numerosi database NoSQL e file system, inclusi HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS e file locali Apache Drill è la versione open source del sistema Dremel di Google, disponibile come servizio di infrastruttura denominato Google BigQuery In questo corso di formazione dal vivo, istruito, i partecipanti apprenderanno i fondamenti di Apache Drill, quindi sfrutteranno la potenza e la convenienza di SQL per interrogare interattivamente i big data su più origini dati, senza scrivere codice I partecipanti impareranno anche come ottimizzare le loro query Drill per l'esecuzione SQL distribuita Alla fine di questa formazione, i partecipanti saranno in grado di: Esegui l'esplorazione "selfservice" su dati strutturati e semistrutturati su Hadoop Interrogazione anche di dati sconosciuti tramite query SQL Comprendere come Apache Drills riceve ed esegue query Scrivi query SQL per analizzare diversi tipi di dati, inclusi i dati strutturati in Hive, i dati semistrutturati nelle tabelle HBase o MapRDB e i dati salvati in file come Parquet e JSON Utilizzare Apache Drill per eseguire il discovery di schema onthefly, ignorando la necessità di operazioni ETL e schema complesse Integrazione di Apache Drill con strumenti di BI (Business Intelligence) come Tableau, Qlikview, MicroStrategy ed Excel Pubblico Analisti di dati Scienziati di dati Programmatori SQL Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Apache Arrow is an open-source in-memory data processing framework. It is often used together with other data science tools for accessing disparate data stores for analysis. It integrates well with other technologies such as GPU databases, machine learning libraries and tools, execution engines, and data visualization frameworks. In this onsite instructor-led, live training, participants will learn how to integrate Apache Arrow with various Data Science frameworks to access data from disparate data sources. By the end of this training, participants will be able to:
  • Install and configure Apache Arrow in a distributed clustered environment
  • Use Apache Arrow to access data from disparate data sources
  • Use Apache Arrow to bypass the need for constructing and maintaining complex ETL pipelines
  • Analyze data across disparate data sources without having to consolidate it into a centralized repository
Audience
  • Data scientists
  • Data engineers
Format of the Course
  • Part lecture, part discussion, exercises and heavy hands-on practice
Note
  • To request a customized training for this course, please contact us to arrange.
14 hours
The objective of the course is to enable participants to gain a mastery of how to work with the SQL language in Oracle database for data extraction at intermediate level.
35 hours
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 hours
Pubblico Se cerchi di dare un senso ai dati a cui hai accesso o desideri analizzare i dati non strutturati disponibili in rete (come Twitter, Linked in, ecc ...) questo corso fa per te. Si rivolge principalmente ai decisori e alle persone che devono scegliere quali dati devono essere raccolti e quali vale la pena analizzare. Non si rivolge alle persone che configurano la soluzione, ma quelle persone trarranno beneficio dal quadro generale. Modalità di consegna Durante il corso, ai delegati verranno presentati esempi funzionanti di tecnologie prevalentemente open source. Seguiranno brevi lezioni con presentazione e semplici esercitazioni da parte dei partecipanti Contenuto e software utilizzati Tutto il software utilizzato viene aggiornato ogni volta che il corso viene eseguito, quindi controlliamo le versioni più recenti possibili. Copre il processo dall'ottenimento, formattazione, elaborazione e analisi dei dati, per spiegare come automatizzare il processo decisionale con l'apprendimento automatico.
35 hours
Giorno 1: offre una panoramica di alto livello delle principali aree tematiche sui Big Data . Il modulo è diviso in una serie di sezioni, ognuna delle quali è accompagnata da un esercizio pratico. Giorno 2: esplora una serie di argomenti che mettono in relazione pratiche e strumenti di analisi per ambienti Big Data . Non si occupa di dettagli di implementazione o programmazione, ma mantiene invece la copertura a livello concettuale, concentrandosi su argomenti che consentono ai partecipanti di sviluppare una comprensione completa delle comuni funzioni di analisi e caratteristiche offerte dalle soluzioni Big Data . Giorno 3: fornisce una panoramica delle aree tematiche fondamentali ed essenziali relative all'architettura della piattaforma di soluzioni Big Data . Copre i meccanismi di Big Data necessari per lo sviluppo di una piattaforma di soluzione di Big Data e opzioni di architettura per l'assemblaggio di una piattaforma di elaborazione dati. Vengono inoltre presentati scenari comuni per fornire una comprensione di base di come viene generalmente utilizzata una piattaforma di soluzioni Big Data . Giorno 4: si basa sul Giorno 3 esplorando argomenti avanzati relativi all'architettura Big Data piattaforma di soluzioni Big Data . In particolare, vengono introdotti e discussi diversi livelli architettonici che compongono la piattaforma di soluzione Big Data , tra cui origini dati, ingresso dati, archiviazione dati, elaborazione e sicurezza dei dati. Giorno 5: copre una serie di esercizi e problemi progettati per testare la capacità dei delegati di applicare la conoscenza degli argomenti trattati nei giorni 3 e 4.
21 hours
Big Data è un termine che si riferisce a soluzioni destinate alla memorizzazione e all'elaborazione di grandi set di dati. Sviluppate inizialmente da Go ogle, queste soluzioni di Big Data hanno evoluto e ispirato altri progetti simili, molti dei quali sono disponibili come open-source. R è un linguaggio di programmazione popolare nel settore finanziario.
14 hours
Quando le tecnologie di archiviazione tradizionali non gestiscono la quantità di dati che è necessario archiviare, ci sono centinaia di alternative. Questo corso cerca di guidare i partecipanti quali sono le alternative per archiviare e analizzare i Big Data e quali sono i loro pro e contro. Questo corso si concentra principalmente sulla discussione e la presentazione di soluzioni, sebbene siano disponibili esercitazioni pratiche su richiesta.
14 hours
Il corso fa parte del set di abilità Data Scientist (Dominio: Dati e tecnologia).
35 hours
I big data sono insiemi di dati così voluminosi e complessi che i tradizionali software applicativi per l'elaborazione dei dati non sono adeguati per gestirli. Le sfide relative ai big data comprendono l'acquisizione di dati, l'archiviazione dei dati, l'analisi dei dati, la ricerca, la condivisione, il trasferimento, la visualizzazione, l'interrogazione, l'aggiornamento e la riservatezza delle informazioni.
14 hours
Vespa è un motore open source per l'elaborazione e il trattamento dei big data creato da Yahoo È utilizzato per rispondere alle domande degli utenti, formulare raccomandazioni e fornire contenuti e annunci personalizzati in tempo reale Questo corso di formazione dal vivo con istruttore introduce le sfide di offrire dati di grandi dimensioni e partecipa ai partecipanti attraverso la creazione di un'applicazione in grado di calcolare le risposte alle richieste degli utenti, su dataset di grandi dimensioni in tempo reale Alla fine di questa formazione, i partecipanti saranno in grado di: Usa Vespa per calcolare rapidamente i dati (memorizzare, cercare, classificare, organizzare) al momento di servire mentre un utente aspetta Implementa Vespa in applicazioni esistenti che includono ricerca di funzionalità, consigli e personalizzazione Integrare e distribuire Vespa con i sistemi di big data esistenti come Hadoop e Storm Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Per soddisfare la conformità dei regolatori, i CSP (fornitori di servizi di Communication ) possono attingere all'analisi dei Big Data che non solo li aiuta a soddisfare la conformità, ma nell'ambito dello stesso progetto possono aumentare la soddisfazione del cliente e quindi ridurre il churn. Infatti, poiché la conformità è correlata alla qualità del servizio legata a un contratto, qualsiasi iniziativa volta a soddisfare la conformità migliorerà il "vantaggio competitivo" dei CSP. Pertanto, è importante che i regolatori siano in grado di consigliare / guidare una serie di pratiche analitiche sui Big Data per i CSP che saranno di reciproco vantaggio tra i regolatori e i CSP. Il corso è composto da 8 moduli (4 il giorno 1 e 4 il giorno 2)
35 hours
I progressi nelle tecnologie e la crescente quantità di informazioni stanno trasformando il modo in cui viene condotta l'applicazione della legge. Le sfide poste dai Big Data sono quasi scoraggianti come la promessa dei Big Data . La memorizzazione efficiente dei dati è una di queste sfide; analizzarlo efficacemente è un altro. In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno la mentalità con cui affrontare le tecnologie dei Big Data , valutare il loro impatto sui processi e sulle politiche esistenti e implementare queste tecnologie allo scopo di identificare l'attività criminale e prevenire la criminalità. Verranno esaminati casi di studio da parte delle forze dell'ordine di tutto il mondo per ottenere approfondimenti sugli approcci, le sfide e i risultati relativi all'adozione. Al termine di questa formazione, i partecipanti saranno in grado di:
  • Combina la tecnologia dei Big Data con i tradizionali processi di raccolta dei dati per mettere insieme una storia durante un'indagine
  • Implementare soluzioni industriali di archiviazione e elaborazione dei big data per l'analisi dei dati
  • Preparare una proposta per l'adozione degli strumenti e dei processi più adeguati per consentire un approccio basato sui dati alle indagini penali
Pubblico
  • Specialisti delle forze dell'ordine con un background tecnico
Formato del corso
  • Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
14 hours
Questa sessione di formazione in aula esplorerà i Big Data . I delegati avranno esempi basati su computer ed esercitazioni di casi di studio da intraprendere con strumenti di big data pertinenti
14 hours
Obiettivo : questo corso di formazione mira ad aiutare i partecipanti a capire perché i Big Data stanno cambiando la nostra vita e come sta alterando il modo in cui le aziende ci vedono come consumatori. In effetti, gli utenti di big data nelle aziende scoprono che i big data liberano una grande quantità di informazioni e approfondimenti che si traducono in maggiori profitti, costi ridotti e meno rischi. Tuttavia, il lato negativo era la frustrazione a volte quando si poneva troppa enfasi sulle singole tecnologie e non si concentrava abbastanza sui pilastri della gestione dei big data. I partecipanti impareranno durante questo corso come gestire i big data usando i suoi tre pilastri di integrazione dei dati, governance dei dati e sicurezza dei dati al fine di trasformare i big data in un reale valore aziendale. Diversi esercizi condotti su un caso di studio sulla gestione dei clienti aiuteranno i partecipanti a comprendere meglio i processi sottostanti.
7 hours
Questa formazione dal vivo con istruttore (in loco o remoto) è rivolta a persone tecniche che desiderano apprendere come implementare una strategia di apprendimento automatico massimizzando l'utilizzo dei big data. Al termine di questa formazione, i partecipanti dovranno:
  • Comprendi l'evoluzione e le tendenze dell'apprendimento automatico.
  • Sapere come l'apprendimento automatico viene utilizzato in diversi settori.
  • Acquisire familiarità con gli strumenti, le competenze e i servizi disponibili per implementare l'apprendimento automatico all'interno di un'organizzazione.
  • Comprendi come l'apprendimento automatico può essere utilizzato per migliorare il data mining e l'analisi.
  • Scopri cos'è un back-end di dati medio e come viene utilizzato dalle aziende.
  • Comprendi il ruolo svolto dai big data e dalle applicazioni intelligenti in tutti i settori.
Formato del corso
  • Conferenza e discussione interattiva.
  • Molti esercizi e pratiche.
  • Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
  • Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Apache Sqoop è un'interfaccia della riga di comando per lo spostamento di dati da database relazionali e Hadoop. Apache Flume è un software distribuito per la gestione dei Big Data. Utilizzando Sqoop e Flume, gli utenti possono trasferire dati tra sistemi e importare Big Data in architetture di archiviazione come Hadoop. Questa formazione dal vivo con istruttore (in loco o a distanza) è rivolta agli ingegneri software che desiderano utilizzare Sqoop e Flume per il trasferimento dei dati tra sistemi. Al termine di questa formazione, i partecipanti saranno in grado di:
  • Ingrandisci i Big Data con Sqoop e Flume.
  • Inserimento di dati da più origini dati.
  • Spostare i dati da database relazionali a HDFS e Hive.
  • Esportare dati da HDFS in un database relazionale.
Formato del corso
  • Lezione interattiva e discussione.
  • Un sacco di esercizi e pratica.
  • Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
  • Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare.
28 hours
Talend Open Studio per Big Data è uno strumento ETL open source per il trattamento dei big data. Include un ambiente di sviluppo per interagire con Big Data fonti e obiettivi, e svolgere lavori senza dover scrivere codice. Questo allenamento guidato da istruttori, dal vivo (online o on-site) è rivolto a persone tecniche che desiderano implementare Talend Open Studio per Big Data per semplificare il processo di lettura e crunching attraverso Big Data. Al termine di questo corso, i partecipanti saranno in grado di:
    Installare e configurare Talend Open Studio per Big Data. Connettiti con sistemi Big Data come Cloudera, HortonWorks, MapR, Amazon EMR e Apache. Comprendere e installare i componenti e i connettori di big data di Open Studio. Configurare i parametri per generare automaticamente il codice MapReduce. Utilizzare l'interfaccia drag-and-drop di Open Studio's per eseguire Hadoop lavori. Il prototipo dei big data pipeline. Progetti di integrazione dei big data.
Il formato del corso
    Interattiva lezione e discussione. Molti esercizi e pratiche. Implementazione a mano in un ambiente live-lab.
Opzioni di personalizzazione del corso
    Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare.
21 hours
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration

Last Updated:

Fine settimana Big Data corsi, Sera Big Data training, Big Data centro di addestramento, Big Data con istruttore, Fine settimana Big Data training, Sera Big Data corsi, Big Data coaching, Big Data istruttore, Big Data trainer, Big Data corsi di formazione, Big Data classi, Big Data in loco, Big Data corsi privati, Big Data training individuale

Corsi scontati

No course discounts for now.

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking for a good mixture of IT and soft skills in Italy!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions