Big Data Training Courses

Big Data Training Courses

I corsi di formazione di Big Data dal vivo con istruttore iniziano con un´introduzione ai concetti elementali sui Big Data, quindi avanzano nei linguaggi di programmazione e nelle metodologie utilizzate per eseguire l´analisi dei dati. Gli strumenti e l´infrastruttura per abilitare l´archiviazione dei Big Data, l´elaborazione distribuita e la scalabilità sono discussi, confrontati e implementati nelle sessioni di pratica dimostrativa. La formazione sui Big Data è disponibile come formazione dal vivo sul posto o formazione dal vivo a distanza. La formazione on-site in loco può essere svolta localmente presso la sede del cliente a Italia o nei centri di formazione NobleProg a Italia. La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg, Il tuo fornitore di formazione locale.

Recensioni

★★★★★
★★★★★

Schema generale del corso Big Data

Nome del corso
Durata
Overview
Nome del corso
Durata
Overview
21 hours
Overview
Apache Accumulo è un archivio chiave / valore ordinato e distribuito che fornisce archiviazione e recupero dei dati affidabili e scalabili. Si basa sul design della BigTable di Go ogle ed è basato su Apache Hadoop , Apache Zookeeper e Apache Thrift .

Questo corso dal vivo con istruttore copre i principi di funzionamento di Accumulo e guida i partecipanti attraverso lo sviluppo di un'applicazione di esempio su Apache Accumulo .

Formato del corso

- Parte lezione, parte discussione, sviluppo pratico e implementazione, test occasionali per valutare la comprensione
21 hours
Overview
Unlike other technologies, IoT is far more complex encompassing almost every branch of core Engineering-Mechanical, Electronics, Firmware, Middleware, Cloud, Analytics and Mobile. For each of its engineering layers, there are aspects of economics, standards, regulations and evolving state of the art. This is for the firs time, a modest course is offered to cover all of these critical aspects of IoT Engineering.

Summary

-

An advanced training program covering the current state of the art in Internet of Things

-

Cuts across multiple technology domains to develop awareness of an IoT system and its components and how it can help businesses and organizations.

-

Live demo of model IoT applications to showcase practical IoT deployments across different industry domains, such as Industrial IoT, Smart Cities, Retail, Travel & Transportation and use cases around connected devices & things

Target Audience

-

Managers responsible for business and operational processes within their respective organizations and want to know how to harness IoT to make their systems and processes more efficient.

-

Entrepreneurs and Investors who are looking to build new ventures and want to develop a better understanding of the IoT technology landscape to see how they can leverage it in an effective manner.

Estimates for Internet of Things or IoT market value are massive, since by definition the IoT is an integrated and diffused layer of devices, sensors, and computing power that overlays entire consumer, business-to-business, and government industries. The IoT will account for an increasingly huge number of connections: 1.9 billion devices today, and 9 billion by 2018. That year, it will be roughly equal to the number of smartphones, smart TVs, tablets, wearable computers, and PCs combined.

In the consumer space, many products and services have already crossed over into the IoT, including kitchen and home appliances, parking, RFID, lighting and heating products, and a number of applications in Industrial Internet.

However, the underlying technologies of IoT are nothing new as M2M communication existed since the birth of Internet. However what changed in last couple of years is the emergence of number of inexpensive wireless technologies added by overwhelming adaptation of smart phones and Tablet in every home. Explosive growth of mobile devices led to present demand of IoT.

Due to unbounded opportunities in IoT business, a large number of small and medium sized entrepreneurs jumped on a bandwagon of IoT gold rush. Also due to emergence of open source electronics and IoT platform, cost of development of IoT system and further managing its sizable production is increasingly affordable. Existing electronic product owners are experiencing pressure to integrate their device with Internet or Mobile app.

This training is intended for a technology and business review of an emerging industry so that IoT enthusiasts/entrepreneurs can grasp the basics of IoT technology and business.

Course Objective

Main objective of the course is to introduce emerging technological options, platforms and case studies of IoT implementation in home & city automation (smart homes and cities), Industrial Internet, healthcare, Govt., Mobile Cellular and other areas.

-

Basic introduction of all the elements of IoT-Mechanical, Electronics/sensor platform, Wireless and wireline protocols, Mobile to Electronics integration, Mobile to enterprise integration, Data-analytics and Total control plane

-

M2M Wireless protocols for IoT- WiFi, Zigbee/Zwave, Bluetooth, ANT+ : When and where to use which one?

-

Mobile/Desktop/Web app- for registration, data acquisition and control –Available M2M data acquisition platform for IoT-–Xively, Omega and NovoTech, etc.

-

Security issues and security solutions for IoT

-

Open source/commercial electronics platform for IoT-Raspberry Pi, Arduino , ArmMbedLPC etc

-

Open source /commercial enterprise cloud platform for AWS-IoT apps, Azure -IOT, Watson-IOT cloud in addition to other minor IoT clouds

-

Studies of business and technology of some of the common IoT devices like Home automation, Smoke alarm, vehicles, military, home health etc.
21 hours
Overview
L'analisi predittiva è il processo di utilizzo dell'analisi dei dati per fare previsioni sul futuro Questo processo utilizza i dati insieme a tecniche di data mining, statistiche e machine learning per creare un modello predittivo per la previsione di eventi futuri In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare Matlab per costruire modelli predittivi e applicarli a grandi serie di dati di esempio per prevedere eventi futuri basati sui dati Alla fine di questa formazione, i partecipanti saranno in grado di: Creare modelli predittivi per analizzare i modelli nei dati storici e transazionali Utilizzare la modellazione predittiva per identificare rischi e opportunità Costruisci modelli matematici che catturino tendenze importanti Utilizzare i dati di dispositivi e sistemi aziendali per ridurre gli sprechi, risparmiare tempo o ridurre i costi Pubblico Sviluppatori ingegneri Esperti di dominio Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
7 hours
Overview
In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno i concetti chiave dietro MapR Stream Architecture mentre sviluppano un'applicazione di streaming in tempo reale.

Entro la fine di questa formazione, i partecipanti saranno in grado di creare applicazioni per produttori e consumatori per l'elaborazione dei dati di flusso in tempo reale.

Pubblico

- Sviluppatori
- Amministratori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Nota

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Magellan è un motore di esecuzione distribuito open source per analisi geospaziali su big data. Implementato su Apache Spark , estende Spark SQL e fornisce un'astrazione relazionale per l'analisi geospaziale.

Questa formazione dal vivo con istruttore introduce i concetti e gli approcci per l'implementazione dell'analisi geospaziale e guida i partecipanti attraverso la creazione di un'applicazione di analisi predittiva utilizzando Magellan su Spark.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Eseguire query, analisi e unire in modo efficiente set di dati geospaziali su vasta scala
- Implementare i dati geospaziali nelle applicazioni di business intelligence e di analisi predittiva
- Utilizzare il contesto spaziale per estendere le capacità di dispositivi mobili, sensori, log e dispositivi indossabili

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Apache Kylin è un motore di analisi estremo e distribuito per i big data.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare Apache Kylin per creare un data warehouse in tempo reale.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Consuma dati di streaming in tempo reale utilizzando Kylin
- Utilizza le potenti funzionalità di Apache Kylin , la ricca interfaccia SQL , il cubo di scintille e la latenza delle query in secondi

Nota

- Utilizziamo l'ultima versione di Kylin (al momento della stesura di questo articolo, Apache Kylin v2.0)

Pubblico

- Ingegneri di big data
- Analisti di Big Data

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
7 hours
Overview
Confluent KSQL is a stream processing framework built on top of Apache Kafka. It enables real-time data processing using SQL operations.

This instructor-led, live training (onsite or remote) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.

By the end of this training, participants will be able to:

- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 hours
Overview
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 hours
Overview
La piattaforma di analisi KNIME è un'opzione open source leader per l'innovazione basata sui dati, che ti aiuta a scoprire il potenziale nascosto nei tuoi dati, a estrarre nuove informazioni o a prevedere nuovi futuri. Con oltre 1000 moduli, centinaia di esempi pronti per l'uso, una gamma completa di strumenti integrati e la più ampia scelta di algoritmi avanzati disponibili, la piattaforma di analisi KNIME è la cassetta degli attrezzi perfetta per qualsiasi scienziato di dati e analista aziendale.

Questo corso per KNIME Analytics Platform è un'opportunità ideale per principianti, utenti avanzati ed esperti KNIME da presentare a KNIME , per imparare a usarlo in modo più efficace e come creare report chiari e completi basati su flussi di lavoro KNIME
21 hours
Overview
La scoperta della conoscenza nei database (KDD) è il processo di scoperta di conoscenze utili da una raccolta di dati. Le applicazioni reali per questa tecnica di data mining includono marketing, rilevamento di frodi, telecomunicazioni e produzione.

In questo corso dal vivo con istruttore, presentiamo i processi coinvolti in KDD ed eseguiamo una serie di esercizi per esercitarsi nella realizzazione di tali processi.

Pubblico

- Analisti di dati o chiunque sia interessato a imparare a interpretare i dati per risolvere i problemi

Formato del corso

- Dopo una discussione teorica su KDD, l'istruttore presenterà casi di vita reale che richiedono l'applicazione di KDD per risolvere un problema. I partecipanti prepareranno, selezioneranno e ripuliranno i set di dati di esempio e useranno le loro conoscenze precedenti sui dati per proporre soluzioni basate sui risultati delle loro osservazioni.
7 hours
Overview
Kafka Streams è una libreria lato client per la creazione di applicazioni e microservizi i cui dati vengono trasmessi da e verso un sistema di messaggistica Kafka. Tradizionalmente, Apache Kafka ha fatto affidamento su Apache Spark o Apache Storm per elaborare i dati tra produttori di messaggi e consumatori. Chiamando l'API Kafka Streams dall'interno di un'applicazione, i dati possono essere elaborati direttamente all'interno di Kafka, evitando la necessità di inviare i dati a un cluster separato per l'elaborazione.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come integrare Kafka Streams in una serie di applicazioni Java di esempio che trasmettono dati da e verso Apache Kafka per l'elaborazione in streaming.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi le funzionalità e i vantaggi di Kafka Streams rispetto ad altri framework di elaborazione dei flussi
- Elaborare i dati del flusso direttamente all'interno di un cluster Kafka
- Scrivi un'applicazione o un microservizio Java o Scala che si integri con Kafka e Kafka Streams
- Scrivi un codice conciso che trasforma gli argomenti di Kafka di input in argomenti di Kafka di output
- Compilare, impacchettare e distribuire l'applicazione

Pubblico

- Sviluppatori

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Gli appunti

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare
21 hours
Overview
Stream Processing riferisce all'elaborazione in tempo reale di "dati in movimento", ovvero l'esecuzione di calcoli sui dati man mano che vengono ricevuti. Tali dati vengono letti come flussi continui da fonti di dati quali eventi dei sensori, attività dell'utente del sito Web, operazioni finanziarie, passaggi di carte di credito, flussi di clic, ecc. I framework di Stream Processing flussi sono in grado di leggere grandi volumi di dati in entrata e fornire informazioni preziose quasi istantaneamente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come impostare e integrare diversi framework di Stream Processing con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura diversi framework di Stream Processing flussi, come Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e in modo record per record.
- Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
- Integra la libreria di elaborazione del flusso più appropriata con applicazioni e microservizi aziendali.

Pubblico

- Sviluppatori
- Architetti del software

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche

Gli appunti

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
7 hours
Overview
Questa formazione dal vivo con istruttore (in loco o remoto) è rivolta a persone tecniche che desiderano apprendere come implementare una strategia di apprendimento automatico massimizzando l'utilizzo dei big data.

Al termine di questa formazione, i partecipanti dovranno:

- Comprendi l'evoluzione e le tendenze dell'apprendimento automatico.
- Sapere come l'apprendimento automatico viene utilizzato in diversi settori.
- Acquisire familiarità con gli strumenti, le competenze e i servizi disponibili per implementare l'apprendimento automatico all'interno di un'organizzazione.
- Comprendi come l'apprendimento automatico può essere utilizzato per migliorare il data mining e l'analisi.
- Scopri cos'è un back-end di dati medio e come viene utilizzato dalle aziende.
- Comprendi il ruolo svolto dai big data e dalle applicazioni intelligenti in tutti i settori.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
audience

- sviluppatori

formato del corso

- lezioni, esercitazioni pratiche, piccoli test lungo la strada per valutare la comprensione
21 hours
Overview
Cloudera Impala è un motore di query SQL elaborazione massiccia in parallelo (MPP) open source per i cluster Apache Hadoop .

Impala consente agli utenti di inviare query SQL bassa latenza ai dati archiviati in Hadoop Distributed File System e Apache Hbase senza richiedere lo spostamento o la trasformazione dei dati.

Pubblico

Questo corso è rivolto ad analisti e data scientist che eseguono analisi sui dati archiviati in Hadoop tramite strumenti di Business Intelligence o SQL .

Dopo questo corso, i delegati potranno farlo

- Estrai informazioni significative dai cluster Hadoop con Impala .
- Scrivi programmi specifici per facilitare la Business Intelligence in Impala SQL Dialect.
- Impala problemi di Impala .
7 hours
Overview
Questo corso illustra come utilizzare il linguaggio Hive SQL (AKA: Hive HQL, SQL on Hive , Hive QL) per le persone che estraggono dati da Hive
21 hours
Overview
Hortonworks Data Platform (HDP) è una piattaforma di supporto open source Apache Hadoop che fornisce una base stabile per lo sviluppo di soluzioni per big data sull'ecosistema Apache Hadoop .

Questa formazione dal vivo con istruttore (in loco o remoto) introduce la Hortonworks Data Platform (HDP) e guida i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala.
- Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark.
- Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti in un progetto Spark.
- Elaborazione di diversi tipi di dati, inclusi strutturati, non strutturati, in movimento e a riposo.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
21 hours
Overview
Questo corso introduce HBase, un archivio No SQL su Hadoop . Il corso è destinato agli sviluppatori che useranno HBase per sviluppare applicazioni e agli amministratori che gestiranno i cluster HBase.

Seguiremo uno sviluppatore attraverso l'architettura HBase e la modellazione dei dati e lo sviluppo di applicazioni su HBase. Discuterà anche dell'uso di MapReduce con HBase e di alcuni argomenti di amministrazione relativi all'ottimizzazione delle prestazioni. Il corso è molto pratico con molti esercizi di laboratorio.

Durata : 3 giorni

Pubblico : sviluppatori e amministratori
28 hours
Overview
Hadoop è un famoso framework per l'elaborazione di Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintassi e leggibilità del codice In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark usando Python mentre passano attraverso più esempi e casi d'uso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendi i concetti di base di Hadoop, MapReduce, Pig e Spark Usa Python con Hadoop Distributed File System (HDFS), MapReduce, Pig e Spark Usa Snakebite per accedere a livello di codice HDFS in Python Usa mrjob per scrivere lavori MapReduce in Python Scrivi programmi Spark con Python Estendi le funzionalità di pig usando le UDF di Python Gestisci i lavori MapReduce e gli script Pig usando Luigi Pubblico Sviluppatori Professionisti IT Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
28 hours
Overview
Pubblico:

Questo corso ha lo scopo di demistificare la tecnologia dei big data / hadoop e di dimostrare che non è difficile da capire.
14 hours
Overview
Man mano che sempre più software e progetti IT migrano dall'elaborazione locale e dalla gestione dei dati all'elaborazione distribuita e all'archiviazione di big data, i Project Manager stanno riscontrando la necessità di aggiornare le proprie conoscenze e competenze per cogliere concetti e pratiche pertinenti ai progetti e alle opportunità dei Big Data Questo corso introduce i Project Manager al più popolare framework di elaborazione dei Big Data: Hadoop In questo corso di formazione istruito, i partecipanti apprenderanno i componenti principali dell'ecosistema Hadoop e come queste tecnologie possano essere utilizzate per risolvere problemi su vasta scala Nell'apprendimento di queste basi, i partecipanti miglioreranno anche la loro capacità di comunicare con gli sviluppatori e gli implementatori di questi sistemi, nonché con i data scientist e gli analisti coinvolti in molti progetti IT Pubblico Project Manager che desiderano implementare Hadoop nello sviluppo o nell'infrastruttura IT esistente Project Manager che hanno bisogno di comunicare con team interfunzionali che includono ingegneri dei big data, scienziati dei dati e analisti aziendali Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Hadoop è il framework di elaborazione Big Data più popolare .
28 hours
Overview
Mem SQL è un sistema di gestione di database SQL in memoria, distribuito per cloud e locale. È un data warehouse in tempo reale che fornisce immediatamente informazioni dettagliate su dati storici e in tempo reale.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno gli elementi essenziali di Mem SQL per lo sviluppo e l'amministrazione.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi i concetti e le caratteristiche chiave di Mem SQL
- Installa, progetta, mantieni e gestisci Mem SQL
- Ottimizza gli schemi in Mem SQL
- Migliora le query in Mem SQL
- Prestazioni di benchmark in Mem SQL
- Crea applicazioni di dati in tempo reale utilizzando Mem SQL

Pubblico

- Sviluppatori
- Amministratori
- Ingegneri Operativi

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
28 hours
Overview
MonetDB è un database open source che ha aperto la strada all'approccio della tecnologia di archivio di colonne.

In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come utilizzare MonetDB e come trarne il massimo valore.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Comprendi MonetDB e le sue caratteristiche
- Installa e inizia con MonetDB
- Esplora ed esegui diverse funzioni e attività in MonetDB
- Accelera la consegna del loro progetto massimizzando le capacità di MonetDB

Pubblico

- Sviluppatori
- Esperti tecnici

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
14 hours
Overview
Teradata is a popular Relational Database Management System for building large scale data warehousing applications. Teradata achieves this by way of parallelism.

This instructor-led, live training (onsite or remote) is aimed at application developers and engineers who wish to master more sophisticated usages of the Teradata database.

By the end of this training, participants will be able to:

- Manage Teradata space.
- Protect and distribute data in Teradata.
- Read Explain Plan.
- Improve SQL proficiency.
- Use main utilities of Teradata.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
7 hours
Overview
Spark SQL è il modulo di Apache Spark per lavorare con dati strutturati e non strutturati. Spark SQL fornisce informazioni sulla struttura dei dati e sul calcolo eseguito. Queste informazioni possono essere utilizzate per eseguire ottimizzazioni. Due usi comuni per Spark SQL sono:
- per eseguire query SQL .
- leggere i dati da un'installazione Hive esistente.

In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come analizzare vari tipi di set di dati utilizzando Spark SQL .

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Spark SQL .
- Eseguire l'analisi dei dati utilizzando Spark SQL .
- Interroga set di dati in diversi formati.
- Visualizza i dati e i risultati delle query.

Formato del corso

- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.

Opzioni di personalizzazione del corso

- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
14 hours
Overview
Apache Zeppelin è un notebook basato sul Web per l'acquisizione, l'esplorazione, la visualizzazione e la condivisione di dati basati su Hadoop e Spark.

Questa formazione dal vivo con istruttore introduce i concetti alla base dell'analisi interattiva dei dati e guida i partecipanti attraverso l'implementazione e l'utilizzo di Zeppelin in un ambiente a utente singolo o multiutente.

Al termine di questa formazione, i partecipanti saranno in grado di:

- Installa e configura Zeppelin
- Sviluppa, organizza, esegui e condividi dati in un'interfaccia basata su browser
- Visualizza i risultati senza fare riferimento alla riga di comando o ai dettagli del cluster
- Esegui e collabora su lunghi flussi di lavoro
- Funziona con uno qualsiasi dei vari linguaggi plug-in / backend di elaborazione dati, come Scala (con Apache Spark ), Python (con Apache Spark ), Spark SQL , JDBC, Markdown e Shell.
- Integra Zeppelin con Spark, Flink e Map Reduce
- Proteggi le istanze multiutente di Zeppelin con Apache Shiro

Pubblico

- Ingegneri dei dati
- Analisti di dati
- Data scientist
- Sviluppatori di software

Formato del corso

- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche
14 hours
Overview
Vespa è un motore open source per l'elaborazione e il trattamento dei big data creato da Yahoo È utilizzato per rispondere alle domande degli utenti, formulare raccomandazioni e fornire contenuti e annunci personalizzati in tempo reale Questo corso di formazione dal vivo con istruttore introduce le sfide di offrire dati di grandi dimensioni e partecipa ai partecipanti attraverso la creazione di un'applicazione in grado di calcolare le risposte alle richieste degli utenti, su dataset di grandi dimensioni in tempo reale Alla fine di questa formazione, i partecipanti saranno in grado di: Usa Vespa per calcolare rapidamente i dati (memorizzare, cercare, classificare, organizzare) al momento di servire mentre un utente aspetta Implementa Vespa in applicazioni esistenti che includono ricerca di funzionalità, consigli e personalizzazione Integrare e distribuire Vespa con i sistemi di big data esistenti come Hadoop e Storm Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
14 hours
Overview
Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva .
21 hours
Overview
Teradata è uno dei popolari sistemi di Management Database relazionali. È adatto principalmente per la creazione di applicazioni di data warehousing su larga scala. Teradata riesce grazie al concetto di parallelismo.

Questo corso introduce i delegati a Teradata .
Fine settimana Big Data corsi, Sera Big Data training, Big Data centro di addestramento, Big Data con istruttore, Fine settimana Big Data training, Sera Big Data corsi, Big Data coaching, Big Data istruttore, Big Data trainer, Big Data corsi di formazione, Big Data classi, Big Data in loco, Big Data corsi privati, Big Data training individuale

Corsi scontati

Newsletter per ricevere sconti sui corsi

Rispettiamo la privacy di ogni indirizzo mail. Non diffonderemo,né venderemo assolutamente nessun indirizzo mail a terzi. Inserire prego il proprio indirizzo mail. E' possibile sempre cambiare le impostazioni o cancellarsi completamente.

I nostri clienti

is growing fast!

We are looking to expand our presence in Italy!

As a Business Development Manager you will:

  • expand business in Italy
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!