I corsi di formazione Apache Hadoop live condotti da istruttori locali dimostrano attraverso pratiche interattive pratiche i componenti principali dell'ecosistema Hadoop e come queste tecnologie possano essere utilizzate per risolvere problemi su larga scala. L'allenamento Hadoop è disponibile come "allenamento dal vivo in loco" o "allenamento dal vivo a distanza". La formazione on-site in loco può essere svolta localmente presso la sede del cliente in Italia o nei centri di formazione aziendale NobleProg in Italia . La formazione in remoto dal vivo viene effettuata tramite un desktop remoto interattivo. NobleProg: il tuo fornitore di formazione locale
Cosa ti è piaciuto di più della formazione ?: Dettagliato su ogni strumento.
Amber Mehrotra - NIIT Limited
Corso: Hadoop Administration
Translated by
1. Attrezzatura di prima classe 2. Buona prima introduzione al mondo di Hadoop e tecnologia
Przemysław Ćwik
Corso: Hadoop Administration
Translated by
Il fatto che tutti i dati e il software fossero pronti per l'uso su una VM già preparata, fornita dal trainer in dischi esterni.
vyzVoice
Corso: Hadoop for Developers and Administrators
Translated by
Mi è piaciuto soprattutto l'allenatore dando esempi reali dal vivo.
Simon Hahn
Corso: Administrator Training for Apache Hadoop
Translated by
Ho davvero apprezzato le grandi competenze di Trainer.
Grzegorz Gorski
Corso: Administrator Training for Apache Hadoop
Translated by
Ho davvero apprezzato le molte sessioni pratiche.
Jacek Pieczątka
Corso: Administrator Training for Apache Hadoop
Translated by
Ho davvero beneficiato della volontà del formatore di condividere di più.
Balaram Chandra Paul
Corso: A Practical Introduction to Data Analysis and Big Data
Translated by
È piaciuto molto il modo di apprendimento interattivo.
Luigi Loiacono
Corso: Data Analysis with Hive/HiveQL
Translated by
Era un allenamento molto pratico, mi piacevano gli esercizi pratici.
Proximus
Corso: Data Analysis with Hive/HiveQL
Translated by
Ho tratto beneficio dalla buona panoramica, dal buon equilibrio tra teoria ed esercizi.
Proximus
Corso: Data Analysis with Hive/HiveQL
Translated by
Mi è piaciuta l'interazione dinamica e "hands-on" il soggetto, grazie alla Virtual Machine, molto stimolante !.
Philippe Job
Corso: Data Analysis with Hive/HiveQL
Translated by
Ho tratto beneficio dalla competenza e conoscenza del trainer.
Jonathan Puvilland
Corso: Data Analysis with Hive/HiveQL
Translated by
Ha coperto una vasta gamma di informazioni.
Continental AG / Abteilung: CF IT Finance
Corso: A Practical Introduction to Data Analysis and Big Data
Translated by
Generalmente ho tratto beneficio dalla presentazione delle tecnologie.
Continental AG / Abteilung: CF IT Finance
Corso: A Practical Introduction to Data Analysis and Big Data
Translated by
Nel complesso il contenuto è stato buono.
Sameer Rohadia
Corso: A Practical Introduction to Data Analysis and Big Data
Translated by
Sono stati trattati altri argomenti aggiuntivi suggeriti
German Alonso Durango Colmenares
Corso: Administrator Training for Apache Hadoop
Translated by
È stato molto pratico, abbiamo trascorso metà del tempo a fare cose in Clouded / Hardtop, eseguendo comandi diversi, controllando il sistema e così via. I materiali extra (libri, siti Web, ecc.) Sono stati molto apprezzati, dovremo continuare a imparare. Le installazioni erano abbastanza divertenti e molto pratiche, la configurazione del cluster da zero era davvero buona.
Ericsson
Corso: Administrator Training for Apache Hadoop
Translated by
L'allenatore era fantastico e conosceva davvero la sua roba. Ho imparato molto sul software che non conoscevo in precedenza e che aiuterà molto nel mio lavoro !.
Steve McPhail - Alberta Health Services - Information Technology
Corso: Data Analysis with Hive/HiveQL
Translated by
I principi di alto livello su Hive, HDFS ...
Geert Suys - Proximus Group
Corso: Data Analysis with Hive/HiveQL
Translated by
Il microscopio. La pratica del mix / Theroy
Proximus Group
Corso: Data Analysis with Hive/HiveQL
Translated by
Fulvio è stato in grado di cogliere il caso aziendale delle nostre aziende ed è stato in grado di correlare il materiale del corso, quasi istantaneamente.
Samuel Peeters - Proximus Group
Corso: Data Analysis with Hive/HiveQL
Translated by
Molti esercizi pratici.
Ericsson
Corso: Administrator Training for Apache Hadoop
Translated by
Strumento di gestione Ambari. Capacità di discutere esperienze pratiche di Hadoop da altri casi aziendali rispetto alle telecomunicazioni.
Ericsson
Corso: Administrator Training for Apache Hadoop
Translated by
Codice | Nome | Durata | Panoramica |
---|---|---|---|
hadoopadm | Hadoop Administration | 21 ore | Il corso è dedicato agli specialisti IT che sono alla ricerca di una soluzione per archiviare ed elaborare grandi set di dati in ambiente di sistema distribuito Obiettivo del corso: Ottenere conoscenze sull'amministrazione dei cluster Hadoop . |
hadoopforprojectmgrs | Hadoop for Project Managers | 14 ore | Man mano che sempre più software e progetti IT migrano dall'elaborazione locale e dalla gestione dei dati all'elaborazione distribuita e all'archiviazione di big data, i Project Manager stanno riscontrando la necessità di aggiornare le proprie conoscenze e competenze per cogliere concetti e pratiche pertinenti ai progetti e alle opportunità dei Big Data Questo corso introduce i Project Manager al più popolare framework di elaborazione dei Big Data: Hadoop In questo corso di formazione istruito, i partecipanti apprenderanno i componenti principali dell'ecosistema Hadoop e come queste tecnologie possano essere utilizzate per risolvere problemi su vasta scala Nell'apprendimento di queste basi, i partecipanti miglioreranno anche la loro capacità di comunicare con gli sviluppatori e gli implementatori di questi sistemi, nonché con i data scientist e gli analisti coinvolti in molti progetti IT Pubblico Project Manager che desiderano implementare Hadoop nello sviluppo o nell'infrastruttura IT esistente Project Manager che hanno bisogno di comunicare con team interfunzionali che includono ingegneri dei big data, scienziati dei dati e analisti aziendali Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
sqoop | Moving Data from MySQL to Hadoop with Sqoop | 14 ore | Sqoop è uno strumento software open source per il trasferimento di dati tra Hadoop e database relazionali o mainframe Può essere utilizzato per importare dati da un sistema di gestione di database relazionali (RDBMS) come MySQL o Oracle o un mainframe nel file system distribuito Hadoop (HDFS) Successivamente, i dati possono essere trasformati in Hadoop MapReduce e quindi riesportati nuovamente in un RDBMS In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come usare Sqoop per importare i dati da un database relazionale tradizionale ad Hadoop come HDFS o Hive e viceversa Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Sqoop Importa i dati da MySQL a HDFS e Hive Importa i dati da HDFS e Hive su MySQL Pubblico Amministratori di sistema Ingegneri dei dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Nota Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare . |
hadooppython | Hadoop with Python | 28 ore | Hadoop è un famoso framework per l'elaborazione di Big Data Python è un linguaggio di programmazione di alto livello famoso per la sua chiara sintassi e leggibilità del codice In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come lavorare con Hadoop, MapReduce, Pig e Spark usando Python mentre passano attraverso più esempi e casi d'uso Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendi i concetti di base di Hadoop, MapReduce, Pig e Spark Usa Python con Hadoop Distributed File System (HDFS), MapReduce, Pig e Spark Usa Snakebite per accedere a livello di codice HDFS in Python Usa mrjob per scrivere lavori MapReduce in Python Scrivi programmi Spark con Python Estendi le funzionalità di pig usando le UDF di Python Gestisci i lavori MapReduce e gli script Pig usando Luigi Pubblico Sviluppatori Professionisti IT Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
nifidev | Apache NiFi for Developers | 7 ore | Apache NiFi (Hortonworks DataFlow) è una piattaforma per la logistica dei dati integrata in tempo reale e una semplice piattaforma di elaborazione degli eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata su web per gestire i flussi di dati in tempo reale In questo corso di formazione dal vivo, istruito, i partecipanti apprenderanno i fondamenti della programmazione basata sul flusso mentre sviluppano un numero di estensioni demo, componenti e processori utilizzando Apache NiFi Alla fine di questa formazione, i partecipanti saranno in grado di: Comprendere i concetti di architettura e flusso di dati di NiFi Sviluppa estensioni utilizzando NiFi e API di terze parti Personalizzato sviluppa il proprio processore Apache Nifi Integra ed elabora i dati in tempo reale da formati di file e origini dati diversi e non comuni Pubblico Sviluppatori Ingegneri dei dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
nifi | Apache NiFi for Administrators | 21 ore | Apache NiFi (Hortonworks DataFlow) è una piattaforma per la logistica dei dati integrata in tempo reale e una semplice piattaforma di elaborazione degli eventi che consente lo spostamento, il monitoraggio e l'automazione dei dati tra i sistemi È scritto utilizzando la programmazione basata sul flusso e fornisce un'interfaccia utente basata su web per gestire i flussi di dati in tempo reale In questo corso di formazione dal vivo con istruttore, i partecipanti impareranno come implementare e gestire Apache NiFi in un ambiente di laboratorio dal vivo Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura Apachi NiFi Sorgente, trasformazione e gestione dei dati da diverse fonti di dati distribuite, inclusi database e grandi laghi di dati Automatizza i flussi di dati Abilita analisi di streaming Applicare vari approcci per l'ingestione dei dati Trasforma i Big Data e le informazioni di business Pubblico Amministratori di sistema Ingegneri dei dati Sviluppatori DevOps Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
datameer | Datameer for Data Analysts | 14 ore | Datameer è una piattaforma di analisi e business intelligence basata su Hadoop Consente agli utenti finali di accedere, esplorare e correlare dati di grandi dimensioni, strutturati, semistrutturati e non strutturati in modo facile da usare In questo corso di formazione dal vivo, istruito, i partecipanti impareranno come utilizzare Datameer per superare la curva di apprendimento ripida di Hadoop mentre passano attraverso l'installazione e l'analisi di una serie di fonti di dati di grandi dimensioni Alla fine di questa formazione, i partecipanti saranno in grado di: Creare, curare e esplorare in modo interattivo un lago di dati aziendali Accedere ai data warehouse aziendali, ai database transazionali e ad altri negozi di analisi Utilizzare l'interfaccia utente di un foglio di calcolo per progettare condotte di elaborazione dati endtoend Accedi a funzioni preconfigurate per esplorare relazioni dati complesse Utilizzare le procedure guidate di draganddrop per visualizzare i dati e creare dashboard Utilizza tabelle, grafici, grafici e mappe per analizzare i risultati delle query Pubblico Analisti di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
tigon | Tigon: Real-time Streaming for the Real World | 14 ore | Tigon è un open source, in tempo reale, a bassa latenza, highthroughput, nativo YARN, framework di elaborazione del flusso che si basa su HDFS e HBase per la persistenza Le applicazioni Tigon indirizzano i casi d'uso come rilevamento e analisi delle intrusioni della rete, analisi dei mercati dei social media, analisi della posizione e raccomandazioni in tempo reale agli utenti Questo corso di formazione dal vivo con istruttore introduce l'approccio di Tigon alla combinazione di elaborazione in tempo reale e in batch mentre accompagna i partecipanti alla creazione di un'applicazione di esempio Alla fine di questa formazione, i partecipanti saranno in grado di: Crea potenti applicazioni di elaborazione dei flussi per gestire grandi volumi di dati Elabora sorgenti di streaming come Twitter e registri di Webserver Usa Tigon per unire, filtrare e aggregare rapidamente i flussi Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
alluxio | Alluxio: Unifying Disparate Storage Systems | 7 ore | Alexio è un sistema di storage distribuito virtuale opensource che unifica sistemi di storage eterogenei e consente alle applicazioni di interagire con i dati a velocità di memoria Viene utilizzato da aziende come Intel, Baidu e Alibaba In questo corso di formazione dal vivo, istruito, i partecipanti apprenderanno come utilizzare Alexio per collegare diversi sistemi di calcolo con sistemi di archiviazione e gestire in modo efficiente i dati di scala multipetabyte mentre passano attraverso la creazione di un'applicazione con Alluxio Alla fine di questa formazione, i partecipanti saranno in grado di: Sviluppa un'applicazione con Alluxio Connetti i sistemi e le applicazioni di Big Data preservando uno spazio dei nomi Estrarre in modo efficiente il valore dai big data in qualsiasi formato di archiviazione Migliora le prestazioni del carico di lavoro Distribuisci e gestisci Alluxio standalone o cluster Pubblico Scienziato dei dati Sviluppatore Amministratore di sistema Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
samza | Samza for Stream Processing | 14 ore | Apache Samza è un opensource nearrealtime, un framework computazionale asincrono per l'elaborazione del flusso Utilizza Apache Kafka per la messaggistica e Apache Hadoop YARN per la tolleranza ai guasti, l'isolamento del processore, la sicurezza e la gestione delle risorse Questo corso di formazione dal vivo con istruttore introduce i principi che stanno alla base dei sistemi di messaggistica e dell'elaborazione del flusso distribuito, mentre i partecipanti a piedi attraverso la creazione di un esempio di progetto basato su Samza e l'esecuzione di un lavoro Alla fine di questa formazione, i partecipanti saranno in grado di: Usa Samza per semplificare il codice necessario per produrre e consumare messaggi Disaccoppia la gestione dei messaggi da un'applicazione Usa Samza per implementare il calcolo asincrono nearrealtime Utilizzare l'elaborazione del flusso per fornire un livello più alto di astrazione sui sistemi di messaggistica Pubblico Sviluppatori Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
hdp | Hortonworks Data Platform (HDP) for Administrators | 21 ore | Hortonworks Data Platform è una piattaforma di supporto opensource Apache Hadoop che fornisce una base stabile per lo sviluppo di soluzioni di big data nell'ecosistema di Apache Hadoop Questo corso di formazione dal vivo con istruttore introduce Hortonworks e accompagna i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop Alla fine di questa formazione, i partecipanti saranno in grado di: Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark Utilizzare Hortonworks per indagare, convalidare, certificare e supportare ciascuno dei componenti di un progetto Spark Elabora diversi tipi di dati, inclusi strutturati, non strutturati, inmotion e atrest Pubblico Amministratori Hadoop Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
ambari | Apache Ambari: Efficiently Manage Hadoop Clusters | 21 ore | Apache Ambari è una piattaforma di gestione opensource per il provisioning, la gestione, il monitoraggio e la protezione dei cluster Apache Hadoop In questo corso di formazione dal vivo istruito, i partecipanti apprenderanno gli strumenti e le pratiche di gestione forniti da Ambari per gestire con successo i cluster Hadoop Alla fine di questa formazione, i partecipanti saranno in grado di: Configura un cluster Big Data dal vivo usando Ambari Applicare le funzionalità e le funzionalità avanzate di Ambari a vari casi d'uso Aggiungi e rimuovi i nodi senza problemi, se necessario Migliora le prestazioni di un cluster Hadoop attraverso l'ottimizzazione e la messa a punto Pubblico DevOps Amministratori di sistema DBA Hadoop collaudatore professionisti Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva . |
ApHadm1 | Apache Hadoop: Manipulation and Transformation of Data Performance | 21 ore | Questo corso è rivolto a sviluppatori, architetti, esperti di dati o qualsiasi profilo che richiede l'accesso ai dati in modo intensivo o regolare L'obiettivo principale del corso è la manipolazione e la trasformazione dei dati Tra gli strumenti dell'ecosistema Hadoop, questo corso include l'uso di Pig e Hive, entrambi ampiamente utilizzati per la trasformazione e la manipolazione dei dati Questo corso di formazione riguarda anche le metriche relative alle prestazioni e l'ottimizzazione delle prestazioni Il corso è interamente a mano ed è punteggiato da presentazioni degli aspetti teorici . |
apacheh | Administrator Training for Apache Hadoop | 35 ore | Pubblico: Il corso è rivolto agli specialisti IT che cercano una soluzione per archiviare ed elaborare grandi set di dati in un ambiente di sistema distribuito Obbiettivo: Conoscenza approfondita dell'amministrazione del cluster Hadoop . |
BigData_ | A Practical Introduction to Data Analysis and Big Data | 35 ore | Participants who complete this instructor-led, live training will gain a practical, real-world understanding of Big Data and its related technologies, methodologies and tools. Participants will have the opportunity to put this knowledge into practice through hands-on exercises. Group interaction and instructor feedback make up an important component of the class. The course starts with an introduction to elemental concepts of Big Data, then progresses into the programming languages and methodologies used to perform Data Analysis. Finally, we discuss the tools and infrastructure that enable Big Data storage, Distributed Processing, and Scalability. Format of the course - Part lecture, part discussion, hands-on practice and implementation, occasional quizing to measure progress. |
IntroToAvro | Apache Avro: Data Serialization for Distributed Applications | 14 ore | Questo corso è destinato a Sviluppatori Formato del corso Lezioni frontali, esercitazioni pratiche, piccoli test lungo la strada per valutare la comprensione . |
HadoopDevAd | Hadoop for Developers and Administrators | 21 ore | Hadoop è il framework di elaborazione Big Data più popolare . |
Imp | Impala for Business Intelligence | 21 ore | Cloudera Impala è un motore di query SQL con elaborazione massiva parallelamente (MPP) open source per cluster Apache Hadoop Impala consente agli utenti di inviare query SQL a bassa latenza ai dati archiviati in Hadoop Distributed File System e Apache Hbase senza richiedere lo spostamento o la trasformazione dei dati Pubblico Questo corso è rivolto a analisti e scienziati che eseguono analisi sui dati archiviati in Hadoop tramite strumenti di Business Intelligence o SQL Dopo questo corso i delegati saranno in grado di Estrarre informazioni significative dai cluster Hadoop con Impala Scrivi programmi specifici per facilitare la Business Intelligence in Impala SQL Dialect Risolvi Impala . |
hivehiveql | Data Analysis with Hive/HiveQL | 7 ore | Questo corso illustra come utilizzare il linguaggio Hive SQL (AKA: Hive HQL, SQL on Hive, HiveQL) per le persone che estraggono i dati da Hive . |
hadoopba | Hadoop for Business Analysts | 21 ore | Apache Hadoop è il framework più popolare per l'elaborazione di Big Data Hadoop offre capacità di analisi approfondite e approfondite e sta facendo breccia nel mondo dell'analisi BI tradizionale Questo corso introdurrà un analista ai componenti principali del sistema eco Hadoop e alle sue analisi Pubblico Analisti aziendali Durata tre giorni Formato Lezioni frontali e lezioni in laboratorio . |
hadoopadm1 | Hadoop For Administrators | 21 ore | Apache Hadoop è il framework più popolare per l'elaborazione di Big Data su cluster di server In questo corso di tre (opzionalmente, quattro) giorni, i partecipanti apprenderanno i vantaggi aziendali e i casi d'uso di Hadoop e del suo ecosistema, come pianificare la distribuzione e la crescita dei cluster, come installare, mantenere, monitorare, risolvere e ottimizzare Hadoop Praticheranno inoltre il carico dei dati di massa dei cluster, acquisiranno familiarità con le varie distribuzioni Hadoop e pratichino l'installazione e la gestione degli strumenti dell'ecosistema Hadoop Il corso termina con la discussione sulla messa in sicurezza del cluster con Kerberos " I materiali erano ben preparati e coperti a fondo Il laboratorio è stato molto utile e ben organizzato " - Andrew Nguyen, Principal Integration DW Engineer, Microsoft Online Advertising Pubblico Amministratori Hadoop Formato Lezioni frontali e esercitazioni pratiche, bilancio approssimativo 60% lezioni frontali, 40% laboratori . |
hbasedev | HBase for Developers | 21 ore | Questo corso introduce HBase - un archivio NoSQL su Hadoop Il corso è rivolto agli sviluppatori che utilizzeranno HBase per sviluppare applicazioni e amministratori che gestiranno i cluster HBase Cammineremo uno sviluppatore attraverso l'architettura HBase e la modellazione dei dati e lo sviluppo di applicazioni su HBase Discuterà inoltre l'utilizzo di MapReduce con HBase e alcuni argomenti di amministrazione relativi all'ottimizzazione delle prestazioni Il corso è molto pratico con molti esercizi di laboratorio Durata : 3 giorni Pubblico : sviluppatori e amministratori . |
hadoopdeva | Advanced Hadoop for Developers | 21 ore | Apache Hadoop è uno dei framework più popolari per l'elaborazione di Big Data su cluster di server Questo corso approfondisce la gestione dei dati in HDFS, Pig avanzato, Hive e HBase Queste tecniche di programmazione avanzate saranno utili agli sviluppatori esperti di Hadoop Pubblico : sviluppatori Durata: tre giorni Formato: lezioni (50%) e handson lab (50%) . |
hadoopdev | Hadoop for Developers (4 days) | 28 ore | Apache Hadoop è il framework più popolare per l'elaborazione di Big Data su cluster di server Questo corso introdurrà uno sviluppatore a vari componenti (HDFS, MapReduce, Pig, Hive e HBase) dell'ecosistema Hadoop . |
hadoopmapr | Hadoop Administration on MapR | 28 ore | Pubblico: Questo corso intende demistificare la tecnologia big data / hadoop e mostrarlo non è difficile da capire. |
bigdataanahealth | Big Data Analytics in Health | 21 ore | L'analisi dei big data comporta il processo di esaminare grandi quantità di set di dati diversi al fine di scoprire correlazioni, schemi nascosti e altre utili informazioni L'industria della salute ha enormi quantità di dati medici e clinici eterogenei complessi L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel derivare intuizioni per migliorare l'erogazione dell'assistenza sanitaria Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e nelle applicazioni pratiche in un ambiente clinico In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercizi di livelab Alla fine di questa formazione, i partecipanti saranno in grado di: Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark Comprendere le caratteristiche dei dati medici Applicare tecniche di big data per gestire i dati medici Studio di sistemi e algoritmi di big data nel contesto delle applicazioni sanitarie Pubblico Sviluppatori Scienziati di dati Formato del corso Lezione di parte, discussione parziale, esercitazioni e pratica intensiva Nota Per richiedere una formazione personalizzata per questo corso, vi preghiamo di contattarci per organizzare . |
Corso | Course Date | Prezzo del corso [A distanza / In classe] |
---|---|---|
Apache Hadoop: Manipulation and Transformation of Data Performance - Milano | Mer, 2019-03-20 09:30 | 4500EUR / 5300EUR |
Apache Hadoop: Manipulation and Transformation of Data Performance - Roma | Lun, 2019-04-01 09:30 | 4500EUR / 5300EUR |
Apache Hadoop: Manipulation and Transformation of Data Performance - Torino | Mer, 2019-04-03 09:30 | 4500EUR / 5300EUR |
Apache Hadoop: Manipulation and Transformation of Data Performance - Napoli | Lun, 2019-04-15 09:30 | 4500EUR / 5300EUR |
Apache Hadoop: Manipulation and Transformation of Data Performance - Bologna | Lun, 2019-04-22 09:30 | 4500EUR / 5300EUR |
Corso | Sede | Course Date | Prezzo del corso [A distanza / In classe] |
---|---|---|---|
Advanced C#, ASP.NET and Web Application Security | Roma | Mer, 2019-03-13 09:30 | 5250EUR / 6050EUR |
Data Modelling with UML | Genova | Mar, 2019-05-14 09:30 | 3150EUR / 3750EUR |
Natural Language Processing - AI/Robotics | Bologna | Lun, 2019-06-10 09:30 | 4725EUR / 5525EUR |
Big Data - Data Science | Genova | Gio, 2019-07-04 09:30 | 3500EUR / 4100EUR |
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP | Bologna | Lun, 2019-07-15 09:30 | 4725EUR / 5525EUR |
We are looking to expand our presence in Italy!
If you are interested in running a high-tech, high-quality training and consulting business.
Apply now!