Corso di formazione Big Data Analisi nei Servizi Sanitari
L'analisi dei big data prevede il processo di esame di grandi quantità di set di dati diversi al fine di scoprire correlazioni, schemi nascosti e altre informazioni utili.
L'industria sanitaria ha enormi quantità di dati medici e clinici eterogenei complessi. L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel ricavare approfondimenti per migliorare l'erogazione dell'assistenza sanitaria. Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e applicazioni pratiche in un ambiente clinico.
In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercitazioni pratiche in laboratorio dal vivo.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark
- Comprendi le caratteristiche dei dati medici
- Applicare tecniche di big data per gestire i dati medici
- Studiare sistemi e algoritmi per big data nel contesto di applicazioni sanitarie
Pubblico
- Sviluppatori
- Scienziati dei dati
Formato del corso
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche.
Nota
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
Struttura del corso
Introduzione a Big Data Analytics in Health
Panoramica di Big Data Tecnologie analitiche
- Apache Hadoop MapReduce
- Scintilla Apache
Installazione e configurazione di Apache Hadoop MapReduce
Installazione e configurazione Apache Spark
Utilizzo della modellazione predittiva per i dati sanitari
Utilizzo di Apache Hadoop MapReduce per i dati sanitari
Esecuzione della fenotipizzazione e del clustering sui dati sanitari
- Metriche di valutazione della classificazione
- Metodi dell'insieme di classificazione
Utilizzo di Apache Spark per i dati sanitari
Lavorare con l'ontologia medica
Utilizzo dell'analisi grafica sui dati sanitari
Riduzione della dimensionalità sui dati sanitari
Utilizzo delle metriche di somiglianza dei pazienti
Risoluzione dei problemi
Riassunto e conclusione
Requisiti
- Comprensione dei concetti di Machine Learning e data mining
- Esperienza di programmazione avanzata (Python, Java, Scala)
- Competenza nei processi di dati ed ETL
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Big Data Analisi nei Servizi Sanitari - Prenotazione
Corso di formazione Big Data Analisi nei Servizi Sanitari - Richiesta
Big Data Analisi nei Servizi Sanitari - Richiesta di consulenza
Richiesta di consulenza
Recensioni (1)
The VM I liked very much The Teacher was very knowledgeable regarding the topic as well as other topics, he was very nice and friendly I liked the facility in Dubai.
Safar Alqahtani - Elm Information Security
Corso - Big Data Analytics in Health
Corsi in Arrivo
Corsi relativi
Formazione per amministratori per Apache Hadoop
35 OrePubblico Obiettivo:
Il corso è destinato ai professionisti IT in cerca di una soluzione per archiviare e processare grandi insiemi di dati in un ambiente di sistema distribuito.
Goal:
Conoscenze approfondite nell'amministrazione del cluster Hadoop.
Analisi dei Big Data con Google Colab e Apache Spark
14 OreQuesta formazione guidata dal formatore in Italia (online o sul posto) si rivolge a data scientist e ingegneri di livello intermedio che desiderano utilizzare Google Colab e Apache Spark per il processing e l'analisi dei big data.
Alla fine di questa formazione, i partecipanti saranno in grado di:
- Configurare un ambiente di big data utilizzando Google Colab e Spark.
- Processare e analizzare grandi set di dati efficacemente con Apache Spark.
- Visualizzare i big data in un ambiente collaborativo.
- Integrare Apache Spark con strumenti basati sul cloud.
Amministrazione di Hadoop
21 OreIl corso è dedicato agli specialisti IT in cerca di una soluzione per archiviare e processare grandi insiemi di dati in un ambiente di sistema distribuito
Obiettivo del corso:
Acquisire conoscenze riguardanti l'administrazione del cluster Hadoop
Hadoop e Spark per gli Amministratori
35 OreQuesto corso di formazione diretto dall'instruttore (online o in presenza) è rivolto agli amministratori di sistema che desiderano imparare come configurare, distribuire e gestire cluster Hadoop all'interno della loro organizzazione.
Al termine di questo corso, i partecipanti saranno in grado di:
- Installare e configurare Apache Hadoop.
- Comprendere i quattro principali componenti nell'ecosistema Hadoop: HDFS, MapReduce, YARN e Hadoop Common.
- Utilizzare il Hadoop Distributed File System (HDFS) per scalare un cluster a centinaia o migliaia di nodi.
- Configurare HDFS come motore di archiviazione per distribuzioni Spark on-premise.
- Configurare Spark per accedere a soluzioni di archiviazione alternative come Amazon S3 e sistemi database NoSQL come Redis, Elasticsearch, Couchbase, Aerospike, ecc.
- Eseguire attività amministrative come provisioning, gestione, monitoraggio e protezione di un cluster Apache Hadoop.
Una Introduzione Pratica allo Stream Processing
21 OreIn questo corso guidato dall'instruttore (in loco o remoto), i partecipanti impareranno come configurare e integrare diversi framework di Stream Processing con sistemi di archiviazione dei dati Big Data esistenti e applicazioni software correlate e microservizi.
Al termine di questo corso, i partecipanti saranno in grado di:
- Installare e configurare diversi framework di Stream Processing, come Spark Streaming e Kafka Streaming.
- Capire e selezionare il framework più appropriato per l'attività.
- Elaborare i dati in modo continuo, concorrente e record per record.
- Integrare le soluzioni di Stream Processing con database esistenti, data warehouse, data lake, ecc.
- Integrare la libreria di elaborazione di stream più appropriata con applicazioni aziendali e microservizi.
SMACK Stack per la Scienza dei Dati
14 OreQuesto corso di formazione guidato dal docente (online o in loco) è rivolto ai data scientist che desiderano utilizzare il stack SMACK per costruire piattaforme di elaborazione dei dati per soluzioni a grandi dimensioni.
Al termine di questo corso, i partecipanti saranno in grado di:
- Implementare un'architettura della pipeline dei dati per l'elaborazione dei grandi volumi di dati.
- Sviluppare un'infrastruttura cluster con Apache Mesos e Docker.
- Analizzare i dati con Spark e Scala.
- Gestire dati non strutturati con Apache Cassandra.
Apache Spark Fundamentals
21 OreQuesto training guidato dal formatore in Italia (online o in presenza) è rivolto agli ingegneri che desiderano configurare e implementare il sistema Apache Spark per l'elaborazione di grandi quantità di dati.
Alla fine di questo corso, i partecipanti saranno in grado di:
- Installare e configurare Apache Spark.
- Lettura rapida ed analisi di grandi quantità di dati.
- Capire le differenze tra Apache Spark e Hadoop MapReduce e quando utilizzare ciascuno dei due.
- Integrare Apache Spark con altri strumenti di apprendimento automatico.
Amministrazione di Apache Spark
35 OreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto agli amministratori di sistema di livello principiante e intermedio che desiderano distribuire, gestire e ottimizzare i cluster Spark.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installare e configurare Apache Spark in vari ambienti.
- Gestisci le risorse del cluster e monitora le applicazioni Spark.
- Ottimizzare le prestazioni dei cluster Spark.
- Implementa misure di sicurezza e garantisci un'elevata disponibilità.
- Eseguire il debug e risolvere i problemi comuni di Spark.
Apache Spark nel Cloud
21 OreL'andamento della curva di apprendimento di Apache Spark si intensifica lentamente all'inizio, richiedendo molto sforzo per ottenere i primi risultati. Questo corso mira a superare la prima parte difficile. Dopo aver completato il corso, i partecipanti comprenderanno le basi di Apache Spark, sapranno distinguere chiaramente RDD da DataFrame, impareranno l'API Python e Scala, capiranno gli esecutori e i task, ecc. Inoltre, seguendo le best practice, questo corso si concentra fortemente sulla distribuzione nel cloud, su Databricks e AWS. Gli studenti comprenderanno anche le differenze tra AWS EMR e AWS Glue, uno dei servizi Spark più recenti di AWS.
PUBBLICO:
Data Engineer, DevOps, Data Scientist
Spark per Sviluppatori
21 OreOBBIETTIVO:
Questo corso introdurrà Apache Spark. Gli studenti impareranno come Spark si inserisce nell'ecosistema Big Data e come utilizzare Spark per l'analisi dei dati. Il corso coprirà la shell di Spark per l'analisi dei dati interattiva, le interne di Spark, le API di Spark, Spark SQL, il streaming di Spark, e l'apprendimento automatico e GraphX.
PUBBLICO OBBIETTIVO :
Sviluppatori / Analisti dei Dati
Scalabilità delle Pipeline di Dati con Spark NLP
14 OreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto a data scientist e sviluppatori che desiderano utilizzare Spark NLP, basato su Apache Spark, per sviluppare, implementare e scalare modelli e pipeline di elaborazione del testo in linguaggio naturale.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Configura l'ambiente di sviluppo necessario per iniziare a costruire pipeline NLP con Spark NLP.
- Comprendere le caratteristiche, l'architettura e i vantaggi dell'utilizzo Spark NLP.
- Utilizzare i modelli pre-addestrati disponibili in Spark NLP per implementare l'elaborazione del testo.
- Scopri come creare, addestrare e scalare Spark NLP modelli per progetti di produzione.
- Applica la classificazione, l'inferenza e l'analisi del sentiment su casi d'uso reali (dati clinici, approfondimenti sul comportamento dei clienti, ecc.).
Python e Spark per Big Data (PySpark)
21 OreIn questo corso di formazione dal vivo con istruttore in Italia, i partecipanti impareranno come utilizzare Python e Spark insieme per analizzare i big data mentre lavorano su esercizi pratici.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Scopri come utilizzare Spark con Python per analizzare Big Data.
- Lavora su esercizi che imitano casi del mondo reale.
- Utilizzare diversi strumenti e tecniche per l'analisi dei big data utilizzando PySpark.
Python, Spark e Hadoop per Big Data
21 OreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto agli sviluppatori che desiderano utilizzare e integrare Spark, Hadoop e Python per elaborare, analizzare e trasformare set di dati grandi e complessi.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Configurare l'ambiente necessario per iniziare a elaborare i big data con Spark, Hadoop e Python.
- Comprendere le funzionalità, i componenti principali e l'architettura di Spark e Hadoop.
- Scopri come integrare Spark, Hadoop e Python per l'elaborazione dei big data.
- Esplora gli strumenti nell'ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka e Flume).
- Crea sistemi di raccomandazione di filtraggio collaborativi simili a Netflix, YouTube, Amazon, Spotify e Google.
- Usa Apache Mahout per ridimensionare gli algoritmi di machine learning.
Apache Spark SQL
7 OreSpark SQL è il modulo di Apache Spark per lavorare con dati strutturati e non strutturati. Spark SQL fornisce informazioni sulla struttura dei dati e sul calcolo che viene eseguito. Queste informazioni possono essere utilizzate per eseguire ottimizzazioni. Due utilizzi comuni di Spark SQL sono:
- l'esecuzione di query SQL.
- la lettura di dati da un'installazione esistente di Hive.
In questa formazione guidata dal docente (in presenza o a distanza), i partecipanti impareranno come analizzare vari set di dati utilizzando Spark SQL.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installare e configurare Spark SQL.
- Eseguire l'analisi dei dati utilizzando Spark SQL.
- Eseguire query su set di dati in diversi formati.
- Visualizzare i dati e i risultati delle query.
Formato del Corso
- Lezione interattiva e discussione.
- Molti esercizi e pratica.
- Implementazione pratica in un ambiente live-lab.
Opzioni di Personalizzazione del Corso
- Per richiedere una formazione personalizzata per questo corso, si prega di contattarci per organizzare l'evento.
Stratio: Moduli Rocket e Intelligence con PySpark
14 OreStratio è una piattaforma centrata sui dati che integra big data, IA e governance in una singola soluzione. I moduli Rocket e Intelligence permettono l'esplorazione rapida dei dati, le trasformazioni e analisi avanzate negli ambienti aziendali.
Questo corso interattivo guidato da un istruttore (online o presenza) è rivolto a professionisti di livello intermedio che desiderano utilizzare efficacemente i moduli Rocket e Intelligence in Stratio con PySpark, focalizzandosi su strutture di loop, funzioni definite dall'utente e logica dei dati avanzata.
Alla fine del corso, i partecipanti saranno in grado di:
- Navigare e lavorare all'interno della piattaforma Stratio utilizzando i moduli Rocket e Intelligence.
- Applicare PySpark nel contesto di ingegneria dei dati, trasformazione e analisi.
- Utilizzare loop e logica condizionale per controllare i flussi di lavoro dei dati e le attività di ingegneria delle caratteristiche.
- Creare e gestire funzioni definite dall'utente (UDFs) per operazioni sui dati ripetibili in PySpark.
Formato del Corso
- Lezione interattiva e discussione.
- Numerose esercitazioni e pratica.
- Implementazione pratica in un ambiente di laboratorio live.
Opzioni per la Personalizzazione del Corso
- Per richiedere una formazione personalizzata su questo corso, si prega di contattarci per organizzare.