Corso di formazione Big Data Analisi nei Servizi Sanitari
L'analisi dei big data prevede il processo di esame di grandi quantità di set di dati diversi al fine di scoprire correlazioni, schemi nascosti e altre informazioni utili.
L'industria sanitaria ha enormi quantità di dati medici e clinici eterogenei complessi. L'applicazione dell'analisi dei big data sui dati sanitari presenta un enorme potenziale nel ricavare approfondimenti per migliorare l'erogazione dell'assistenza sanitaria. Tuttavia, l'enormità di questi set di dati pone grandi sfide nelle analisi e applicazioni pratiche in un ambiente clinico.
In questo corso di formazione dal vivo con istruttore (a distanza), i partecipanti impareranno come eseguire analisi dei big data in salute mentre eseguono una serie di esercitazioni pratiche in laboratorio dal vivo.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura strumenti di analisi dei big data come Hadoop MapReduce e Spark
- Comprendi le caratteristiche dei dati medici
- Applicare tecniche di big data per gestire i dati medici
- Studiare sistemi e algoritmi per big data nel contesto di applicazioni sanitarie
Pubblico
- Sviluppatori
- Scienziati dei dati
Formato del corso
- Parte lezione, parte discussione, esercitazioni e esercitazioni pratiche.
Nota
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
Struttura del corso
Introduzione a Big Data Analytics in Health
Panoramica di Big Data Tecnologie analitiche
- Apache Hadoop MapReduce
- Scintilla Apache
Installazione e configurazione di Apache Hadoop MapReduce
Installazione e configurazione Apache Spark
Utilizzo della modellazione predittiva per i dati sanitari
Utilizzo di Apache Hadoop MapReduce per i dati sanitari
Esecuzione della fenotipizzazione e del clustering sui dati sanitari
- Metriche di valutazione della classificazione
- Metodi dell'insieme di classificazione
Utilizzo di Apache Spark per i dati sanitari
Lavorare con l'ontologia medica
Utilizzo dell'analisi grafica sui dati sanitari
Riduzione della dimensionalità sui dati sanitari
Utilizzo delle metriche di somiglianza dei pazienti
Risoluzione dei problemi
Riassunto e conclusione
Requisiti
- Comprensione dei concetti di Machine Learning e data mining
- Esperienza di programmazione avanzata (Python, Java, Scala)
- Competenza nei processi di dati ed ETL
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Big Data Analisi nei Servizi Sanitari - Booking
Corso di formazione Big Data Analisi nei Servizi Sanitari - Enquiry
Big Data Analisi nei Servizi Sanitari - Richiesta di consulenza
Richiesta di consulenza
Recensioni (1)
The VM I liked very much The Teacher was very knowledgeable regarding the topic as well as other topics, he was very nice and friendly I liked the facility in Dubai.
Safar Alqahtani - Elm Information Security
Corso - Big Data Analytics in Health
Corsi in Arrivo
Corsi relativi
Intelligenza Artificiale - le cose più applicate - Data Analysis + AI distribuita + NLP
21 oreQuesto corso è rivolto a sviluppatori e scienziati dei dati che desiderano comprendere ed implementare l'intelligenza artificiale nei loro applicativi. Ciò include un'attenzione particolare all'analisi dei dati, all'intelligenza artificiale distribuita e al processing del linguaggio naturale.
Introduzione al Calcolo dei Grafi
28 oreIn questo corso di formazione dal vivo con istruttore in Italia, i partecipanti impareranno a conoscere le offerte tecnologiche e gli approcci di implementazione per l'elaborazione dei dati grafici. L'obiettivo è identificare gli oggetti del mondo reale, le loro caratteristiche e relazioni, quindi modellare queste relazioni ed elaborarle come dati utilizzando un approccio Graph Computing (noto anche come Graph Analitica). Iniziamo con un'ampia panoramica e ci concentriamo su strumenti specifici mentre esaminiamo una serie di casi di studio, esercizi pratici e implementazioni dal vivo.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Informazioni sul modo in cui i dati del grafo vengono salvati in modo permanente e attraversati.
- Selezionare il framework migliore per una determinata attività (dai database a grafo ai framework di elaborazione batch).
- Implementa Hadoop, Spark, GraphX e Pregel per eseguire il calcolo dei grafi su molte macchine in parallelo.
- Visualizza i problemi reali dei big data in termini di grafici, processi e attraversamenti.
Hortonworks Data Platform (HDP) for Administrators
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) introduce Hortonworks Data Platform (HDP) e guida i partecipanti attraverso l'implementazione della soluzione Spark + Hadoop.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Utilizzare Hortonworks per eseguire in modo affidabile Hadoop su larga scala.
- Unifica le funzionalità di sicurezza, governance e operazioni di Hadoop con i flussi di lavoro analitici agili di Spark.
- Utilizza Hortonworks per analizzare, convalidare, certificare e supportare ciascuno dei componenti di un progetto Spark.
- Elabora diversi tipi di dati, inclusi quelli strutturati, non strutturati, in movimento e inattivi.
Analisi dei Dati con Hive/HiveQL
7 oreQuesto corso illustra come utilizzare il linguaggio Hive SQL (AKA: Hive HQL, SQL on Hive , Hive QL) per le persone che estraggono dati da Hive
Impala per Intelligenza di_business
21 oreCloudera Impala è un motore di query open source MPP (Massively Parallel Processing) SQL per cluster Apache Hadoop.
Impala consente agli utenti di inviare query a bassa latenza SQL ai dati memorizzati in Hadoop Distributed File System e Apache Hbase senza richiedere lo spostamento o la trasformazione dei dati.
Pubblico
Questo corso è rivolto ad analisti e data scientist che eseguono analisi sui dati memorizzati in Hadoop tramite Business Intelligence o SQL strumenti.
Dopo questo corso i delegati saranno in grado di:
- Estrai informazioni significative da Hadoop cluster con Impala.
- Scrivi programmi specifici per facilitare Business l'intelligenza in Impala SQL dialetto.
- Risoluzione dei problemi Impala.
Un'introduzione pratica al processing di flussi
21 oreIn questo corso di formazione dal vivo con istruttore in Italia (in loco o in remoto), i partecipanti impareranno come impostare e integrare diversi Stream Processing framework con i sistemi di archiviazione dei big data esistenti e le relative applicazioni software e microservizi.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installare e configurare diversi framework Stream Processing, ad esempio Spark Streaming e Kafka Streaming.
- Comprendere e selezionare il framework più appropriato per il lavoro.
- Elaborazione dei dati in modo continuo, simultaneo e record per record.
- Integrare Stream Processing le soluzioni con database, data warehouse, data lake, ecc. esistenti.
- Integra la libreria di elaborazione dei flussi più appropriata con le applicazioni e i microservizi aziendali.
SMACK Stack per la Scienza dei Dati
14 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto ai data scientist che desiderano utilizzare lo stack SMACK per creare piattaforme di elaborazione dati per soluzioni di big data.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Implementare un'architettura di pipeline di dati per l'elaborazione dei big data.
- Sviluppa un'infrastruttura cluster con Apache Mesos e Docker.
- Analizza i dati con Spark e Scala.
- Gestisci i dati non strutturati con Apache Cassandra.
Fondamenti di Apache Spark
21 oreQuesto corso di formazione dal vivo con istruttore in Italia (online o in loco) è rivolto agli ingegneri che desiderano configurare e implementare Apache Spark un sistema per l'elaborazione di grandi quantità di dati.
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installare e configurare Apache Spark.
- Elabora e analizza rapidamente set di dati molto grandi.
- Comprendere la differenza tra Apache Spark e Hadoop MapReduce e quando usarlo.
- Integra Apache Spark con altri strumenti di Machine Learning.
Apache Spark nel Cloud
21 oreLa curva di apprendimento di Apache Spark sta lentamente aumentando all'inizio, ha bisogno di molti sforzi per ottenere il primo ritorno. Questo corso mira a saltare attraverso la prima parte difficile. Dopo aver seguito questo corso, i partecipanti comprenderanno le basi di Apache Spark , distingueranno chiaramente RDD da DataFrame, impareranno le API di Python e Scala , capiranno gli esecutori e le attività, ecc. Seguendo anche le migliori pratiche, questo corso si concentra fortemente su implementazione cloud, Databricks e AWS. Gli studenti capiranno anche le differenze tra AWS EMR e AWS Glue, uno degli ultimi servizi Spark di AWS.
PUBBLICO:
Data Engineer, DevOps , Data Scientist
Spark per Sviluppatori
21 oreOBBIETTIVO:
Questo corso introdurrà Apache Spark . Gli studenti impareranno come Spark si inserisce nell'ecosistema Big Data e come utilizzare Spark per l'analisi dei dati. Il corso copre la shell Spark per l'analisi interattiva dei dati, gli interni Spark, le API Spark, Spark SQL , lo streaming Spark e l'apprendimento automatico e graphX.
PUBBLICO:
Sviluppatori / Analisti di dati
Python e Spark per Big Data (PySpark)
21 oreIn questo corso di formazione dal vivo con istruttore in Italia, i partecipanti impareranno come utilizzare Python e Spark insieme per analizzare i big data mentre lavorano su esercizi pratici.
Al termine di questo corso di formazione, i partecipanti saranno in grado di:
- Scopri come utilizzare Spark con Python per analizzare Big Data.
- Lavora su esercizi che imitano casi del mondo reale.
- Utilizzare diversi strumenti e tecniche per l'analisi dei big data utilizzando PySpark.
Apache Spark SQL
7 ore Spark SQL è il modulo di Apache Spark per lavorare con dati strutturati e non strutturati. Spark SQL fornisce informazioni sulla struttura dei dati e sul calcolo eseguito. Queste informazioni possono essere utilizzate per eseguire ottimizzazioni. Due usi comuni per Spark SQL sono:
- per eseguire query SQL .
- leggere i dati da un'installazione Hive esistente.
In questo corso di formazione dal vivo con istruttore (in loco o remoto), i partecipanti impareranno come analizzare vari tipi di set di dati utilizzando Spark SQL .
Al termine di questa formazione, i partecipanti saranno in grado di:
- Installa e configura Spark SQL .
- Eseguire l'analisi dei dati utilizzando Spark SQL .
- Interroga set di dati in diversi formati.
- Visualizza i dati e i risultati delle query.
Formato del corso
- Conferenza e discussione interattiva.
- Molti esercizi e pratiche.
- Implementazione pratica in un ambiente live-lab.
Opzioni di personalizzazione del corso
- Per richiedere una formazione personalizzata per questo corso, ti preghiamo di contattarci per organizzare.
Apache Spark MLlib
35 oreMLlib è la libreria di machine learning (ML) di Spark. Il suo obiettivo è rendere l'apprendimento automatico pratico scalabile e facile. Comprende algoritmi e utilità di apprendimento comuni, tra cui classificazione, regressione, clustering, filtro collaborativo, riduzione della dimensionalità, nonché primitive di ottimizzazione di livello inferiore e API di pipeline di livello superiore.
Si divide in due pacchetti:
spark.mllib contiene l'API originale basata su RDD.
spark.ml fornisce API di livello superiore basate su DataFrames per la costruzione di pipeline ML.
Pubblico
Questo corso è rivolto a ingegneri e sviluppatori che desiderano utilizzare una libreria di macchine integrata per Apache Spark
Stratio: Moduli Rocket e Intelligence con PySpark
14 oreStratio è una piattaforma centrata sui dati che integra big data, IA e governance in una singola soluzione. I moduli Rocket e Intelligence permettono l'esplorazione rapida dei dati, le trasformazioni e analisi avanzate negli ambienti aziendali.
Questo corso interattivo guidato da un istruttore (online o presenza) è rivolto a professionisti di livello intermedio che desiderano utilizzare efficacemente i moduli Rocket e Intelligence in Stratio con PySpark, focalizzandosi su strutture di loop, funzioni definite dall'utente e logica dei dati avanzata.
Alla fine del corso, i partecipanti saranno in grado di:
- Navigare e lavorare all'interno della piattaforma Stratio utilizzando i moduli Rocket e Intelligence.
- Applicare PySpark nel contesto di ingegneria dei dati, trasformazione e analisi.
- Utilizzare loop e logica condizionale per controllare i flussi di lavoro dei dati e le attività di ingegneria delle caratteristiche.
- Creare e gestire funzioni definite dall'utente (UDFs) per operazioni sui dati ripetibili in PySpark.
Formato del Corso
- Lezione interattiva e discussione.
- Numerose esercitazioni e pratica.
- Implementazione pratica in un ambiente di laboratorio live.
Opzioni per la Personalizzazione del Corso
- Per richiedere una formazione personalizzata su questo corso, si prega di contattarci per organizzare.