Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Ripartizione degli argomenti su base giornaliera: (Ogni sessione è di 2 ore)
Giorno 1: Sessione -1: Panoramica aziendale del perché i Big Data Business Intelligence nelle telecomunicazioni.
- Casi di studio di T-Mobile, Verizon ecc.
- Tasso di adattamento dei Big Data nelle telecomunicazioni nordamericane e come stanno allineando il loro futuro modello di business e le loro operazioni intorno alla Big Data BI
- Area di applicazione su larga scala
- Gestione della rete e dei servizi
- Abbandono dei clienti Management
- Integrazione dei dati e visualizzazione della dashboard
- Gestione delle frodi
- Generazione di regole di business
- Profilazione dei clienti
- Push di annunci localizzati
Giorno-1: Sessione-2 : Introduzione di Big Data-1
- Caratteristiche principali dei Big Data: volume, varietà, velocità e veridicità. Architettura MPP per il volume.
- Data Warehouse: schema statico, set di dati in lenta evoluzione
- Database MPP come Greenplum, Exadata, Teradata, Netezza, Vertica ecc.
- Soluzioni basate su Hadoop: nessuna condizione sulla struttura del set di dati.
- Modello tipico: HDFS, MapReduce (crunch), recupero da HDFS
- Batch: adatto per analisi analitiche/non interattive
- Volume : CEP streaming data
- Scelte tipiche – prodotti CEP (ad es. Infostreams, Apama, MarkLogic ecc.)
- Meno pronto per la produzione – Storm/S4
- Database NoSQL - (colonnari e chiave-valore): più adatto come aggiunta analitica al data warehouse/database
Giorno-1 : Sessione -3 : Introduzione a Big Data-2
NoSQL soluzioni
- Archivio KV - Keyspace, Flare, SchemaFree, RAMCloud, database Oracle NoSQL (OnDB)
- Negozio KV - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
- Archivio KV (gerarchico) - GT.m, Cache
- Negozio KV (ordinato) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
- KV Cache - Memcached, Repcached, Coherence, Infinispan, EXtremeScale, JBossCache, Velocity, Terracoqua
- Negozio Tuple - Gigaspaces, Coord, Apache River
- Database di oggetti - ZopeDB, DB40, Shoal
- Archivio documenti - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
- Ampio archivio colonnare - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI
Varietà di dati: introduzione al problema Data Cleaning dei Big Data
- RDBMS – struttura/schema statico, non promuove un ambiente agile ed esplorativo.
- NoSQL - struttura semi-strutturata, sufficiente per memorizzare i dati senza uno schema esatto prima di memorizzare i dati
- Problemi di pulizia dei dati
Giorno-1 : Sessione-4 : Introduzione ai Big Data-3 : Hadoop
- Quando selezionare Hadoop?
- STRUTTURATO - I data warehouse/database aziendali possono archiviare dati di grandi dimensioni (a pagamento) ma imporre una struttura (non adatta per l'esplorazione attiva)
- Dati SEMI STRUTTURATI – difficili da fare con le soluzioni tradizionali (DW/DB)
- Dati di magazzino = ENORME sforzo e statici anche dopo l'implementazione
- Per la varietà e il volume dei dati, elaborati su hardware di base – HADOOP
- Commodity H/W necessario per creare un Hadoop Cluster
Introduzione a Map Reduce /HDFS
- MapReduce: distribuisci l'elaborazione su più server
- HDFS: rende i dati disponibili localmente per il processo di elaborazione (con ridondanza)
- Dati: possono essere non strutturati/senza schema (a differenza di RDBMS)
- Responsabilità dello sviluppatore per dare un senso ai dati
- Programming MapReduce = lavorare con Java (pro/contro), caricare manualmente i dati in HDFS
Giorno 2: Sessione-1.1: Spark: Database distribuito in memoria
- Che cos'è l'elaborazione "In memoria"?
- Scintilla SQL
- Spark SDK
- Spark API
- RDD (Organizzazione di Relazioni
- Spark Lib
- Hanna
- Come eseguire la migrazione di un sistema Hadoop esistente a Spark
Sessione -1.2 del giorno 2: Tempesta -Elaborazione in tempo reale in Big Data
- Flussi
- Germogli
- Bulloni
- Topologie
Giorno-2: Sessione-2: Big Data Management Sistema
- Parti mobili, nodi di calcolo start/fail :ZooKeeper - Per i servizi di configurazione/coordinamento/denominazione
- Pipeline/flusso di lavoro complesso: Oozie: gestione del flusso di lavoro, delle dipendenze, del collegamento a margherita
- Distribuzione, configurazione, gestione del cluster, aggiornamento e così via (amministratore di sistema) :Ambari
- In nuvola : Whirr
- Evoluzione Big Data degli strumenti della piattaforma per il monitoraggio
- Problemi relativi all'applicazione del livello ETL
Giorno-2: Sessione-3: Analisi predittiva in Business Intelligence -1: Tecniche fondamentali e BI basata sull'apprendimento automatico:
- Introduzione all'apprendimento automatico
- Apprendimento delle tecniche di classificazione
- File di training per la preparazione della previsione bayesiana
- Campo casuale di Markov
- Apprendimento supervisionato e non supervisionato
- Estrazione di feature
- Macchina vettoriale di supporto
- Rete neurale
- Apprendimento per rinforzo
- Big Data problema di grandi variabili -Foresta casuale (RF)
- Apprendimento della rappresentazione
- Apprendimento profondo
- Big Data Problema di automazione – RF multi-modello ensemble
- Automazione tramite Soft10-M
- LDA e modellazione degli argomenti
- Apprendimento agile
- Apprendimento basato su agenti- Esempio di operazione di telecomunicazione
- Apprendimento distribuito – Esempio di operazioni di telecomunicazione
- Introduzione agli strumenti open source per l'analisi predittiva: R, Rapidminer, Mahut
- Laboratorio analitico più scalabile di Apache Hama, Spark e CMU Graph
Giorno-2: Sessione-4 Ecosistema di analisi predittiva-2: Problemi analitici predittivi comuni in Telecom
- Analisi degli insight
- Visualizzazione analitica
- Analitica predittiva strutturata
- Analitica predittiva non strutturata
- Profilazione dei clienti
- Motore di raccomandazione
- Rilevamento del modello
- Individuazione di regole/scenari: errori, frodi, ottimizzazioni
- Individuazione della causa principale
- Analisi del sentiment
- Analitica CRM
- Analitica di rete
- Analisi del testo
- Revisione assistita dalla tecnologia
- Analisi delle frodi
- Analitica in tempo reale
Giorno-3 : Sessione-1 : Analisi analitica delle operazioni di rete - analisi delle cause principali dei guasti di rete, interruzione del servizio da metadati, IPDR e CRM:
- Utilizzo della CPU
- Utilizzo della memoria
- Utilizzo della coda QoS
- Temperatura del dispositivo
- Errore dell'interfaccia
- Versioni IoS
- Instradamento degli eventi
- Variazioni di latenza
- Analisi syslog
- Perdita di pacchetti
- Simulazione del carico
- Inferenza topologica
- Soglia delle prestazioni
- Trappole a dispositivo
- Raccolta ed elaborazione IPDR (IP detailed record)
- Utilizzo dei dati IPDR per il consumo di larghezza di banda dell'abbonato, l'utilizzo dell'interfaccia di rete, lo stato del modem e la diagnostica
- Informazioni sugli HFC
Giorno 3: Sessione 2: Strumenti per l'analisi degli errori dei servizi di rete:
- Network Summary Dashboard: monitora le implementazioni di rete complessive e tieni traccia degli indicatori chiave di prestazione della tua organizzazione
- Dashboard di analisi dei periodi di picco: comprendi le tendenze delle applicazioni e degli abbonati che guidano i picchi di utilizzo, con granularità specifica per località
- Routing Efficiency Dashboard: controlla i costi di rete e crea business case per progetti di investimento con una comprensione completa delle relazioni di interconnessione e transito
- Dashboard di intrattenimento in tempo reale: accedi alle metriche che contano, tra cui visualizzazioni video, durata e qualità dell'esperienza video (QoE)
- IPv6 Transition Dashboard: analizza l'adozione continua di IPv6 sulla tua rete e ottieni informazioni dettagliate sulle applicazioni e sui dispositivi che guidano le tendenze
- Caso di studio 1: Il data miner di Alcatel-Lucent Big Network Analytics (BNA)
- Intelligenza mobile multidimensionale (m.IQ6)
Giorno 3: Sessione 3: Big Data BI per Marketing/Vendite – Comprendere le vendite/marketing dai dati di vendita: (Tutti verranno mostrati con una demo analitica predittiva dal vivo)
- Per identificare i client ad alta velocità
- Per identificare i clienti per un determinato prodotto
- Identificare il giusto set di prodotti per un cliente (Recommendation Engine)
- Tecnica di segmentazione del mercato
- Tecnica di Cross-Sale e upsale
- Tecnica di segmentazione della clientela
- Tecnica di previsione dei ricavi di vendita
Giorno 3: Sessione 4: BI necessaria per l'ufficio CFO Telco:
- Panoramica di Business Lavori di analisi necessari in un ufficio CFO
- Analisi del rischio sui nuovi investimenti
- Fatturato, previsione dei profitti
- Previsione dell'acquisizione di nuovi clienti
- Previsione delle perdite
- Analisi delle frodi sulle finanze ( dettagli prossima sessione )
Giorno-4 : Sessione-1: Prevenzione delle frodi BI da Big Data in Telco-Fraud analytic:
- Perdita di larghezza di banda / Frode della larghezza di banda
- Frode del fornitore/addebito eccessivo per i progetti
- Frodi sui rimborsi/reclami dei clienti
- Frodi sui rimborsi di viaggio
Giorno-4 : Sessione-2: Dalla previsione dell'abbandono alla prevenzione dell'abbandono:
- 3 tipi di abbandono: attivo/deliberato, rotazionale/incidentale, passivo involontario
- 3 classificazione dei clienti abbandonati: Totale, Nascosto, Parziale
- Informazioni sulle variabili CRM per l'abbandono
- Raccolta dei dati sul comportamento dei clienti
- Raccolta dei dati sulla percezione dei clienti
- Raccolta dei dati demografici dei clienti
- Pulizia dei dati CRM
- Dati CRM non strutturati (chiamate dei clienti, ticket, e-mail) e loro conversione in dati strutturati per l'analisi del churn
- Social Media CRM: un nuovo modo per estrarre l'indice di soddisfazione dei clienti
- Caso di studio-1 : T-Mobile USA: riduzione del tasso di abbandono del 50%
Giorno-4 : Sessione-3: Come utilizzare l'analisi predittiva per l'analisi delle cause principali dell'insoddisfazione dei clienti:
- Caso di studio -1 : Collegare l'insoddisfazione ai problemi - Contabilità, errori di progettazione come interruzione del servizio, servizio di larghezza di banda scadente
- Case Study-2: Big Data Dashboard QA per monitorare l'indice di soddisfazione del cliente da vari parametri come l'escalation delle chiamate, la criticità dei problemi, gli eventi di interruzione del servizio in sospeso, ecc.
Giorno-4: Sessione-4: Big Data Dashboard per una rapida accessibilità di diversi dati e visualizzazione:
- Integrazione della piattaforma applicativa esistente con Big Data Dashboard
- Gestione dei Big Data
- Caso di studio di Big Data Dashboard: Tableau e Pentaho
- Usa l'app Big Data per inviare annunci pubblicitari basati sulla posizione
- Sistema di tracciamento e gestione
Giorno-5 : Sessione-1: Come giustificare Big Data l'implementazione della BI all'interno di un'organizzazione:
- Definizione del ROI per l'implementazione Big Data
- Casi di studio per risparmiare tempo all'analista per la raccolta e la preparazione dei dati – aumento dell'aumento della produttività
- Casi di studio di aumento dei ricavi derivanti dall'abbandono dei clienti
- Guadagno di entrate da annunci basati sulla posizione e da altri annunci mirati
- Un approccio integrato basato su fogli di calcolo per calcolare approssimativamente le spese rispetto ai guadagni/risparmi derivanti dall'implementazione Big Data.
Giorno-5 : Sessione-2: Procedura passo dopo passo per sostituire il sistema di dati legacy con Big Data Sistema:
- Comprendere la Big Data Roadmap pratica per la migrazione
- Quali sono le informazioni importanti necessarie prima di progettare un'implementazione Big Data
- Quali sono i diversi modi di calcolare il volume, la velocità, la varietà e la veridicità dei dati
- Come stimare la crescita dei dati
- Casi di studio in 2 Telco
Giorno 5: Sessione 3 e 4: Revisione di Big Data Vendor e revisione dei loro prodotti. Sessione Q/A:
- AccentureAlcatel-Lucent
- Amazzonia –A9
- APTEAN (precedentemente CDC Software)
- Sistemi Cisco
- Cloudera
- Valletta
- EMC
- GoodData Corporation
- Guavus
- Sistemi di dati Hitachi
- Hortonworks
- Huawei
- CV
- IBM
- Informatica
- Intel
- Jaspersoft
- Microsoft (in inglese)
- MongoDB (in precedenza 10Gen)
- MU Sigma
- Netapp
- Soluzioni Opera
- Oracolo
- Pentaho
- Piattaforma
- Qliktech
- Quanto
- Spazio rack
- Analisi della rivoluzione
- Forza vendita
- LINFA
- Istituto SAS
- Sisense
- Software AG/Terracotta
- Automazione Soft10
- Spicchio
- Sqrrl
- Supermicro
- Tableau Software
- Teradata
- Pensa in grande all'analisi
- Sistemi Tidemark
- VMware (Parte di EMC)
Requisiti
- Dovrebbe avere una conoscenza di base delle operazioni aziendali e dei sistemi di dati in Telecom nel proprio dominio
- Deve avere una conoscenza di base di SQL/Oracle o database relazionale
- Conoscenza di base della statistica (nei livelli Excel)
35 ore
Recensioni (3)
All the examples used and the lecturing style was on point even for a begginer i was able to understand and the training was so patient and always willing to go extra mile when in need of assistance.
Mathipa Chepape - Vodacom
Corso - Big Data Business Intelligence for Telecom and Communication Service Providers
All the examples used and the lecturing style was on point even for a begginer i was able to understand and the training was so patient and always willing to go extra mile when in need of assistance.
Mathipa Chepape - Vodacom
Corso - Big Data Business Intelligence for Telecom and Communication Service Providers
Understanding big data beter