Corso di formazione Migrating CUDA Applications to Chinese GPU Architectures
Le architetture cinesi GPU come Huawei Ascend, Biren e Cambricon MLU offrono alternative a CUDA adattate ai mercati locali di IA e HPC.
Questo corso interattivo guidato dal formatore (in linea o sul posto) è rivolto a programmatori esperti GPU e specialisti dell'infrastruttura che desiderano migrare ed ottimizzare le applicazioni CUDA esistenti per la distribuzione su piattaforme hardware cinesi.
Al termine del corso, i partecipanti saranno in grado di:
- Valutare la compatibilità delle attuali cariche di lavoro CUDA con alternative basate su chip cinesi.
- Migrare le basi di codice CUDA agli ambienti Huawei CANN, Biren SDK e Cambricon BANGPy.
- Confrontare le prestazioni e identificare i punti di ottimizzazione tra piattaforme.
- Risolvere sfide pratiche nel supporto interarchitetture e nella distribuzione.
Formato del Corso
- Lettura interattiva ed esercitazione.
- Esperimenti pratici di traduzione di codice e confronto delle prestazioni.
- Esercizi guidati focalizzati su strategie di adattamento multi-GPU.
Opzioni per la Personalizzazione del Corso
- Per richiedere un corso personalizzato basato sulla vostra piattaforma o progetto CUDA, contattateci per organizzare.
Struttura del corso
Panoramica dell'Ecosistema AI GPU Cinese
- Confronto tra Huawei Ascend, Biren, Cambricon MLU
- CUDA vs CANN, SDK Biren e modelli BANGPy
- Tendenze industriali e ecosistemi fornitori
Preparazione alla Migrazione
- Valutazione del codice base CUDA
- Identificazione delle piattaforme target e versioni SDK
- Installazione della toolchain e configurazione dell'ambiente
Tecniche di Traduzione del Codice
- Migrazione dell'accesso alla memoria CUDA e logica kernel
- Mappatura dei modelli griglia/threads di calcolo
- Opzioni di traduzione automatica vs manuale
Implementazioni Specifiche della Piattaforma
- Utilizzo degli operatori Huawei CANN e kernel personalizzati
- Pipeline di conversione SDK Biren
- Ricostruzione dei modelli con BANGPy (Cambricon)
Testing e Ottimizzazione Cross-Platform
- Profiling dell'esecuzione su ogni piattaforma target
- Affinamento della memoria e confronti di esecuzione parallela
- Raccolta delle prestazioni e iterazione
Gestione degli Ambienti Misti GPU
- Distribuzioni ibride con più architetture
- Strategie di fallback e rilevamento dispositivo
- Livelli astratti per la manutenibilità del codice
Casi di Studio e Migliori Pratiche
- Migrazione dei modelli vision/NLP a Ascend o Cambricon
- Modifica delle pipeline di inferenza su cluster Biren
- Gestione degli squilibri di versione e delle lacune API
Riepilogo e Prossimi Passi
Requisiti
- Esperienza di programmazione con CUDA o applicazioni basate su GPU
- Comprensione dei modelli di memoria e dei kernel di calcolo GPU
- Familiarità con i flussi di lavoro per il deployment o l'accelerazione di modelli AI
Pubblico Obiettivo
- Programmatori GPU
- Arcitetti di sistemi
- Esperti in porting
I corsi di formazione interaziendali richiedono più di 5 partecipanti.
Corso di formazione Migrating CUDA Applications to Chinese GPU Architectures - Booking
Corso di formazione Migrating CUDA Applications to Chinese GPU Architectures - Enquiry
Migrating CUDA Applications to Chinese GPU Architectures - Richiesta di consulenza
Richiesta di consulenza
Corsi in Arrivo
Corsi relativi
Developing AI Applications with Huawei Ascend and CANN
21 oreHuawei Ascend è una famiglia di processori AI progettati per inferenza e addestramento a alta prestazione.
Questo corso interattivo guidato da un istruttore (online o in sede) si rivolge a ingegneri AI intermediari e scienziati dei dati che desiderano sviluppare e ottimizzare modelli di reti neurali utilizzando la piattaforma Ascend di Huawei e lo strumento CANN.
Al termine del corso, i partecipanti saranno in grado di:
- Configurare l'ambiente di sviluppo CANN.
- Sviluppare applicazioni AI utilizzando MindSpore e flussi di lavoro CloudMatrix.
- Ottimizzare le prestazioni su Ascend NPUs utilizzando operatori personalizzati e tiling.
- Distribuire modelli in ambienti edge o cloud.
Formato del Corso
- Lecture interattive e discussioni.
- Utilizzo pratico di Huawei Ascend e strumento CANN in applicazioni di esempio.
- Esercizi guidati focalizzati sulla costruzione, addestramento e distribuzione dei modelli.
Opzioni per la Personalizzazione del Corso
- Per richiedere un corso personalizzato basato sulle vostre infrastrutture o dataset, contattateci per organizzare.
Deploying AI Models with CANN and Ascend AI Processors
14 oreCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Inference and Deployment with CloudMatrix
21 oreCloudMatrix è la piattaforma unificata di sviluppo e distribuzione AI di Huawei progettata per supportare pipeline di inferenza scalabili e adatte alla produzione.
Questo corso interattivo guidato da un istruttore (online o sul posto) si rivolge a professionisti AI di livello principiante a intermedio che desiderano distribuire e monitorare modelli AI utilizzando la piattaforma CloudMatrix con integrazione CANN e MindSpore.
Al termine del corso, i partecipanti saranno in grado di:
- Utilizzare CloudMatrix per l'imballaggio, la distribuzione e il servizio dei modelli.
- Convertire ed ottimizzare modelli per chipset Ascend.
- Configurare pipeline per task di inferenza in tempo reale e batch.
- Monitorare le distribuzioni e regolare le prestazioni nei contesti di produzione.
Formato del Corso
- Lectura interattiva e discussione.
- Utilizzo pratico di CloudMatrix con scenari di distribuzione reali.
- Esercizi guidati focalizzati sulla conversione, ottimizzazione e scalabilità.
Opzioni di Personalizzazione del Corso
- Per richiedere un training personalizzato per questo corso basato sulla tua infrastruttura AI o ambiente cloud, contattaci per organizzare la sessione.
GPU Programming on Biren AI Accelerators
21 oreGli AI Accelerators Biren sono GPU ad alto rendimento progettati per carichi di lavoro AI e HPC, con supporto per la formazione a larga scala ed il rilevamento.
Questo training guidato da un istruttore (online o in sede) è rivolto a sviluppatori di livello intermedio a avanzato che desiderano programmare e ottimizzare applicazioni utilizzando la pila proprietaria GPU di Biren, con confronti pratici con ambienti basati su CUDA.
Al termine del training, i partecipanti saranno in grado di:
- Comprendere l'architettura e la gerarchia della memoria GPU di Biren.
- Configurare l'ambiente di sviluppo ed utilizzare il modello di programmazione di Biren.
- Tradurre ed ottimizzare codice stile CUDA per piattaforme Biren.
- Applicare tecniche di tuning delle prestazioni e debugging.
Formato del Corso
- Lectura interattiva e discussione.
- Uso pratica dell'SDK Biren in carichi di lavoro di esempio GPU.
- Esercizi guidati focalizzati sulla porting ed ottimizzazione delle prestazioni.
Opzioni per la Personalizzazione del Corso
- Per richiedere un training personalizzato basato sul vostro stack di applicazioni o esigenze di integrazione, contattateci per organizzare.
Cambricon MLU Development with BANGPy and Neuware
21 oreLe Cambricon MLUs (Machine Learning Unità) sono chip AI specializzati ottimizzati per l'inferenza e il training in scenari di edge computing e data center.
Questo corso live guidato da un istruttore (online o sul posto) è rivolto a sviluppatori intermedio che desiderano creare e distribuire modelli AI utilizzando il framework BANGPy e l'SDK Neuware sui chip Cambricon MLU.
Al termine di questo corso, i partecipanti saranno in grado di:
- Configurare gli ambienti di sviluppo per BANGPy e Neuware.
- Sviluppare ed ottimizzare modelli basati su Python e C++ per Cambricon MLUs.
- Distribuire i modelli a dispositivi edge e data center che eseguono il runtime Neuware.
- Integrare i flussi di lavoro ML con funzionalità di accelerazione specifiche di MLU.
Formato del Corso
- Lectura interattiva e discussione.
- Utilizzo pratica di BANGPy e Neuware per lo sviluppo e la distribuzione.
- Esercizi guidati focalizzati sull'ottimizzazione, l'integrazione e il testing.
Opzioni di Personalizzazione del Corso
- Per richiedere un corso personalizzato basato sul vostro modello di dispositivo Cambricon o caso d'uso, contattateci per organizzare la sessione.
Introduction to CANN for AI Framework Developers
7 oreCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 oreHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 oreHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 oreCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 oreThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 oreCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Performance Optimization on Ascend, Biren, and Cambricon
21 oreAscend, Biren e Cambricon sono le principali piattaforme di hardware AI in Cina, ciascuna che offre strumenti unici di accelerazione e profilatura per carichi di lavoro AI a livello produttivo.
Questo training interattivo guidato dall'insegnante (online o sul posto) si rivolge agli ingegneri avanzati di infrastrutture AI e delle prestazioni che desiderano ottimizzare i flussi di lavoro per l'inferenza e il training dei modelli su diverse piattaforme di chip AI cinesi.
Al termine di questo corso, i partecipanti saranno in grado di:
- Benchmarkare i modelli sulle piattaforme Ascend, Biren e Cambricon.
- Identificare le bottlenecks del sistema e le inefficienze della memoria/calcolo.
- Applicare ottimizzazioni a livello di grafico, kernel e operatore.
- Tunare i pipeline di deploy per migliorare la throughput e la latenza.
Formato del Corso
- Lecture interattiva e discussioni.
- Uso pratica degli strumenti di profilatura ed ottimizzazione su ogni piattaforma.
- Esercizi guidati focalizzati su scenari pratici di tuning.
Opzioni per la Personalizzazione del Corso
- Per richiedere un training personalizzato basato sul vostro ambiente delle prestazioni o tipo di modello, contattateci per organizzare.