Formation Techniques graphiques (Adobe Photoshop, Adobe Illustrator)
Ce que vous apprendrez lors de la formation :
- les principes de création de graphiques informatiques
- les méthodes d'ajustement de la colorimétrie des images
- les principes du retouche et de la création de photomontages
- les techniques pour préparer un logo, des graphiques, des tableaux et des illustrations
- la préparation de cartes de visite, de publicités simples, de panneaux d'affichage et de prospectus
- les bases de la préparation de graphiques pour l'impression et les applications web
Exemples de sujets de cours :
- mon affiche
- portrait
- espace
- mon catalogue
- mon visage
- panneau d'affichage
- mon logo
Plan du cours
Photoshop
- Principes de construction des images et modèles de couleurs
- Numérisation
- Adaptation de la colorimétrie des photos
- Retouche et modifications
- Montages photographiques
- Formats d'enregistrement, enregistrement et optimisation graphique
Illustrator
- Création de illustrations, logos
- Réalisation et impression de cartes de visite
- Préparation d'un simple dépliant publicitaire
- Graphiques et tableaux - présentation attrayante des données
Pré requis
Une bonne maîtrise de l'utilisation d'ordinateur.
Les formations ouvertes requièrent plus de 3 participants.
Formation Techniques graphiques (Adobe Photoshop, Adobe Illustrator) - Booking
Formation Techniques graphiques (Adobe Photoshop, Adobe Illustrator) - Enquiry
Cours à venir
Cours Similaires
Développement d'applications IA avec Huawei Ascend et CANN
21 HeuresLa famille de processeurs Huawei Ascend est conçue pour une inférence et un entraînement de haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux ingénieurs AI intermédiaires et aux scientifiques des données qui souhaitent développer et optimiser des modèles de réseau neuronal à l'aide du plateau Ascend de Huawei et du kit CANN.
À la fin de cette formation, les participants seront capables de :
- Configurer et paramétrer l'environnement de développement CANN.
- Développer des applications IA en utilisant MindSpore et CloudMatrix workflows.
- Optimiser les performances sur les unités de traitement Ascend NPUs grâce aux opérateurs personnalisés et à la tiling.
- Déployer des modèles dans des environnements de bord ou cloud.
Format du cours
- Cours interactif et discussion.
- Utilisation pratique de Huawei Ascend et du kit CANN dans des applications d'exemple.
- Exercices guidés axés sur la construction, l'entraînement et le déploiement du modèle.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre infrastructure ou vos jeux de données, veuillez nous contacter pour organiser cela.
Déploiement de modèles AI avec CANN et processeurs Ascend AI
14 HeuresCANN (Compute Architecture for Neural Networks) est la pile de calcul IA de Huawei pour déployer et optimiser les modèles d'IA sur des processeurs Ascend AI.
Cette formation en direct, dirigée par un instructeur (en ligne ou sur site), s'adresse aux développeurs et ingénieurs intermédiaires en IA qui souhaitent déployer efficacement des modèles d'IA formés sur la matériel Huawei Ascend à l'aide du kit de outils CANN et d'outils tels que MindSpore, TensorFlow, ou PyTorch.
À la fin de cette formation, les participants pourront :
- Comprendre l'architecture CANN et son rôle dans le pipeline de déploiement IA.
- Convertir et adapter des modèles de cadres populaires vers des formats compatibles Ascend.
- Utiliser des outils comme ATC, OM model conversion, et MindSpore pour l'inférence à la périphérie et dans le cloud.
- Diagnostiquer les problèmes de déploiement et optimiser les performances sur du matériel Ascend.
Format de la formation
- Cours interactif et démonstration.
- Travail pratique en laboratoire avec des outils CANN et simulateurs ou appareils Ascend.
- Scénarios de déploiement pratiques basés sur des modèles IA du monde réel.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
GPU Programming sur les Accélérateurs AI Biren
21 HeuresLes accélérateurs AI de Biren sont des GPU haute performance conçus pour les charges de travail en IA et HPC, avec un soutien à l'entraînement et à l'inference à grande échelle.
Cette formation interactive en direct (en ligne ou sur site) est destinée aux développeurs intermédiaires et avancés qui souhaitent programmer et optimiser des applications en utilisant la pile de technologie propriétaire GPU de Biren, avec des comparaisons pratiques par rapport aux environnements basés sur CUDA.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture et la hiérarchie mémoire Biren GPU.
- Configurer l'environnement de développement et utiliser le modèle de programmation Biren.
- Traduire et optimiser un code style CUDA pour les plateformes Biren.
- Appliquer des techniques d'optimisation de la performance et de débogage.
Format du cours
- Cours interactif et discussion.
- Utilisation pratique de l'SDK Biren dans des charges de travail d'exemple GPU.
- Exercices guidés axés sur le portage et l'optimisation de la performance.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre pile technologique ou vos besoins d'intégration, veuillez nous contacter pour organiser.
Cambricon MLU Development with BANGPy and Neuware
21 HeuresLes Cambricon MLUs (Machine Learning Unités) sont des puces AI spécialisées optimisées pour l'inférence et la formation dans les scénarios de périphérie et de centre de données.
Cette formation en direct (en ligne ou sur site), animée par un formateur, s'adresse aux développeurs intermédiaires souhaitant construire et déployer des modèles AI à l'aide du cadre BANGPy et du SDK Neuware sur le matériel Cambricon MLU.
À la fin de cette formation, les participants seront capables de :
- Configurer et configurer les environnements de développement BANGPy et Neuware.
- Développer et optimiser des modèles basés sur Python et C++ pour Cambricon MLUs.
- Déployer des modèles vers des appareils de périphérie et de centre de données exécutant le runtime Neuware.
- Intégrer les flux de travail ML avec des fonctionnalités d'accélération spécifiques à MLU.
Format du cours
- Cours interactifs et discussions.
- Utilisation pratique de BANGPy et Neuware pour le développement et le déploiement.
- Exercices guidés axés sur l'optimisation, l'intégration et les tests.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre modèle d'appareil Cambricon ou votre cas d'utilisation, veuillez nous contacter pour organiser cela.
Introduction à Cambricon et à l'architecture MLU
- Aperçu de la gamme de puces AI de Cambricon
- Architecture MLU et pipeline d'instructions
- Types de modèles pris en charge et cas d'utilisation
Installation du chaînon de développement
- Installation de BANGPy et du SDK Neuware
- Configuration de l'environnement pour Python et C++
- Compatibilité des modèles et prétraitement
Développement de modèles avec BANGPy
- Gestion de la structure et de la forme du tenseur
- Construction du graphe de calcul
- Soutien aux opérations personnalisées dans BANGPy
Déploiement avec le runtime Neuware
- Conversion et chargement des modèles
- Contrôle d'exécution et d'inférence
- Pratiques de déploiement pour périphérie et centre de données
Optimisation des performances
- Mappage mémoire et réglage par couche
- Suivi d'exécution et profilage
- Bouchons courants et corrections
Intégration de MLU dans les applications
- Utilisation des API Neuware pour l'intégration d'applications
- Soutien au streaming et aux modèles multiples
- Scénarios d'inférence hybride CPU-MLU
Projet de bout en bout et Use Case
- Laboratoire : déploiement d'un modèle vision ou NLP
- Inférence périphérique avec intégration BANGPy
- Test de précision et de débit
Récapitulatif et prochaines étapes
- Compréhension des structures de modèles d'apprentissage automatique
- Expérience avec Python et/ou C++
- Familiarité avec les concepts de déploiement et d'accélération des modèles
Audience
- Développeurs AI embarqués
- Ingénieurs ML déployant sur périphérie ou centre de données
- Développeurs travaillant avec l'infrastructure AI chinoise
Récapitulatif et prochaines étapes
Introduction à CANN pour les développeurs de frameworks IA
7 HeuresCANN (Architecture de calcul pour Neural Networks) est un kit d'outils de calcul AI de Huawei utilisé pour compiler, optimiser et déployer des modèles IA sur les processeurs Ascend AI.
Cette formation en direct, dirigée par un formateur (en ligne ou sur site), s’adresse aux développeurs IA débutants qui souhaitent comprendre comment CANN s'intègre dans le cycle de vie du modèle, depuis l'entraînement jusqu'au déploiement, et comment il fonctionne avec des cadres comme MindSpore, TensorFlow, et PyTorch.
À la fin de cette formation, les participants seront capables de :
- Comprendre le but et l'architecture du kit d'outils CANN.
- Configurer un environnement de développement avec CANN et MindSpore.
- Convertir et déployer un modèle IA simple sur la matériel Ascend.
- Acquérir une connaissance fondamentale pour des projets futurs d'optimisation ou d'intégration CANN.
Format du cours
- Cours interactif et discussion.
- Ateliers pratiques avec le déploiement de modèles simples.
- Présentation étape par étape de la chaîne d'outils CANN et des points d'intégration.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
CANN pour Edge AI Déploiement
14 HeuresLe kit Ascend CANN de Huawei permet d'effectuer des inférences puissantes sur les appareils de bord tels que le Ascend 310. CANN fournit des outils essentiels pour compiler, optimiser et déployer des modèles où la puissance de calcul et la mémoire sont limitées.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs et intégrateurs d'IA intermédiaires qui souhaitent déployer et optimiser des modèles sur les appareils de bord Ascend en utilisant la chaîne d'outils CANN.
À la fin de cette formation, les participants seront capables de :
- Préparer et convertir des modèles IA pour le Ascend 310 en utilisant les outils CANN.
- Construire des pipelines d'inférence légers à l'aide de MindSpore Lite et AscendCL.
- Optimiser la performance du modèle pour des environnements avec une puissance de calcul et une mémoire limitées.
- Déployer et surveiller les applications IA dans des cas d'utilisation réels en bordure.
Format de la formation
- Cours interactif et démonstration.
- Travail pratique avec des modèles spécifiques au bord et des scénarios.
- Exemples de déploiement en direct sur du matériel virtuel ou physique en bordure.
Options de personnalisation de la formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Comprendre la pile de calcul AI de Huawei : De CANN à MindSpore
14 HeuresLa pile d'IA de Huawei — allant de l'CANN SDK de niveau basique au cadre MindSpore de niveau élevé — offre un environnement intégré pour le développement et la mise en œuvre de l'IA, optimisé pour les matériels Ascend.
Cette formation dispensée par un instructeur (en ligne ou sur site) s'adresse aux professionnels techniques débutants à intermédiaires qui souhaitent comprendre comment les composants CANN et MindSpore fonctionnent ensemble pour soutenir la gestion du cycle de vie de l'IA et les décisions d’infrastructure.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture en couches de la pile de calcul Huawei pour IA.
- Identifier comment CANN soutient l'optimisation des modèles et leur déploiement au niveau matériel.
- Évaluer le cadre MindSpore et sa chaîne d'outils en relation avec les alternatives de l’industrie.
- Positionner la pile IA de Huawei dans les environnements entreprise ou cloud/dans les locaux.
Format du cours
- Cours interactif et discussion.
- Démonstrations de systèmes en direct et parcours basés sur des cas concrets.
- Ateliers guidés optionnels sur le flux de modèles de MindSpore à CANN.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Optimisation des performances du réseau neuronal avec CANN SDK
14 HeuresCANN SDK (Architecture de calcul pour Neural Networks) est la base de calcul IA de Huawei qui permet aux développeurs d'affiner et d'optimiser les performances des réseaux neuronaux déployés sur les processeurs AI Ascend.
Cette formation en direct animée par un instructeur (en ligne ou sur site) s’adresse aux développeurs et ingénieurs systèmes chevronnés qui souhaitent optimiser les performances d'inférence en utilisant l'ensemble avancé d'outils de CANN, notamment le Graph Engine, TIK et le développement d'opérateurs personnalisés.
À la fin de cette formation, les participants seront capables de :
- Comprendre l’architecture en temps réel de CANN et son cycle de vie des performances.
- Utiliser des outils de profilage et le Graph Engine pour l'analyse et l'optimisation des performances.
- Développer et optimiser des opérateurs personnalisés en utilisant TIK et TVM.
- Résoudre les goulets d'étranglement de mémoire et améliorer la performance du modèle.
Format de la formation
- Cours interactif et discussion.
- Ateliers pratiques avec un profilage en temps réel et l'ajustement des opérateurs.
- Exercices d’optimisation à l’aide de déploiements de cas particuliers.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
CANN SDK pour Computer Vision et les pipelines de traitement du langage naturel (NLP)
14 HeuresLe SDK CANN (Compute Architecture pour Neural Networks) fournit des outils puissants de déploiement et d'optimisation pour les applications AI en temps réel dans la vision par ordinateur et le traitement du langage naturel, en particulier sur le matériel Huawei Ascend.
Cette formation interactive (en ligne ou sur site) est destinée aux praticiens intermédiaires de l'IA qui souhaitent construire, déployer et optimiser des modèles de vision et de langage à l'aide du SDK CANN pour des cas d'utilisation en production.
À la fin de cette formation, les participants seront capables de :
- Déployer et optimiser des modèles CV et NLP à l’aide de CANN et AscendCL.
- Utiliser les outils CANN pour convertir les modèles et les intégrer dans des pipelines en temps réel.
- Optimiser les performances d'inférence pour des tâches telles que la détection, la classification et l'analyse de sentiment.
- Créer des pipelines CV/NLP en temps réel pour des scénarios de déploiement basés sur le bord ou dans le cloud.
Format de la formation
- Cours interactif et démonstrations pratiques.
- Atelier pratique avec déploiement de modèles et profilage des performances.
- Conception en direct de pipelines à partir d’utilisations réelles CV et NLP.
Options de personnalisation de la formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Construction d'opérateurs AI personnalisés avec CANN TIK et TVM
14 HeuresCANN TIK (Tensor Instruction Kernel) et Apache TVM permettent une optimisation et une personnalisation avancées des opérateurs de modèles IA pour Huawei Ascend matériel.
Cette formation en direct menée par un formateur (en ligne ou sur site) s'adresse aux développeurs systèmes de niveau avancé qui souhaitent créer, déployer et ajuster des opérateurs personnalisés pour les modèles IA à l'aide du modèle de programmation TIK de CANN et de l'intégration du compilateur TVM.
À la fin de cette formation, les participants seront en mesure de :
- Écrire et tester des opérateurs IA personnalisés à l'aide du TIK DSL pour les processeurs Ascend.
- Intégrer les opérations personnalisées dans le runtime CANN et le graphe d'exécution.
- Utiliser TVM pour l'ordonnancement des opérateurs, l'autotuning et le benchmarking.
- Déboguer et optimiser les performances au niveau de l'instruction pour des schémas de calcul personnalisés.
Format du cours
- Cours interactif et démonstration.
- Codage pratique des opérateurs en utilisant les pipelines TIK et TVM.
- Tests et ajustements sur du matériel Ascend ou des simulateurs.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour faire les arrangements.
Migrer les applications CUDA vers les architectures GPU chinoises
21 HeuresLes architectures chinoises GPU telles que Huawei Ascend, Biren et Cambricon MLUs offrent des alternatives à CUDA adaptées aux marchés locaux de l'IA et du calcul haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux programmeurs avancés GPU et aux spécialistes d'infrastructure qui souhaitent migrer et optimiser des applications CUDA existantes pour leur déploiement sur des plateformes matérielles chinoises.
À la fin de cette formation, les participants seront capables de :
- Évaluer la compatibilité des charges de travail CUDA existantes avec les alternatives à base de puces chinoises.
- Migrer des bases de code CUDA vers Huawei CANN, Biren SDK et environnements Cambricon BANGPy.
- Comparer les performances et identifier les points d'optimisation sur différents plateformes.
- Aborder les défis pratiques du support inter-architecture et du déploiement.
Format de la formation
- Cours interactif et discussion.
- Laboratoires pratiques de traduction de code et de comparaison des performances.
- Exercices guidés axés sur les stratégies d'adaptation multi-GPU.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre plateforme ou projet CUDA, veuillez nous contacter pour organiser cela.
Performance Optimization on Ascend, Biren, and Cambricon
21 HeuresAscend, Biren et Cambricon sont des plateformes de matériel IA leaders en Chine, chacune offrant des outils uniques d'accélération et de profilage pour les charges de travail AI à l'échelle de production.
Cette formation en direct dirigée par un formateur (en ligne ou sur site) s'adresse aux ingénieurs高级AI基础设施和性能工程师,他们希望在多个中国AI芯片平台上优化模型推理和训练工作流。
到本培训结束时,参与者将能够:
- 在Ascend、Biren和Cambricon平台上对模型进行基准测试。
- 识别系统瓶颈和内存/计算低效问题。
- 应用图级、内核级和操作符级优化。
- 调整部署管道以提高吞吐量和减少延迟。
课程格式
- 互动讲座和讨论。
- 在每个平台上实际使用性能分析和优化工具。
- 专注于实用调优场景的指导练习。
课程定制选项
- 如需基于您的性能环境或模型类型对此课程进行定制培训,请联系我们安排。