Formation Privacy-Preserving Machine Learning
La préservation de la vie privée Machine Learning est un domaine axé sur la protection des données sensibles tout en permettant des capacités avancées d'IA dans des environnements décentralisés ou restreints.
Cette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux professionnels de niveau avancé souhaitant mettre en œuvre et évaluer des techniques telles que l'apprentissage fédéré, le calcul multiparti sécurisé, la cryptographie homomorphe et la confidentialité différentielle dans les pipelines d'apprentissage automatique réels.
À la fin de cette formation, les participants seront capables de :
- Comprendre et comparer les techniques clés de préservation de la vie privée en IA.
- Mettre en œuvre des systèmes d'apprentissage fédéré à l'aide de cadres open source.
- Appliquer la confidentialité différentielle pour un partage de données et une formation de modèles sécurisés.
- Utiliser les techniques de chiffrement et de calcul sécurisé pour protéger les entrées et sorties des modèles.
Format du cours
- Cours interactif et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Plan du cours
Introduction à la ML préservant la confidentialité
- Motivations et risques dans les environnements de données sensibles
- Aperçu des techniques de ML préservant la confidentialité
- Modèles de menaces et considérations réglementaires (par exemple, GDPR, HIPAA)
Federated Learning
- Concept et architecture de l'apprentissage fédéré
- Synchronisation client-serveur et agrégation
- Mise en œuvre avec PySyft et Flower
Confidentialité différentielle
- Mathématiques de la confidentialité différentielle
- Application de la DP dans les requêtes de données et l'entraînement des modèles
- Utilisation d'Opacus et TensorFlow Privacy
Calcul sécurisé à plusieurs parties (SMPC)
- Protocoles SMPC et cas d'utilisation
- Approches basées sur la cryptographie vs partage de secrets
- Flux de calcul sécurisé avec CrypTen ou PySyft
Cryptographie homomorphique
- Cryptographie totalement homomorphe vs partiellement homomorphe
- Inference chiffrée pour les charges sensibles de travail
- Pratique avec TenSEAL et Microsoft SEAL
Applications et études de cas d'industrie
- Confidentialité dans la santé : apprentissage fédéré pour l'IA médicale
- Collaboration sécurisée en finance : modèles de risque et conformité
- Cas d'utilisation dans la défense et le gouvernement
Récapitulation et prochaines étapes
Pré requis
- Une compréhension des principes de l'apprentissage automatique
- Expérience avec Python et les bibliothèques ML (par exemple, PyTorch, TensorFlow)
- La familiarité avec les concepts de confidentialité des données ou de la cybersécurité est un atout
Public cible
- Chercheurs en IA
- Équipes de protection et de conformité de la vie privée des données
- Ingénieurs en sécurité travaillant dans des industries réglementées
Les formations ouvertes requièrent plus de 3 participants.
Formation Privacy-Preserving Machine Learning - Booking
Formation Privacy-Preserving Machine Learning - Enquiry
Privacy-Preserving Machine Learning - Demande d'informations consulting
Demande d'informations consulting
Cours à venir
Cours Similaires
AI Governance, Compliance, and Security for Enterprise Leaders
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux dirigeants intermédiaires de l'entreprise qui souhaitent comprendre comment gouverner et sécuriser les systèmes d'intelligence artificielle (IA) de manière responsable et en conformité avec les cadres juridiques mondiaux émergents tels que le Règlement UE sur l'IA, GDPR, ISO/IEC 42001 et l'Ordre exécutif des États-Unis sur l'IA.
À la fin de cette formation, les participants seront capables de :
- Comprendre les risques juridiques, éthiques et réglementaires liés à l'utilisation de l'IA dans différents départements.
- Interpréter et appliquer les principaux cadres de gouvernance de l'IA (Règlement UE sur l'IA, NIST AI RMF, ISO/IEC 42001).
- Mettre en place des politiques de sécurité, d'audit et de surveillance pour le déploiement de l'IA dans l'entreprise.
- Développer des lignes directrices d'approvisionnement et d'utilisation pour les systèmes d'IA tiers et internes.
Building Secure and Responsible LLM Applications
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux développeurs AI, architectes et gestionnaires de produits intermédiaires à avancés qui souhaitent identifier et atténuer les risques associés aux applications alimentées par des modèles de langage larges (LLM), y compris l'injection de prompt, la fuite de données et le contenu non filtré, tout en intégrant des contrôles de sécurité tels que la validation d'entrée, la supervision humaine dans la boucle et les barrières de sortie.
À la fin de cette formation, les participants seront capables de :
- Comprendre les vulnérabilités principales des systèmes basés sur LLM.
- Appliquer des principes de conception sécurisée à l'architecture d'applications LLM.
- Utiliser des outils tels que Guardrails AI et LangChain pour la validation, le filtrage et la sécurité.
- Intégrer des techniques comme le sandboxing, le red teaming et les revues humaines dans la boucle dans des pipelines de production.
Introduction to AI Security and Risk Management
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité AI, les vecteurs de menace et les cadres mondiaux tels que le NIST AI RMF et ISO/IEC 42001.
À la fin de cette formation, les participants seront capables de :
- Comprendre les risques de sécurité uniques introduits par les systèmes d'IA.
- Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
- Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
- Ajuster l'utilisation de l'IA aux normes émergentes, aux lignes directrices de conformité et aux principes éthiques.
Red Teaming AI Systems: Offensive Security for ML Models
14 HeuresCette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés de la sécurité et aux spécialistes ML qui souhaitent simuler des attaques sur les systèmes AI, découvrir les vulnérabilités et renforcer la robustesse des modèles AI déployés.
À l'issue de cette formation, les participants seront capables de :
- Simuler des menaces réelles pour les modèles d'apprentissage automatique.
- Générer des exemples adverses pour tester la robustesse du modèle.
- Évaluer la surface d'attaque des API AI et pipelines.
- Définir des stratégies de red teaming pour les environnements de déploiement AI.
Introduction au Red Teaming AI
- Comprendre le paysage des menaces AI
- Rôles des équipes rouge dans la sécurité AI
- Considérations éthiques et légales
Adversarial Machine Learning
- Types d'attaques : évitement, empoisonnement, extraction, inférence
- Génération d'exemples adverses (par ex., FGSM, PGD)
- Attaques ciblées vs non ciblées et métriques de réussite
Test de la Robustesse du Modèle
- Évaluation de la robustesse sous perturbations
- Exploration des aveugles et modes d'échec du modèle
- Tests de charge pour les modèles de classification, vision et NLP
Red Teaming AI Pipelines
- Surface d'attaque des pipelines AI : données, modèle, déploiement
- Exploitation des API de modèles non sécurisées et points de terminaison
- Développement inverse du comportement et des sorties du modèle
Simulation et Outils
- Utilisation de l'Adversarial Robustness Toolbox (ART)
- Red teaming avec des outils comme TextAttack et IBM ART
- Outils de sandboxing, de surveillance et d'observabilité
Stratégie et Défense du Red Team AI Collaboration
- Développement d'exercices et objectifs de red teaming
- Communication des résultats aux équipes bleues
- Intégration du red teaming dans la gestion des risques AI
Récapitulatif et Étapes Suivantes
Le Red Teaming AI est une zone spécialisée de sécurité offensive qui se concentre sur l'identification des faiblesses dans les modèles d'apprentissage automatique et les pipelines de déploiement par le biais du test adversaire et des simulations de stress.
Cette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés de la sécurité et aux spécialistes ML qui souhaitent simuler des attaques sur les systèmes AI, découvrir les vulnérabilités et renforcer la robustesse des modèles AI déployés.
À l'issue de cette formation, les participants seront capables de :
- Simuler des menaces réelles pour les modèles d'apprentissage automatique.
- Générer des exemples adverses pour tester la robustesse du modèle.
- Évaluer la surface d'attaque des API AI et pipelines.
- Définir des stratégies de red teaming pour les environnements de déploiement AI.
Format de la Formation
- Cours interactif et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation de la Formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour arranger cela.
- Compréhension des architectures d'apprentissage automatique et profond
- Expérience avec Python et les frameworks ML (par ex., TensorFlow, PyTorch)
- Familiarité avec les concepts de cybersécurité ou techniques de sécurité offensive
Public Cible
- Chercheurs en sécurité
- Équipes de sécurité offensive
- Professionnels d'assurance AI et red teaming
Cette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés de la sécurité et aux spécialistes ML qui souhaitent simuler des attaques sur les systèmes AI, découvrir les vulnérabilités et renforcer la robustesse des modèles AI déployés.
À l'issue de cette formation, les participants seront capables de :
- Simuler des menaces réelles pour les modèles d'apprentissage automatique.
- Générer des exemples adverses pour tester la robustesse du modèle.
- Évaluer la surface d'attaque des API AI et pipelines.
- Définir des stratégies de red teaming pour les environnements de déploiement AI.
Securing Edge AI and Embedded Intelligence
14 HeuresCette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux ingénieurs et professionnels de la sécurité intermédiaires qui souhaitent protéger les modèles IA déployés au niveau des périphériques contre des menaces telles que le sabotage, la fuite de données, les entrées adverses et les attaques physiques.
À la fin de cette formation, les participants seront capables de :
- Identifier et évaluer les risques de sécurité dans les déploiements d'IA aux périphériques.
- Appliquer des techniques de résistance au sabotage et d'inférence chiffrée.
- Rendre robustes les modèles déployés sur le bord et sécuriser les pipelines de données.
- Mettre en œuvre des stratégies de mitigation des menaces spécifiques aux systèmes embarqués et contraints.
Securing AI Models: Threats, Attacks, and Defenses
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Introduction au Modélisation des Menaces pour l'IA
- Ce qui rend les systèmes IA vulnérables ?
- L'espace d'attaque IA vs. systèmes traditionnels
- Vecteurs d'attaque clés : couches de données, modèle, sortie et interface
Attaques Adverses sur les Modèles d'IA
- Comprendre les exemples adverses et les techniques de perturbation
- Attaques en boîte blanche vs. en boîte noire
- Méthodes FGSM, PGD et DeepFool
- Visualiser et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
- Déduire les données d'entraînement à partir de la sortie du modèle
- Attaques d'inférence de membres
- Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injections de Backdoor
- Comment les données empoisonnées influencent le comportement du modèle
- Fenêtres d'activation basées sur les backdoors et attaques Trojans
- Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
- Apprentissage adversaire et augmentation des données
- Masquage du gradient et prétraitement des entrées
- Lissage du modèle et techniques de régularisation
Défenses d'IA Préservant la Confidentialité
- Introduction à la confidentialité différentielle
- Injection de bruit et budgets de confidentialité
- Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
- Évaluation et déploiement de modèles conscients des menaces
- Utilisation d'ART (Adversarial Robustness Toolbox) dans les situations appliquées
- Cas pratiques industriels : fuites réelles et atténuations
Récapitulatif et Étapes Suivantes
La sécurisation des modèles d'IA est la discipline de défense des systèmes d'apprentissage automatique contre les menaces spécifiques aux modèles, telles que les entrées adverses, le poisonnement des données, les attaques d'inversion et la fuite de confidentialité.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Format du Cours
- Cours interactif et discussion.
- De nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Prérequis
- Compréhension des flux de travail d'apprentissage automatique et de l'entraînement du modèle
- Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
- Familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public Cible
- Ingénieurs en apprentissage automatique
- Analystes en cybersécurité
- Rechercheurs en IA et équipes de validation des modèles
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.