Protégez les systèmes d'intelligence artificielle des menaces évoluantes grâce à une formation pratique et encadrée par un instructeur dans AI Security.
Ces cours en direct enseignent comment défendre les modèles d'apprentissage automatique, contrer les attaques adversaires et construire des systèmes d'IA fiables et résilients.
La formation est disponible en ligne via un bureau à distance ou sur place en formation en direct dans Liège, avec des exercices interactifs et des cas d'utilisation réels.
La formation sur place peut être dispensée chez vous dans Liège ou dans un centre de formation corporatif NobleProg dans Liège.
Aussi connue sous le nom de Secure AI, Sécurité ML ou Adversarial Machine Learning.
NobleProg – Votre Fournisseur Local de Formation
Liège, Place des Guillemins
NobleProg Liège, 2 Place des Guillemins, Liège, belgium, 4000
Liège
Liège est le chef-lieu de la province de Liège et la capitale économique de la Wallonie. Par le nombre d'habitants, c'est la première agglomération wallonne, la troisième agglomération de Belgique après Bruxelles et Anvers et la quatrième commune après Anvers, Gand et Charleroi. Liège a longtemps été une grande ville industrielle mais dès les années 1960, elle subit un long déclin, les usines devenant vétustes. Liège mise également beaucoup sur les transports et la multi-modalité. Liège est un pôle économique important avec son port autonome, le deuxième port intérieur d'Europe de l'Ouest et son aéroport spécialisé dans le fret. De fait, la ville reste la capitale économique de la Wallonie.
Cette formation en direct (en ligne ou sur site) est destinée aux dirigeants intermédiaires de l'entreprise qui souhaitent comprendre comment gouverner et sécuriser les systèmes d'intelligence artificielle (IA) de manière responsable et en conformité avec les cadres juridiques mondiaux émergents tels que le Règlement UE sur l'IA, GDPR, ISO/IEC 42001 et l'Ordre exécutif des États-Unis sur l'IA.
À la fin de cette formation, les participants seront capables de :
Comprendre les risques juridiques, éthiques et réglementaires liés à l'utilisation de l'IA dans différents départements.
Interpréter et appliquer les principaux cadres de gouvernance de l'IA (Règlement UE sur l'IA, NIST AI RMF, ISO/IEC 42001).
Mettre en place des politiques de sécurité, d'audit et de surveillance pour le déploiement de l'IA dans l'entreprise.
Développer des lignes directrices d'approvisionnement et d'utilisation pour les systèmes d'IA tiers et internes.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs AI, architectes et gestionnaires de produits intermédiaires à avancés qui souhaitent identifier et atténuer les risques associés aux applications alimentées par des modèles de langage larges (LLM), y compris l'injection de prompt, la fuite de données et le contenu non filtré, tout en intégrant des contrôles de sécurité tels que la validation d'entrée, la supervision humaine dans la boucle et les barrières de sortie.
À la fin de cette formation, les participants seront capables de :
Comprendre les vulnérabilités principales des systèmes basés sur LLM.
Appliquer des principes de conception sécurisée à l'architecture d'applications LLM.
Utiliser des outils tels que Guardrails AI et LangChain pour la validation, le filtrage et la sécurité.
Intégrer des techniques comme le sandboxing, le red teaming et les revues humaines dans la boucle dans des pipelines de production.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Introduction au Modélisation des Menaces pour l'IA
Ce qui rend les systèmes IA vulnérables ?
L'espace d'attaque IA vs. systèmes traditionnels
Vecteurs d'attaque clés : couches de données, modèle, sortie et interface
Attaques Adverses sur les Modèles d'IA
Comprendre les exemples adverses et les techniques de perturbation
Attaques en boîte blanche vs. en boîte noire
Méthodes FGSM, PGD et DeepFool
Visualiser et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
Déduire les données d'entraînement à partir de la sortie du modèle
Attaques d'inférence de membres
Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injections de Backdoor
Comment les données empoisonnées influencent le comportement du modèle
Fenêtres d'activation basées sur les backdoors et attaques Trojans
Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
Apprentissage adversaire et augmentation des données
Masquage du gradient et prétraitement des entrées
Lissage du modèle et techniques de régularisation
Défenses d'IA Préservant la Confidentialité
Introduction à la confidentialité différentielle
Injection de bruit et budgets de confidentialité
Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
Évaluation et déploiement de modèles conscients des menaces
Utilisation d'ART (Adversarial Robustness Toolbox) dans les situations appliquées
Cas pratiques industriels : fuites réelles et atténuations
Récapitulatif et Étapes Suivantes
La sécurisation des modèles d'IA est la discipline de défense des systèmes d'apprentissage automatique contre les menaces spécifiques aux modèles, telles que les entrées adverses, le poisonnement des données, les attaques d'inversion et la fuite de confidentialité.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Format du Cours
Cours interactif et discussion.
De nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation du Cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Prérequis
Compréhension des flux de travail d'apprentissage automatique et de l'entraînement du modèle
Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
Familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public Cible
Ingénieurs en apprentissage automatique
Analystes en cybersécurité
Rechercheurs en IA et équipes de validation des modèles
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité AI, les vecteurs de menace et les cadres mondiaux tels que le NIST AI RMF et ISO/IEC 42001.À la fin de cette formation, les participants seront capables de :
Comprendre les risques de sécurité uniques introduits par les systèmes d'IA.
Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
Ajuster l'utilisation de l'IA aux normes émergentes, aux lignes directrices de conformité et aux principes éthiques.
AI Security formation à Liège, Weekend AI Security cours à Liège, Soir AI Security formation à Liège, AI Security formateur en ligne à Liège, AI Security formation à Liège, AI Security cours du soir à Liège, AI Security formation Intra à Liège, AI Security formation Intra Entreprise à Liège, AI Security formation Inter à Liège, AI Security formation Inter Entreprise à Liège, AI Security préparation à Liège, AI Security professeur à Liège,AI Security cours à Liège, Weekend AI Security formation à Liège, AI Security stage de préparation à Liège, Soir AI Security cours à Liège, AI Security coaching à Liège, AI Security coach à Liège, AI Security préparation aux examens à Liège, AI Security sur place à Liège, AI Security cours particuliers à Liège, AI Security entraînement à Liège, AI Security instructeur à Liège, AI Security formateur à Liège, AI Security cours privé à Liège