Formation AI Risk Management and Security in the Public Sector
Artificial Intelligence (AI) introduit de nouvelles dimensions des risques opérationnels, des défis de gouvernance et de l'exposition à la cybersécurité pour les agences et départements gouvernementaux.
Cette formation en direct (en ligne ou sur site) animée par un formateur s'adresse aux professionnels du secteur public en IT et en gestion des risques ayant une expérience limitée en IA et souhaitant comprendre comment évaluer, surveiller et sécuriser les systèmes d'IA dans un contexte gouvernemental ou réglementaire.
À la fin de cette formation, les participants seront capables de :
- Interpréter les concepts clés des risques liés aux systèmes d'IA, y compris le biais, l'imprévisibilité et le dérive du modèle.
- Appliquer des cadres de gouvernance et d'audit spécifiques à l'IA tels que NIST AI RMF et ISO/IEC 42001.
- Détecter les menaces de cybersécurité ciblant les modèles d'IA et les pipelines de données.
- Établir des plans de gestion des risques interdépartementaux et l'alignement des politiques pour le déploiement de l'IA.
Format du cours
- Cours interactif et discussion sur les cas d'utilisation du secteur public.
- Exercices de cadres de gouvernance de l'IA et cartographie des politiques.
- Mise en situation pour la modélisation des menaces et l'évaluation des risques.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Plan du cours
Comprendre les Risques Spécifiques à l'IA dans les Environnements Governmentaux
- Comment le risque lié à l'IA diffère des risques traditionnels en IT et en données
- Catégories de risques liés à l'IA : techniques, opérationnels, réputationnels et éthiques
- Déontologie publique et perception du risque dans le gouvernement
Cadres d'Risk Management IA
- Cadre AI de NIST (AI RMF)
- Norme ISO/IEC 42001:2023 — Système Management IA
- Autres directives sectorielles et internationales (par ex., OCDE, UNESCO)
Menaces de Sécurité pour les Systèmes d'IA
- Entrées adversaires, empoisonnement des données et inversion du modèle
- Exposition des données sensibles utilisées en formation
- Risques liés à la chaîne d'approvisionnement et aux modèles tiers
Governance, Contrôle et Audit
- Mécanismes de responsabilité avec l'homme dans la boucle
- IA auditable : documentation, versionnement et interprétabilité
- Contrôles internes, rôles de surveillance et points de contrôle pour la conformité
Évaluation des Risques et Planification de Mitigation
- Création d'un registre de risques pour les cas d'utilisation de l'IA
- Collaboration avec les équipes d'approvisionnement, juridique et conception des services
- Réalisation d'évaluations pré-déploiement et post-déploiement
Reponse aux Incidents et Résilience du Secteur Public
- Repondre aux incidents et violations liées à l'IA
- Communication avec les parties prenantes et le public
- Intégration des pratiques de risque IA dans les livres de jeu en cybersécurité
Résumé et Étapes Suivantes
Pré requis
- Expérience en opérations IT, gestion des risques, cybersécurité ou conformité au sein des institutions gouvernementales
- Familiarité avec les pratiques de sécurité organisationnelle et la prestation de services numériques
- Aucune expertise technique préalable dans les systèmes AI requise
Public cible
- Équipes IT gouvernementales impliquées dans les services numériques et l'intégration des systèmes
- Professionnels de la cybersécurité et du risque dans les institutions publiques
- Perspectives d'audit, de conformité et de gouvernance du secteur public
Les formations ouvertes requièrent plus de 3 participants.
Formation AI Risk Management and Security in the Public Sector - Booking
Formation AI Risk Management and Security in the Public Sector - Enquiry
AI Risk Management and Security in the Public Sector - Demande d'informations consulting
Demande d'informations consulting
Cours à venir
Cours Similaires
AI Governance, Compliance, and Security for Enterprise Leaders
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux dirigeants intermédiaires de l'entreprise qui souhaitent comprendre comment gouverner et sécuriser les systèmes d'intelligence artificielle (IA) de manière responsable et en conformité avec les cadres juridiques mondiaux émergents tels que le Règlement UE sur l'IA, GDPR, ISO/IEC 42001 et l'Ordre exécutif des États-Unis sur l'IA.
À la fin de cette formation, les participants seront capables de :
- Comprendre les risques juridiques, éthiques et réglementaires liés à l'utilisation de l'IA dans différents départements.
- Interpréter et appliquer les principaux cadres de gouvernance de l'IA (Règlement UE sur l'IA, NIST AI RMF, ISO/IEC 42001).
- Mettre en place des politiques de sécurité, d'audit et de surveillance pour le déploiement de l'IA dans l'entreprise.
- Développer des lignes directrices d'approvisionnement et d'utilisation pour les systèmes d'IA tiers et internes.
AI Policy and Regulation for Governments
7 HeuresLa politique et la réglementation de l'IA est un domaine en évolution rapide qui affecte directement la façon dont les gouvernements développent, adoptent et supervisent les systèmes d'intelligence artificielle.
Cette formation en direct (en ligne ou sur site) animée par un formateur s'adresse aux professionnels juridiques et de conformité du secteur public ayant une exposition limitée aux technologies d'IA et souhaitant comprendre les développements réglementaires, les cadres éthiques et les considérations politiques pour un déploiement responsable de l'IA.
À la fin de cette formation, les participants seront capables de :
- Interpréter les composantes clés des régulations liées à l'IA telles que le Règlement UE sur l'IA et GDPR.
- Évaluer les développements politiques nationaux et internationaux (Canada, États-Unis, OCDE, etc.).
- Évaluer les risques juridiques et éthiques dans l'acquisition et l'utilisation de l'IA.
- Contribuer à la gouvernance, à la supervision et à l'alignement interagences en matière d'IA.
Format du cours
- Cours interactif et analyse des cas juridiques.
- Comparaisons réglementaires et exercices de cartographie des politiques.
- Débats en groupe basés sur des scénarios.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour arranger cela.
AI-Enhanced Public Service Delivery
7 HeuresArtificial Intelligence (AI) is increasingly being used to improve the efficiency, accessibility, and responsiveness of public service delivery in areas such as taxation, healthcare, immigration, and social programs.
This instructor-led, live training (online or onsite) is aimed at public service delivery professionals with limited experience in AI who wish to explore real-world applications, automation strategies, and planning considerations for incorporating AI into front-line government services.
By the end of this training, participants will be able to:
- Identify areas in their department where AI can improve public service operations.
- Understand automation tools and AI-driven decision support systems.
- Explore use cases in forecasting, language access, and citizen assistance.
- Assess ethical, operational, and citizen trust factors in AI-enabled services.
Format of the Course
- Interactive lecture with real-life examples.
- Public sector use case walkthroughs and group discussion.
- Strategy planning exercises adapted to participants' departments.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Tools for Administrative Efficiency (ChatGPT, Copilot, Gemini)
7 HeuresAI tools such as ChatGPT, Copilot, and Gemini are transforming administrative workflows by helping teams draft content, schedule meetings, respond to emails, and automate routine tasks.
This instructor-led, live training (online or onsite) is aimed at public sector administrative professionals with little to no prior experience in AI who wish to improve everyday productivity through the practical use of AI assistants and automation tools.
By the end of this training, participants will be able to:
- Understand how AI tools assist with common administrative tasks.
- Use ChatGPT, Copilot, and Gemini to generate emails, summaries, and documents.
- Integrate AI tools with calendars, task lists, and office software.
- Apply best practices for prompt writing and result interpretation.
Format of the Course
- Interactive lecture and guided demonstrations.
- Hands-on practice with real-world administrative tasks.
- Customizable exercises using the tools most relevant to participants' daily work.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Secure and Responsible LLM Applications
14 HeuresThis instructor-led, live training in Belgique (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
- Understand the core vulnerabilities of LLM-based systems.
- Apply secure design principles to LLM app architecture.
- Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
- Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
ChatGPT for Government Use: Communication, Analysis, and Productivity
7 HeuresChatGPT est un assistant IA puissant qui peut soutenir les professionnels du gouvernement dans la rédaction, la recherche, la synthèse et l'automatisation des tâches.
Cette formation en direct (en ligne ou sur site) animée par un formateur s'adresse aux employés de la fonction publique ayant une expérience limitée ou nulle avec les outils IA qui souhaitent utiliser efficacement ChatGPT pour la communication, l'analyse et la productivité administrative liées au gouvernement.
À la fin de cette formation, les participants seront en mesure de :
- Utiliser ChatGPT pour rédiger et réviser des courriels, des notes et des rapports gouvernementaux.
- Synthétiser avec précision des documents de politique, des commentaires publics ou des résultats de recherche.
- Définir des prompts efficaces pour les tâches administratives et analytiques quotidiennes.
- Appliquer des principes de base de confidentialité et de conformité lors de l'utilisation de l'IA dans un contexte de secteur public.
Format du cours
- Cours interactif et discussion.
- Cas d'utilisation orientés gouvernement réels.
- Mise en œuvre pratique et exercices de rédaction de prompts.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur les flux de travail spécifiques ou les priorités politiques de votre département, veuillez nous contacter pour organiser.
Microsoft 365 Copilot for Government Use: Efficiency, Communication, and Insight
7 HeuresMicrosoft 365 Copilot est un assistant alimenté par l'IA intégré dans des outils Microsoft familiers pour améliorer la création de contenu, automatiser les tâches routinières et fournir des insights intelligents.
Cette formation en direct (en ligne ou sur place) est destinée aux employés du secteur public ayant une expérience limitée ou nulle avec les outils d'IA qui souhaitent utiliser Microsoft 365 Copilot pour améliorer la communication, rationaliser le travail documentaire et extraire des insights plus efficacement à partir de données et de réunions.
À la fin de cette formation, les participants seront capables de :
- Utiliser Copilot dans Word, Excel et Outlook pour rédiger, analyser et améliorer les communications.
- Automatiser des tâches documentaires et de synthèse répétitives sur les applications Microsoft 365.
- Générer des insights à partir des notes de réunion, des tableurs et des rapports écrits.
- Suivre les lignes directrices d'utilisation responsable pour Copilot dans un contexte du secteur public.
Format du cours
- Cours interactif et discussion.
- Utilisation pratique de Microsoft 365 Copilot dans des scénarios gouvernementaux types.
- Exercices guidés axés sur la communication, le reporting et la productivité en réunion.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur les flux de travail ou les outils internes de votre département, veuillez nous contacter pour organiser cela.
DeepSeek for Government and Policy-Making
14 HeuresCette formation en direct dans Belgique (en ligne ou sur place) s'adresse aux professionnels du gouvernement et aux experts politiques de niveau avancé qui souhaitent tirer parti de DeepSeek pour une gouvernance fondée sur les données et l'innovation politique.
À l'issue de cette formation, les participants seront en mesure de :
- Utiliser l'IA DeepSeek pour l'analyse des politiques et la prise de décision stratégique.
- Automatiser les rapports gouvernementaux et améliorer la transparence des données.
- Appliquer les connaissances issues de l'IA à l'innovation dans le secteur public.
- Améliorer l'engagement des citoyens grâce à des solutions alimentées par l'IA.
Intermediate Gemini AI for Public Sector Professionals
16 HeuresThis instructor-led, live training in Belgique (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introduction to AI for Public Sector Leaders
7 HeuresArtificial Intelligence (AI) is transforming public sector operations, decision-making, and service delivery worldwide.
This instructor-led, live training (online or onsite) is aimed at public sector leaders with little to no prior background in AI who wish to understand the fundamentals of AI, assess its strategic relevance, and explore how it can be ethically and effectively adopted within government organizations.
By the end of this training, participants will be able to:
- Understand the key concepts and terminology in artificial intelligence.
- Evaluate AI’s opportunities and risks within public sector contexts.
- Explore the ethical and regulatory considerations relevant to AI use in government.
- Develop informed perspectives for AI-related policy, procurement, and strategy.
Format of the Course
- Interactive lecture and discussion.
- Real-world public sector case studies.
- Guided group reflection and policy exercises.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Introduction to AI Security and Risk Management
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité AI, les vecteurs de menace et les cadres mondiaux tels que le NIST AI RMF et ISO/IEC 42001.
À la fin de cette formation, les participants seront capables de :
- Comprendre les risques de sécurité uniques introduits par les systèmes d'IA.
- Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
- Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
- Ajuster l'utilisation de l'IA aux normes émergentes, aux lignes directrices de conformité et aux principes éthiques.
Privacy-Preserving Machine Learning
14 HeuresCette formation en direct, dirigée par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés souhaitant mettre en œuvre et évaluer des techniques telles que l'apprentissage fédéré, le calcul multiparti sécurisé, la cryptographie homomorphe et la confidentialité différentielle dans les pipelines d'apprentissage automatique réels.
À la fin de cette formation, les participants seront capables de :
- Comprendre et comparer les techniques clés de préservation de la vie privée en apprentissage machine (ML).
- Mettre en œuvre des systèmes d'apprentissage fédéré à l'aide de frameworks open source.
- Appliquer la confidentialité différentielle pour un partage et une formation de modèles sécurisés.
- Utiliser des techniques de chiffrement et de calcul sécurisé pour protéger les entrées et sorties du modèle.
Red Teaming AI Systems: Offensive Security for ML Models
14 HeuresCette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés de la sécurité et aux spécialistes ML qui souhaitent simuler des attaques sur les systèmes AI, découvrir les vulnérabilités et renforcer la robustesse des modèles AI déployés.
À l'issue de cette formation, les participants seront capables de :
- Simuler des menaces réelles pour les modèles d'apprentissage automatique.
- Générer des exemples adverses pour tester la robustesse du modèle.
- Évaluer la surface d'attaque des API AI et pipelines.
- Définir des stratégies de red teaming pour les environnements de déploiement AI.
Introduction au Red Teaming AI
- Comprendre le paysage des menaces AI
- Rôles des équipes rouge dans la sécurité AI
- Considérations éthiques et légales
Adversarial Machine Learning
- Types d'attaques : évitement, empoisonnement, extraction, inférence
- Génération d'exemples adverses (par ex., FGSM, PGD)
- Attaques ciblées vs non ciblées et métriques de réussite
Test de la Robustesse du Modèle
- Évaluation de la robustesse sous perturbations
- Exploration des aveugles et modes d'échec du modèle
- Tests de charge pour les modèles de classification, vision et NLP
Red Teaming AI Pipelines
- Surface d'attaque des pipelines AI : données, modèle, déploiement
- Exploitation des API de modèles non sécurisées et points de terminaison
- Développement inverse du comportement et des sorties du modèle
Simulation et Outils
- Utilisation de l'Adversarial Robustness Toolbox (ART)
- Red teaming avec des outils comme TextAttack et IBM ART
- Outils de sandboxing, de surveillance et d'observabilité
Stratégie et Défense du Red Team AI Collaboration
- Développement d'exercices et objectifs de red teaming
- Communication des résultats aux équipes bleues
- Intégration du red teaming dans la gestion des risques AI
Récapitulatif et Étapes Suivantes
Le Red Teaming AI est une zone spécialisée de sécurité offensive qui se concentre sur l'identification des faiblesses dans les modèles d'apprentissage automatique et les pipelines de déploiement par le biais du test adversaire et des simulations de stress.
Cette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés de la sécurité et aux spécialistes ML qui souhaitent simuler des attaques sur les systèmes AI, découvrir les vulnérabilités et renforcer la robustesse des modèles AI déployés.
À l'issue de cette formation, les participants seront capables de :
- Simuler des menaces réelles pour les modèles d'apprentissage automatique.
- Générer des exemples adverses pour tester la robustesse du modèle.
- Évaluer la surface d'attaque des API AI et pipelines.
- Définir des stratégies de red teaming pour les environnements de déploiement AI.
Format de la Formation
- Cours interactif et discussion.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation de la Formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour arranger cela.
- Compréhension des architectures d'apprentissage automatique et profond
- Expérience avec Python et les frameworks ML (par ex., TensorFlow, PyTorch)
- Familiarité avec les concepts de cybersécurité ou techniques de sécurité offensive
Public Cible
- Chercheurs en sécurité
- Équipes de sécurité offensive
- Professionnels d'assurance AI et red teaming
Cette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés de la sécurité et aux spécialistes ML qui souhaitent simuler des attaques sur les systèmes AI, découvrir les vulnérabilités et renforcer la robustesse des modèles AI déployés.
À l'issue de cette formation, les participants seront capables de :
- Simuler des menaces réelles pour les modèles d'apprentissage automatique.
- Générer des exemples adverses pour tester la robustesse du modèle.
- Évaluer la surface d'attaque des API AI et pipelines.
- Définir des stratégies de red teaming pour les environnements de déploiement AI.
Securing Edge AI and Embedded Intelligence
14 HeuresCette formation en direct, animée par un formateur (en ligne ou sur site), s'adresse aux ingénieurs et professionnels de la sécurité intermédiaires qui souhaitent protéger les modèles IA déployés au niveau des périphériques contre des menaces telles que le sabotage, la fuite de données, les entrées adverses et les attaques physiques.
À la fin de cette formation, les participants seront capables de :
- Identifier et évaluer les risques de sécurité dans les déploiements d'IA aux périphériques.
- Appliquer des techniques de résistance au sabotage et d'inférence chiffrée.
- Rendre robustes les modèles déployés sur le bord et sécuriser les pipelines de données.
- Mettre en œuvre des stratégies de mitigation des menaces spécifiques aux systèmes embarqués et contraints.
Securing AI Models: Threats, Attacks, and Defenses
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Introduction au Modélisation des Menaces pour l'IA
- Ce qui rend les systèmes IA vulnérables ?
- L'espace d'attaque IA vs. systèmes traditionnels
- Vecteurs d'attaque clés : couches de données, modèle, sortie et interface
Attaques Adverses sur les Modèles d'IA
- Comprendre les exemples adverses et les techniques de perturbation
- Attaques en boîte blanche vs. en boîte noire
- Méthodes FGSM, PGD et DeepFool
- Visualiser et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
- Déduire les données d'entraînement à partir de la sortie du modèle
- Attaques d'inférence de membres
- Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injections de Backdoor
- Comment les données empoisonnées influencent le comportement du modèle
- Fenêtres d'activation basées sur les backdoors et attaques Trojans
- Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
- Apprentissage adversaire et augmentation des données
- Masquage du gradient et prétraitement des entrées
- Lissage du modèle et techniques de régularisation
Défenses d'IA Préservant la Confidentialité
- Introduction à la confidentialité différentielle
- Injection de bruit et budgets de confidentialité
- Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
- Évaluation et déploiement de modèles conscients des menaces
- Utilisation d'ART (Adversarial Robustness Toolbox) dans les situations appliquées
- Cas pratiques industriels : fuites réelles et atténuations
Récapitulatif et Étapes Suivantes
La sécurisation des modèles d'IA est la discipline de défense des systèmes d'apprentissage automatique contre les menaces spécifiques aux modèles, telles que les entrées adverses, le poisonnement des données, les attaques d'inversion et la fuite de confidentialité.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Format du Cours
- Cours interactif et discussion.
- De nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Prérequis
- Compréhension des flux de travail d'apprentissage automatique et de l'entraînement du modèle
- Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
- Familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public Cible
- Ingénieurs en apprentissage automatique
- Analystes en cybersécurité
- Rechercheurs en IA et équipes de validation des modèles
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.