Aller au menu Aller au contenu Aller à la page d'accessibilité
masquer

CONTACTER
UN CONSEILLER

fleche

Je consulte ma fiche formation, en Pays de la Loire.

Chef de projet data et intelligence artificielle - CPDIA

Nexa Digital School
Nexa Digital School - Nantes

2 sessions
Périodes
Voies d'accès
Lieu
Validation
Session n° 2
20/10/2025 au 15/10/2027
Contrat d'apprentissage Formation adulte
Nantes
Totale

Bloc de compétences

  • Cadrer un projet d’intelligence artificielle à partir de l’analyse du besoin client
  • Sélectionner et interpréter les données d’une solution d’Intelligence Artificielle
  • Conception et supervision d’une solution d’intelligence artificielle à partir des données collectées
  • Piloter un projet d’intelligence artificielle
Session n° 1
20/10/2025 au 15/10/2027
Contrat d'apprentissage Formation adulte
Nantes
Totale

Bloc de compétences

  • Cadrer un projet d’intelligence artificielle à partir de l’analyse du besoin client
  • Sélectionner et interpréter les données d’une solution d’Intelligence Artificielle
  • Conception et supervision d’une solution d’intelligence artificielle à partir des données collectées
  • Piloter un projet d’intelligence artificielle
2 sessions
Session n° 2
20/10/2025 au 15/10/2027

Nantes
Contrat d'apprentissage Formation adulte
Totale

Bloc de compétences

  • Cadrer un projet d’intelligence artificielle à partir de l’analyse du besoin client
  • Sélectionner et interpréter les données d’une solution d’Intelligence Artificielle
  • Conception et supervision d’une solution d’intelligence artificielle à partir des données collectées
  • Piloter un projet d’intelligence artificielle
2 sessions
Périodes
Voies d'accès
Lieu
Validation
Session n° 2
20/10/2025 au 15/10/2027
Contrat d'apprentissage
Formation adulte
Nantes
Totale

Bloc de compétences

  • Cadrer un projet d’intelligence artificielle à partir de l’analyse du besoin client
  • Sélectionner et interpréter les données d’une solution d’Intelligence Artificielle
  • Conception et supervision d’une solution d’intelligence artificielle à partir des données collectées
  • Piloter un projet d’intelligence artificielle
Session n° 1
20/10/2025 au 15/10/2027
Contrat d'apprentissage
Formation adulte
Nantes
Totale

Bloc de compétences

  • Cadrer un projet d’intelligence artificielle à partir de l’analyse du besoin client
  • Sélectionner et interpréter les données d’une solution d’Intelligence Artificielle
  • Conception et supervision d’une solution d’intelligence artificielle à partir des données collectées
  • Piloter un projet d’intelligence artificielle

2 sessions

Session n° 2

20/10/2025 au 15/10/2027
Contrat d'apprentissage
Formation adulte
Nantes
Totale

Bloc de compétences

  • Cadrer un projet d’intelligence artificielle à partir de l’analyse du besoin client
  • Sélectionner et interpréter les données d’une solution d’Intelligence Artificielle
  • Conception et supervision d’une solution d’intelligence artificielle à partir des données collectées
  • Piloter un projet d’intelligence artificielle
Session n° 1

20/10/2025 au 15/10/2027
Contrat d'apprentissage
Formation adulte
Nantes
Totale

Bloc de compétences

  • Cadrer un projet d’intelligence artificielle à partir de l’analyse du besoin client
  • Sélectionner et interpréter les données d’une solution d’Intelligence Artificielle
  • Conception et supervision d’une solution d’intelligence artificielle à partir des données collectées
  • Piloter un projet d’intelligence artificielle

Mon plus formation

Ce programme est spécialement conçu pour former des créateurs tech capables de répondre aux besoins des entreprises. Que ce soit dans la programmation, la cybersécurité, l’intelligence artificielle ou la gestion de données et sécurité.  

Descriptif de la formation

  • Piloter une veille technologique et réglementaire sur les systèmes d’intelligence artificielle (LLM, IA générative, FinOps/MLOps, sécurité IA…), en mobilisant des outils spécialisés, afin d’anticiper les contraintes techniques, réglementaires et éthiques impactant la conception des solutions IA.
  • Analyser le besoin métier et l’environnement data du client, en mobilisant des méthodes de co-construction ou collaboratives (design thinking, ateliers participatifs), afin d’identifier des cas d’usage IA pertinents et compatibles avec les contraintes techniques, fonctionnelles et réglementaires.
  • Qualifier les sources et typologies de données mobilisables (structurées, non structurées, multimodales, internes, externes, synthétiques), en appliquant des critères de qualité, de volumétrie, de gouvernance et de conformité (RGPD, AI Act, principes OCDE), afin d’évaluer leur exploitabilité dans le cadre du projet IA.
  • Modéliser un cas d’usage IA à partir d’un besoin métier analysé, en priorisant les scénarios selon leur valeur ajoutée, leur faisabilité et leur impact, et en définissant les livrables attendus, objectifs opérationnels et indicateurs de performance (SLA, coût par prédiction…), afin de cadrer la solution cible.
  • Conduire une analyse d'impact éthique, règlementaire et environnementaux des cas d'usage d'IA envisagés, en mobilisant les parties prenantes afin de formaliser les risques (biais, non-conformité, etc.) et de définir des plans d'atténuation.
  • Mettre en place des ateliers de co-construction de la solution IA avec les parties prenantes internes et externes (utilisateurs métier, experts techniques, DPO, RSSI, référents éthiques), en mobilisant des méthodes collaboratives (cartographie des besoins, priorisation des fonctionnalités, matrices d’arbitrage), afin d’aligner les choix fonctionnels et techniques sur les besoins et les exigences de conformité.
  • Évaluer la faisabilité technique des cas d’usage IA sélectionnés en analysant l’adéquation entre les données disponibles (qualité, volumétrie, typologie, gouvernance) et les exigences du projet, afin de formuler des préconisations argumentées sur la viabilité et les conditions de réussite de la solution envisagée.
  • Concevoir l’architecture data cible du projet IA, en sélectionnant les flux de données, les systèmes de gestion adaptés (batch, temps réel, NoSQL, feature stores…) et les exigences associées (sécurité, accessibilité, traçabilité), afin d’assurer la cohérence, la scalabilité et la conformité de l’architecture aux cas d’usage définis.
  • Élaborer un dictionnaire de données et un catalogue de métadonnées associés aux modèles IA, en utilisant des outils de gouvernance adaptés, afin de garantir la traçabilité, la compréhension et la réutilisation des données mobilisées.
  • Formaliser un cahier des charges fonctionnel et technique du projet IA, en intégrant les cas d’usage, objectifs, hypothèses, contraintes réglementaires (AI Act, RGPD), livrables attendus et modalités de mise à l’échelle, afin de cadrer les développements à venir et sécuriser la conception.
  • Sélectionner les données pertinentes issues de sources variées (flux temps réel, API métier, capteurs IoT, données synthétiques), en tenant compte de leur volumétrie, multimodalité et des contraintes de gouvernance, en mobilisant des outils d’intégration (Apache NiFi, Airflow) et en veillant à leur compatibilité avec les environnements de traitement (Jupyter, Databricks, pipelines cloud), afin de constituer un jeu de données exploitable pour un cas d’usage IA donné.
  • Évaluer la qualité, la fiabilité et la conformité des jeux de données (internes, externes, générées par IA), en mobilisant des méthodes de profiling (complétude, cohérence, duplications) et en intégrant les exigences de gouvernance (traçabilité, droits d’accès, documentation) ainsi que les préconisations des référents (DPO, RSSI), afin de garantir leur adéquation avec les cas d’usage IA et leur conformité aux normes réglementaires (RGPD, AI Act).
  • Superviser les étapes de préparation des données (nettoyage, structuration, traitement des valeurs manquantes, encodage) en mobilisant des outils de data processing adaptés (Pandas, Dataiku, Trifacta), afin de produire un dataset exploitable, adapté à la nature des données (texte, image, capteurs IoT) et aux besoins d’entraînement ou d’analyse des modèles.
  • Mettre en œuvre un dispositif de traçabilité, de versioning et de conformité des jeux de données (anonymisation, pseudonymisation, documentation, contrôle d’accès), en s’appuyant sur des outils dédiés (DVC, MLflow, notebooks Jupyter), afin de garantir la reproductibilité des traitements, la transparence des processus et la conformité réglementaire (RGPD, AI Act).
  • Réaliser le feature engineering d’un jeu de données IA, en sélectionnant et générant les variables pertinentes au regard du cas d’usage (variables cibles, explicatives, indicateurs métiers), en mobilisant des outils spécialisés (Pandas, Feast ou Tecton) et des techniques d’explicabilité (SHAP, LIME), afin d’optimiser la performance et l’interprétabilité des modèles.
  • Analyser les données traitées, à l’aide de méthodes statistiques adaptées (analyses univariées, bivariées, séries temporelles) et d’outils de traitement (Python, R, notebooks interactifs), en s’appuyant sur les indicateurs définis pour le cas d’usage IA, afin de mettre en évidence les tendances, patterns et signaux faibles utiles à l’analyse métier.
  • Produire des visualisations dynamiques, lisibles et accessibles (heatmaps, diagrammes, dashboards interactifs) en utilisant des outils dédiés (Power BI, Tableau, Matplotlib Seaborn), afin de faciliter l’interprétation des résultats d’analyse par des profils variés, y compris non techniques.
  • Détecter les biais structurels et représentatifs dans les jeux de données préparés, en mobilisant des frameworks spécialisés (AIF360, Fairlearn) et des analyses de répartition (sur/sous-représentation, corrélations induites), afin d’anticiper les risques d’iniquité, de non-conformité réglementaire ou de dérives algorithmiques lors de la phase de modélisation.
  • Restituer les résultats d’analyse en les adaptant aux profils des parties prenantes (métier, décideurs, conformité), en mobilisant des supports adaptés (dashboards, rapports interactifs, présentations), en intégrant des éléments de vulgarisation, d’accessibilité et de storytelling data, afin de faciliter leur compréhension et leur prise en compte dans les décisions métier.
  • Formuler des recommandations exploitables à partir de l’analyse des données, en intégrant les objectifs métier, les indicateurs ESG, les retours utilisateurs et les limites identifiées, afin d’orienter les décisions stratégiques, les arbitrages ou les ajustements de cas d’usage IA.
  • Définir l’architecture cible pour l’entraînement et le déploiement des modèles IA, en arbitrant entre environnements cloud, edge ou hybrides (AWS SageMaker, Azure ML, Vertex AI), et en sélectionnant les ressources matérielles adaptées (GPU, TPU), afin de répondre aux besoins métier en termes de latence, scalabilité, accessibilité et robustesse.
  • Structurer un environnement de développement IA sécurisé et automatisé, en intégrant des pratiques MLOps (CI/CD/CT), des dispositifs d’Infrastructure as Code (Terraform, Ansible) et des mécanismes de cybersécurité (Zero Trust, journalisation), tout en mobilisant des outils FinOps (CodeCarbon, cost monitors), afin de garantir la traçabilité des déploiements, l’optimisation des ressources et la conformité réglementaire (RGPD, AI Act).
  • Sélectionner les modèles d’IA les plus adaptés à un cas d’usage métier donné (ML supervisé : régression, classification ML non supervisé: recommandation, Deep learning : LLM, Computer Vision, IA génératives), en tenant compte de la nature des données, des objectifs métier, et des contraintes d’interprétabilité, de robustesse et de soutenabilité, afin d’optimiser la performance du modèle et son adéquation aux attentes métier.
  • Concevoir en collaboration avec les équipes data science des modèles d’intelligence artificielle adaptés aux cas d’usage identifiés, en intégrant les principes d’IA responsable (équité, explicabilité, auditabilité) et en mobilisant les outils de documentation et d’interprétabilité (Model Cards, SHAP, LIME), afin de garantir leur robustesse, leur transparence et leur conformité aux exigences réglementaires (AI Act, RGPD).
  • Définir une stratégie d’évaluation des modèles IA, en sélectionnant des métriques adaptées (accuracy, F1-score, biais résiduels, recall) et en analysant les écarts de performance au regard des exigences métier, réglementaires et environnementales, afin de guider les décisions d’optimisation.
  • Évaluer la robustesse et la capacité de généralisation d’un modèle IA après entraînement, en identifiant les signes de surapprentissage (overfitting), de sous-apprentissage (underfitting) ou de biais contextuels, afin de valider sa fiabilité avant son déploiement sur des données réelles.
  • Superviser l’amélioration continue d’un modèle IA en analysant les performances pré-déploiement (biais résiduels, écarts de précision), les indicateurs d’usage (engagement, taux d’adoption) et les impacts métier (ROI, conformité réglementaire), en mobilisant des techniques d’optimisation (tuning, régularisation, ensemble learning) et des outils spécialisés (MLflow, Neptune, Arize), afin de renforcer sa robustesse, son équité et sa conformité aux exigences éthiques et réglementaires.
  • Coordonner l’intégration du modèle IA dans l’environnement applicatif, en pilotant les phases de tests et de validation (fonctionnels, d’interopérabilité, de performance) et en mobilisant les équipes concernées (DevOps, DSI, RSSI), afin d’assurer la compatibilité de la solution avec les systèmes cibles (API, microservices, cloud, edge), dans le respect des normes de sécurité, d’accessibilité et de conformité réglementaire (RGPD, AI Act, Zero Trust).
  • Superviser la production et la validation des livrables associés à la solution IA (guides utilisateurs, documentations API, fiches d’explicabilité), en adaptant les contenus aux profils des destinataires (métiers, techniques, conformité), afin d’assurer la transparence, l’appropriation et la maintenabilité de la solution déployée...
  • Maîtriser les langages de programmation
  • Développer des applications web et mobiles innovantes
  • Gérer des projets d’intelligence artificielle
  • Encourager la créativité et l’innovation

Chef de projet data et intelligence artificielle - CPDIA

  • Piloter une veille technologique et réglementaire sur les systèmes d’intelligence artificielle (LLM, IA générative, FinOps/MLOps, sécurité IA…), en mobilisant des outils spécialisés, afin d’anticiper les contraintes techniques, réglementaires et éthiques impactant la conception des solutions IA.
  • Analyser le besoin métier et l’environnement data du client, en mobilisant des méthodes de co-construction ou collaboratives (design thinking, ateliers participatifs), afin d’identifier des cas d’usage IA pertinents et compatibles avec les contraintes techniques, fonctionnelles et réglementaires.
  • Qualifier les sources et typologies de données mobilisables (structurées, non structurées, multimodales, internes, externes, synthétiques), en appliquant des critères de qualité, de volumétrie, de gouvernance et de conformité (RGPD, AI Act, principes OCDE), afin d’évaluer leur exploitabilité dans le cadre du projet IA.
  • Modéliser un cas d’usage IA à partir d’un besoin métier analysé, en priorisant les scénarios selon leur valeur ajoutée, leur faisabilité et leur impact, et en définissant les livrables attendus, objectifs opérationnels et indicateurs de performance (SLA, coût par prédiction…), afin de cadrer la solution cible.
  • Conduire une analyse d'impact éthique, règlementaire et environnementaux des cas d'usage d'IA envisagés, en mobilisant les parties prenantes afin de formaliser les risques (biais, non-conformité, etc.) et de définir des plans d'atténuation.
  • Mettre en place des ateliers de co-construction de la solution IA avec les parties prenantes internes et externes (utilisateurs métier, experts techniques, DPO, RSSI, référents éthiques), en mobilisant des méthodes collaboratives (cartographie des besoins, priorisation des fonctionnalités, matrices d’arbitrage), afin d’aligner les choix fonctionnels et techniques sur les besoins et les exigences de conformité.
  • Évaluer la faisabilité technique des cas d’usage IA sélectionnés en analysant l’adéquation entre les données disponibles (qualité, volumétrie, typologie, gouvernance) et les exigences du projet, afin de formuler des préconisations argumentées sur la viabilité et les conditions de réussite de la solution envisagée.
  • Concevoir l’architecture data cible du projet IA, en sélectionnant les flux de données, les systèmes de gestion adaptés (batch, temps réel, NoSQL, feature stores…) et les exigences associées (sécurité, accessibilité, traçabilité), afin d’assurer la cohérence, la scalabilité et la conformité de l’architecture aux cas d’usage définis.
  • Élaborer un dictionnaire de données et un catalogue de métadonnées associés aux modèles IA, en utilisant des outils de gouvernance adaptés, afin de garantir la traçabilité, la compréhension et la réutilisation des données mobilisées.
  • Formaliser un cahier des charges fonctionnel et technique du projet IA, en intégrant les cas d’usage, objectifs, hypothèses, contraintes réglementaires (AI Act, RGPD), livrables attendus et modalités de mise à l’échelle, afin de cadrer les développements à venir et sécuriser la conception.
  • Sélectionner les données pertinentes issues de sources variées (flux temps réel, API métier, capteurs IoT, données synthétiques), en tenant compte de leur volumétrie, multimodalité et des contraintes de gouvernance, en mobilisant des outils d’intégration (Apache NiFi, Airflow) et en veillant à leur compatibilité avec les environnements de traitement (Jupyter, Databricks, pipelines cloud), afin de constituer un jeu de données exploitable pour un cas d’usage IA donné.
  • Évaluer la qualité, la fiabilité et la conformité des jeux de données (internes, externes, générées par IA), en mobilisant des méthodes de profiling (complétude, cohérence, duplications) et en intégrant les exigences de gouvernance (traçabilité, droits d’accès, documentation) ainsi que les préconisations des référents (DPO, RSSI), afin de garantir leur adéquation avec les cas d’usage IA et leur conformité aux normes réglementaires (RGPD, AI Act).
  • Superviser les étapes de préparation des données (nettoyage, structuration, traitement des valeurs manquantes, encodage) en mobilisant des outils de data processing adaptés (Pandas, Dataiku, Trifacta), afin de produire un dataset exploitable, adapté à la nature des données (texte, image, capteurs IoT) et aux besoins d’entraînement ou d’analyse des modèles.
  • Mettre en œuvre un dispositif de traçabilité, de versioning et de conformité des jeux de données (anonymisation, pseudonymisation, documentation, contrôle d’accès), en s’appuyant sur des outils dédiés (DVC, MLflow, notebooks Jupyter), afin de garantir la reproductibilité des traitements, la transparence des processus et la conformité réglementaire (RGPD, AI Act).
  • Réaliser le feature engineering d’un jeu de données IA, en sélectionnant et générant les variables pertinentes au regard du cas d’usage (variables cibles, explicatives, indicateurs métiers), en mobilisant des outils spécialisés (Pandas, Feast ou Tecton) et des techniques d’explicabilité (SHAP, LIME), afin d’optimiser la performance et l’interprétabilité des modèles.
  • Analyser les données traitées, à l’aide de méthodes statistiques adaptées (analyses univariées, bivariées, séries temporelles) et d’outils de traitement (Python, R, notebooks interactifs), en s’appuyant sur les indicateurs définis pour le cas d’usage IA, afin de mettre en évidence les tendances, patterns et signaux faibles utiles à l’analyse métier.
  • Produire des visualisations dynamiques, lisibles et accessibles (heatmaps, diagrammes, dashboards interactifs) en utilisant des outils dédiés (Power BI, Tableau, Matplotlib Seaborn), afin de faciliter l’interprétation des résultats d’analyse par des profils variés, y compris non techniques.
  • Détecter les biais structurels et représentatifs dans les jeux de données préparés, en mobilisant des frameworks spécialisés (AIF360, Fairlearn) et des analyses de répartition (sur/sous-représentation, corrélations induites), afin d’anticiper les risques d’iniquité, de non-conformité réglementaire ou de dérives algorithmiques lors de la phase de modélisation.
  • Restituer les résultats d’analyse en les adaptant aux profils des parties prenantes (métier, décideurs, conformité), en mobilisant des supports adaptés (dashboards, rapports interactifs, présentations), en intégrant des éléments de vulgarisation, d’accessibilité et de storytelling data, afin de faciliter leur compréhension et leur prise en compte dans les décisions métier.
  • Formuler des recommandations exploitables à partir de l’analyse des données, en intégrant les objectifs métier, les indicateurs ESG, les retours utilisateurs et les limites identifiées, afin d’orienter les décisions stratégiques, les arbitrages ou les ajustements de cas d’usage IA.
  • Définir l’architecture cible pour l’entraînement et le déploiement des modèles IA, en arbitrant entre environnements cloud, edge ou hybrides (AWS SageMaker, Azure ML, Vertex AI), et en sélectionnant les ressources matérielles adaptées (GPU, TPU), afin de répondre aux besoins métier en termes de latence, scalabilité, accessibilité et robustesse.
  • Structurer un environnement de développement IA sécurisé et automatisé, en intégrant des pratiques MLOps (CI/CD/CT), des dispositifs d’Infrastructure as Code (Terraform, Ansible) et des mécanismes de cybersécurité (Zero Trust, journalisation), tout en mobilisant des outils FinOps (CodeCarbon, cost monitors), afin de garantir la traçabilité des déploiements, l’optimisation des ressources et la conformité réglementaire (RGPD, AI Act).
  • Sélectionner les modèles d’IA les plus adaptés à un cas d’usage métier donné (ML supervisé : régression, classification ML non supervisé: recommandation, Deep learning : LLM, Computer Vision, IA génératives), en tenant compte de la nature des données, des objectifs métier, et des contraintes d’interprétabilité, de robustesse et de soutenabilité, afin d’optimiser la performance du modèle et son adéquation aux attentes métier.
  • Concevoir en collaboration avec les équipes data science des modèles d’intelligence artificielle adaptés aux cas d’usage identifiés, en intégrant les principes d’IA responsable (équité, explicabilité, auditabilité) et en mobilisant les outils de documentation et d’interprétabilité (Model Cards, SHAP, LIME), afin de garantir leur robustesse, leur transparence et leur conformité aux exigences réglementaires (AI Act, RGPD).
  • Définir une stratégie d’évaluation des modèles IA, en sélectionnant des métriques adaptées (accuracy, F1-score, biais résiduels, recall) et en analysant les écarts de performance au regard des exigences métier, réglementaires et environnementales, afin de guider les décisions d’optimisation.
  • Évaluer la robustesse et la capacité de généralisation d’un modèle IA après entraînement, en identifiant les signes de surapprentissage (overfitting), de sous-apprentissage (underfitting) ou de biais contextuels, afin de valider sa fiabilité avant son déploiement sur des données réelles.
  • Superviser l’amélioration continue d’un modèle IA en analysant les performances pré-déploiement (biais résiduels, écarts de précision), les indicateurs d’usage (engagement, taux d’adoption) et les impacts métier (ROI, conformité réglementaire), en mobilisant des techniques d’optimisation (tuning, régularisation, ensemble learning) et des outils spécialisés (MLflow, Neptune, Arize), afin de renforcer sa robustesse, son équité et sa conformité aux exigences éthiques et réglementaires.
  • Coordonner l’intégration du modèle IA dans l’environnement applicatif, en pilotant les phases de tests et de validation (fonctionnels, d’interopérabilité, de performance) et en mobilisant les équipes concernées (DevOps, DSI, RSSI), afin d’assurer la compatibilité de la solution avec les systèmes cibles (API, microservices, cloud, edge), dans le respect des normes de sécurité, d’accessibilité et de conformité réglementaire (RGPD, AI Act, Zero Trust).
  • Superviser la production et la validation des livrables associés à la solution IA (guides utilisateurs, documentations API, fiches d’explicabilité), en adaptant les contenus aux profils des destinataires (métiers, techniques, conformité), afin d’assurer la transparence, l’appropriation et la maintenabilité de la solution déployée...
  • Maîtriser les langages de programmation
  • Développer des applications web et mobiles innovantes
  • Gérer des projets d’intelligence artificielle
  • Encourager la créativité et l’innovation

Nexa Digital School Nexa Digital School - Nantes

5 Place Aristide Briand
44000 Nantes

Du 20/10/2025 au 15/10/2027

  • en centre : 924 heures
  • en entreprise : 2450 heures
  • Temps plein
  • Cours de jour

  • Contrat d'apprentissage

Lieu de la formation

Nexa Digital School - Nantes
5 Place Aristide Briand 44000 Nantes

a.elhajem@doranco.fr


  • Pré-requis

    > Niveau d’entrée :
    • Niveau 6 (Licence, Licence pro, BUT, Titres ou équivalents)
    > Type de prérequis :
    • Sans pré-requis spécifique
  • Objectif général : Certification

  • Blocs de compétences
    > Cadrer un projet d’intelligence artificielle à partir de l’analyse du besoin client
    • Piloter une veille technologique et réglementaire sur les systèmes d’intelligence artificielle (LLM, IA générative, FinOps/MLOps, sécurité IA…), en mobilisant des outils spécialisés, afin d’anticiper les contraintes techniques, réglementaires et éthiques impactant la conception des solutions IA. Analyser le besoin métier et l’environnement data du client, en mobilisant des méthodes de co-construction ou collaboratives (design thinking, ateliers participatifs), afin d’identifier des cas d’usage IA pertinents et compatibles avec les contraintes techniques, fonctionnelles et réglementaires. Qualifier les sources et typologies de données mobilisables (structurées, non structurées, multimodales, internes, externes, synthétiques), en appliquant des critères de qualité, de volumétrie, de gouvernance et de conformité (RGPD, AI Act, principes OCDE), afin d’évaluer leur exploitabilité dans le cadre du projet IA. Modéliser un cas d’usage IA à partir d’un besoin métier analysé, en priorisant les scénarios selon leur valeur ajoutée, leur faisabilité et leur impact, et en définissant les livrables attendus, objectifs opérationnels et indicateurs de performance (SLA, coût par prédiction…), afin de cadrer la solution cible. Conduire une analyse d'impact éthique, règlementaire et environnementaux des cas d'usage d'IA envisagés, en mobilisant les parties prenantes afin de formaliser les risques (biais, non-conformité, etc.) et de définir des plans d'atténuation. Mettre en place des ateliers de co-construction de la solution IA avec les parties prenantes internes et externes (utilisateurs métier, experts techniques, DPO, RSSI, référents éthiques), en mobilisant des méthodes collaboratives (cartographie des besoins, priorisation des fonctionnalités, matrices d’arbitrage), afin d’aligner les choix fonctionnels et techniques sur les besoins et les exigences de conformité. Évaluer la faisabilité technique des cas d’usage IA sélectionnés en analysant l’adéquation entre les données disponibles (qualité, volumétrie, typologie, gouvernance) et les exigences du projet, afin de formuler des préconisations argumentées sur la viabilité et les conditions de réussite de la solution envisagée. Concevoir l’architecture data cible du projet IA, en sélectionnant les flux de données, les systèmes de gestion adaptés (batch, temps réel, NoSQL, feature stores…) et les exigences associées (sécurité, accessibilité, traçabilité), afin d’assurer la cohérence, la scalabilité et la conformité de l’architecture aux cas d’usage définis. Élaborer un dictionnaire de données et un catalogue de métadonnées associés aux modèles IA, en utilisant des outils de gouvernance adaptés, afin de garantir la traçabilité, la compréhension et la réutilisation des données mobilisées. Formaliser un cahier des charges fonctionnel et technique du projet IA, en intégrant les cas d’usage, objectifs, hypothèses, contraintes réglementaires (AI Act, RGPD), livrables attendus et modalités de mise à l’échelle, afin de cadrer les développements à venir et sécuriser la conception.
    • Projet professionnel Soutenance orale devant un jury
    > Sélectionner et interpréter les données d’une solution d’Intelligence Artificielle
    • Sélectionner les données pertinentes issues de sources variées (flux temps réel, API métier, capteurs IoT, données synthétiques), en tenant compte de leur volumétrie, multimodalité et des contraintes de gouvernance, en mobilisant des outils d’intégration (Apache NiFi, Airflow) et en veillant à leur compatibilité avec les environnements de traitement (Jupyter, Databricks, pipelines cloud), afin de constituer un jeu de données exploitable pour un cas d’usage IA donné. Évaluer la qualité, la fiabilité et la conformité des jeux de données (internes, externes, générées par IA), en mobilisant des méthodes de profiling (complétude, cohérence, duplications) et en intégrant les exigences de gouvernance (traçabilité, droits d’accès, documentation) ainsi que les préconisations des référents (DPO, RSSI), afin de garantir leur adéquation avec les cas d’usage IA et leur conformité aux normes réglementaires (RGPD, AI Act). Superviser les étapes de préparation des données (nettoyage, structuration, traitement des valeurs manquantes, encodage) en mobilisant des outils de data processing adaptés (Pandas, Dataiku, Trifacta), afin de produire un dataset exploitable, adapté à la nature des données (texte, image, capteurs IoT) et aux besoins d’entraînement ou d’analyse des modèles. Mettre en œuvre un dispositif de traçabilité, de versioning et de conformité des jeux de données (anonymisation, pseudonymisation, documentation, contrôle d’accès), en s’appuyant sur des outils dédiés (DVC, MLflow, notebooks Jupyter), afin de garantir la reproductibilité des traitements, la transparence des processus et la conformité réglementaire (RGPD, AI Act). Réaliser le feature engineering d’un jeu de données IA, en sélectionnant et générant les variables pertinentes au regard du cas d’usage (variables cibles, explicatives, indicateurs métiers), en mobilisant des outils spécialisés (Pandas, Feast ou Tecton) et des techniques d’explicabilité (SHAP, LIME), afin d’optimiser la performance et l’interprétabilité des modèles. Analyser les données traitées, à l’aide de méthodes statistiques adaptées (analyses univariées, bivariées, séries temporelles) et d’outils de traitement (Python, R, notebooks interactifs), en s’appuyant sur les indicateurs définis pour le cas d’usage IA, afin de mettre en évidence les tendances, patterns et signaux faibles utiles à l’analyse métier. Produire des visualisations dynamiques, lisibles et accessibles (heatmaps, diagrammes, dashboards interactifs) en utilisant des outils dédiés (Power BI, Tableau, Matplotlib Seaborn), afin de faciliter l’interprétation des résultats d’analyse par des profils variés, y compris non techniques. Détecter les biais structurels et représentatifs dans les jeux de données préparés, en mobilisant des frameworks spécialisés (AIF360, Fairlearn) et des analyses de répartition (sur/sous-représentation, corrélations induites), afin d’anticiper les risques d’iniquité, de non-conformité réglementaire ou de dérives algorithmiques lors de la phase de modélisation. Restituer les résultats d’analyse en les adaptant aux profils des parties prenantes (métier, décideurs, conformité), en mobilisant des supports adaptés (dashboards, rapports interactifs, présentations), en intégrant des éléments de vulgarisation, d’accessibilité et de storytelling data, afin de faciliter leur compréhension et leur prise en compte dans les décisions métier. Formuler des recommandations exploitables à partir de l’analyse des données, en intégrant les objectifs métier, les indicateurs ESG, les retours utilisateurs et les limites identifiées, afin d’orienter les décisions stratégiques, les arbitrages ou les ajustements de cas d’usage IA.
    • Etude de cas Mise en situation professionnelle
    > Conception et supervision d’une solution d’intelligence artificielle à partir des données collectées
    • Définir l’architecture cible pour l’entraînement et le déploiement des modèles IA, en arbitrant entre environnements cloud, edge ou hybrides (AWS SageMaker, Azure ML, Vertex AI), et en sélectionnant les ressources matérielles adaptées (GPU, TPU), afin de répondre aux besoins métier en termes de latence, scalabilité, accessibilité et robustesse. Structurer un environnement de développement IA sécurisé et automatisé, en intégrant des pratiques MLOps (CI/CD/CT), des dispositifs d’Infrastructure as Code (Terraform, Ansible) et des mécanismes de cybersécurité (Zero Trust, journalisation), tout en mobilisant des outils FinOps (CodeCarbon, cost monitors), afin de garantir la traçabilité des déploiements, l’optimisation des ressources et la conformité réglementaire (RGPD, AI Act). Sélectionner les modèles d’IA les plus adaptés à un cas d’usage métier donné (ML supervisé : régression, classification ML non supervisé: recommandation, Deep learning : LLM, Computer Vision, IA génératives), en tenant compte de la nature des données, des objectifs métier, et des contraintes d’interprétabilité, de robustesse et de soutenabilité, afin d’optimiser la performance du modèle et son adéquation aux attentes métier. Concevoir en collaboration avec les équipes data science des modèles d’intelligence artificielle adaptés aux cas d’usage identifiés, en intégrant les principes d’IA responsable (équité, explicabilité, auditabilité) et en mobilisant les outils de documentation et d’interprétabilité (Model Cards, SHAP, LIME), afin de garantir leur robustesse, leur transparence et leur conformité aux exigences réglementaires (AI Act, RGPD). Définir une stratégie d’évaluation des modèles IA, en sélectionnant des métriques adaptées (accuracy, F1-score, biais résiduels, recall) et en analysant les écarts de performance au regard des exigences métier, réglementaires et environnementales, afin de guider les décisions d’optimisation. Évaluer la robustesse et la capacité de généralisation d’un modèle IA après entraînement, en identifiant les signes de surapprentissage (overfitting), de sous-apprentissage (underfitting) ou de biais contextuels, afin de valider sa fiabilité avant son déploiement sur des données réelles. Superviser l’amélioration continue d’un modèle IA en analysant les performances pré-déploiement (biais résiduels, écarts de précision), les indicateurs d’usage (engagement, taux d’adoption) et les impacts métier (ROI, conformité réglementaire), en mobilisant des techniques d’optimisation (tuning, régularisation, ensemble learning) et des outils spécialisés (MLflow, Neptune, Arize), afin de renforcer sa robustesse, son équité et sa conformité aux exigences éthiques et réglementaires. Coordonner l’intégration du modèle IA dans l’environnement applicatif, en pilotant les phases de tests et de validation (fonctionnels, d’interopérabilité, de performance) et en mobilisant les équipes concernées (DevOps, DSI, RSSI), afin d’assurer la compatibilité de la solution avec les systèmes cibles (API, microservices, cloud, edge), dans le respect des normes de sécurité, d’accessibilité et de conformité réglementaire (RGPD, AI Act, Zero Trust). Superviser la production et la validation des livrables associés à la solution IA (guides utilisateurs, documentations API, fiches d’explicabilité), en adaptant les contenus aux profils des destinataires (métiers, techniques, conformité), afin d’assurer la transparence, l’appropriation et la maintenabilité de la solution déployée. Organiser le dispositif de supervision post-déploiement de la solution IA, en définissant les processus d’observabilité, d’alerting, de rollback et de mise à jour continue, en s’appuyant sur des outils MLOps (TFX, Kubeflow, Arize) et des garde-fous algorithmiques (NeMo Guardrails, LLM Security Checklist), afin de garantir la stabilité, la conformité et l’évolutivité du système en environnement réel.
    • Projet professionnel Soutenance orale devant un jury
    > Piloter un projet d’intelligence artificielle
    • Élaborer la feuille de route d’un projet IA en définissant les objectifs stratégiques, les livrables attendus et les indicateurs de réussite (incluant les critères ESG et d’IA responsable), en évaluant les ressources humaines, techniques et financières nécessaires, et en modélisant les principaux risques (budgétaires, humains, organisationnels), afin de garantir la cohérence entre les moyens mobilisés et les enjeux du projet. Orchestrer les phases du projet IA en adoptant une approche agile ou hybride, en intégrant dans le planning les temps d’expérimentation, les phases de prototypage et les aléas propres à l’IA (drift, biais, qualité des données), afin d’optimiser l’organisation et la flexibilité. Construire un budget prévisionnel pour un projet IA en identifiant l’ensemble des coûts liés aux ressources humaines spécialisées (MLOps, référents éthique, accessibilité), aux infrastructures techniques (cloud, GPU, plateformes IA), aux logiciels (licences, monitoring), ainsi qu’aux indicateurs de sobriété numérique (coût par prédiction, empreinte carbone), afin de garantir la viabilité économique du projet, la maîtrise des dépenses et le respect des engagements environnementaux. Réaliser des arbitrages budgétaires en cas de dérive ou d’évolution du périmètre d’un projet IA, en analysant les écarts entre prévisionnel et réalisé à l’aide de reporting financiers (Power BI, Tableau) et d’indicateurs de rentabilité et d’impact, afin de maintenir l’équilibre stratégique, réglementaire et environnemental du projet. Coordonner une équipe pluridisciplinaire et les parties prenantes d’un projet IA, en structurant les processus de travail, en assurant le suivi opérationnel à l’aide d’outils collaboratifs (Jira, Grafana, Azure Monitor) et en adaptant l’organisation aux aléas, afin de garantir l’efficacité, la conformité et l’avancement du projet selon les objectifs fixés. Conduire les instances collaboratives d’un projet IA (réunions, ateliers, comités de pilotage), en mobilisant des techniques de facilitation (design thinking, méthodes agiles) et des outils dédiés (Klaxoon, Miro), en régulant les tensions et en favorisant l’intelligence collective, afin de fédérer les parties prenantes et de maintenir une dynamique constructive au sein de l’équipe projet. Capitaliser les enseignements d’un retour d’expérience (REX) post-déploiement d’une solution IA, en mobilisant les parties prenantes projet et en définissant des axes d’amélioration, afin d’enrichir les pratiques internes et d’orienter les futurs projets IA. Superviser la clôture d’un projet IA, en coordonnant la finalisation des livrables techniques (documentation d’architecture, scripts de déploiement), fonctionnels (guides utilisateurs, cahiers des charges) et organisationnels (plans de gouvernance, rapports de clôture), en garantissant leur accessibilité et leur conformité aux exigences réglementaires (RGPD, AI Act, accessibilité), afin d’assurer la traçabilité, la transférabilité et la continuité de la solution. Déployer une stratégie d’acculturation et de formation continue aux enjeux de l’intelligence artificielle, en adaptant les formats et contenus (ateliers, guides interactifs, MOOC, démonstrateurs) aux différents profils d’utilisateurs (métiers, techniques, en situation de handicap), afin de faciliter l’appropriation de la solution et de garantir l’accessibilité des contenus. Piloter une démarche de conduite du changement en lien avec l’intégration d’une solution IA, en analysant les retours utilisateurs (taux d’usage, feedback qualitatif), en identifiant les freins à l’adoption et en déployant une communication structurée sur les bénéfices et les limites, afin de renforcer l’appropriation et d’alimenter l’amélioration continue.
    • Etudes de cas Jeu de rôles
  • Objectifs et Programme

    • Piloter une veille technologique et réglementaire sur les systèmes d’intelligence artificielle (LLM, IA générative, FinOps/MLOps, sécurité IA…), en mobilisant des outils spécialisés, afin d’anticiper les contraintes techniques, réglementaires et éthiques impactant la conception des solutions IA.
    • Analyser le besoin métier et l’environnement data du client, en mobilisant des méthodes de co-construction ou collaboratives (design thinking, ateliers participatifs), afin d’identifier des cas d’usage IA pertinents et compatibles avec les contraintes techniques, fonctionnelles et réglementaires.
    • Qualifier les sources et typologies de données mobilisables (structurées, non structurées, multimodales, internes, externes, synthétiques), en appliquant des critères de qualité, de volumétrie, de gouvernance et de conformité (RGPD, AI Act, principes OCDE), afin d’évaluer leur exploitabilité dans le cadre du projet IA.
    • Modéliser un cas d’usage IA à partir d’un besoin métier analysé, en priorisant les scénarios selon leur valeur ajoutée, leur faisabilité et leur impact, et en définissant les livrables attendus, objectifs opérationnels et indicateurs de performance (SLA, coût par prédiction…), afin de cadrer la solution cible.
    • Conduire une analyse d'impact éthique, règlementaire et environnementaux des cas d'usage d'IA envisagés, en mobilisant les parties prenantes afin de formaliser les risques (biais, non-conformité, etc.) et de définir des plans d'atténuation.
    • Mettre en place des ateliers de co-construction de la solution IA avec les parties prenantes internes et externes (utilisateurs métier, experts techniques, DPO, RSSI, référents éthiques), en mobilisant des méthodes collaboratives (cartographie des besoins, priorisation des fonctionnalités, matrices d’arbitrage), afin d’aligner les choix fonctionnels et techniques sur les besoins et les exigences de conformité.
    • Évaluer la faisabilité technique des cas d’usage IA sélectionnés en analysant l’adéquation entre les données disponibles (qualité, volumétrie, typologie, gouvernance) et les exigences du projet, afin de formuler des préconisations argumentées sur la viabilité et les conditions de réussite de la solution envisagée.
    • Concevoir l’architecture data cible du projet IA, en sélectionnant les flux de données, les systèmes de gestion adaptés (batch, temps réel, NoSQL, feature stores…) et les exigences associées (sécurité, accessibilité, traçabilité), afin d’assurer la cohérence, la scalabilité et la conformité de l’architecture aux cas d’usage définis.
    • Élaborer un dictionnaire de données et un catalogue de métadonnées associés aux modèles IA, en utilisant des outils de gouvernance adaptés, afin de garantir la traçabilité, la compréhension et la réutilisation des données mobilisées.
    • Formaliser un cahier des charges fonctionnel et technique du projet IA, en intégrant les cas d’usage, objectifs, hypothèses, contraintes réglementaires (AI Act, RGPD), livrables attendus et modalités de mise à l’échelle, afin de cadrer les développements à venir et sécuriser la conception.
    • Sélectionner les données pertinentes issues de sources variées (flux temps réel, API métier, capteurs IoT, données synthétiques), en tenant compte de leur volumétrie, multimodalité et des contraintes de gouvernance, en mobilisant des outils d’intégration (Apache NiFi, Airflow) et en veillant à leur compatibilité avec les environnements de traitement (Jupyter, Databricks, pipelines cloud), afin de constituer un jeu de données exploitable pour un cas d’usage IA donné.
    • Évaluer la qualité, la fiabilité et la conformité des jeux de données (internes, externes, générées par IA), en mobilisant des méthodes de profiling (complétude, cohérence, duplications) et en intégrant les exigences de gouvernance (traçabilité, droits d’accès, documentation) ainsi que les préconisations des référents (DPO, RSSI), afin de garantir leur adéquation avec les cas d’usage IA et leur conformité aux normes réglementaires (RGPD, AI Act).
    • Superviser les étapes de préparation des données (nettoyage, structuration, traitement des valeurs manquantes, encodage) en mobilisant des outils de data processing adaptés (Pandas, Dataiku, Trifacta), afin de produire un dataset exploitable, adapté à la nature des données (texte, image, capteurs IoT) et aux besoins d’entraînement ou d’analyse des modèles.
    • Mettre en œuvre un dispositif de traçabilité, de versioning et de conformité des jeux de données (anonymisation, pseudonymisation, documentation, contrôle d’accès), en s’appuyant sur des outils dédiés (DVC, MLflow, notebooks Jupyter), afin de garantir la reproductibilité des traitements, la transparence des processus et la conformité réglementaire (RGPD, AI Act).
    • Réaliser le feature engineering d’un jeu de données IA, en sélectionnant et générant les variables pertinentes au regard du cas d’usage (variables cibles, explicatives, indicateurs métiers), en mobilisant des outils spécialisés (Pandas, Feast ou Tecton) et des techniques d’explicabilité (SHAP, LIME), afin d’optimiser la performance et l’interprétabilité des modèles.
    • Analyser les données traitées, à l’aide de méthodes statistiques adaptées (analyses univariées, bivariées, séries temporelles) et d’outils de traitement (Python, R, notebooks interactifs), en s’appuyant sur les indicateurs définis pour le cas d’usage IA, afin de mettre en évidence les tendances, patterns et signaux faibles utiles à l’analyse métier.
    • Produire des visualisations dynamiques, lisibles et accessibles (heatmaps, diagrammes, dashboards interactifs) en utilisant des outils dédiés (Power BI, Tableau, Matplotlib Seaborn), afin de faciliter l’interprétation des résultats d’analyse par des profils variés, y compris non techniques.
    • Détecter les biais structurels et représentatifs dans les jeux de données préparés, en mobilisant des frameworks spécialisés (AIF360, Fairlearn) et des analyses de répartition (sur/sous-représentation, corrélations induites), afin d’anticiper les risques d’iniquité, de non-conformité réglementaire ou de dérives algorithmiques lors de la phase de modélisation.
    • Restituer les résultats d’analyse en les adaptant aux profils des parties prenantes (métier, décideurs, conformité), en mobilisant des supports adaptés (dashboards, rapports interactifs, présentations), en intégrant des éléments de vulgarisation, d’accessibilité et de storytelling data, afin de faciliter leur compréhension et leur prise en compte dans les décisions métier.
    • Formuler des recommandations exploitables à partir de l’analyse des données, en intégrant les objectifs métier, les indicateurs ESG, les retours utilisateurs et les limites identifiées, afin d’orienter les décisions stratégiques, les arbitrages ou les ajustements de cas d’usage IA.
    • Définir l’architecture cible pour l’entraînement et le déploiement des modèles IA, en arbitrant entre environnements cloud, edge ou hybrides (AWS SageMaker, Azure ML, Vertex AI), et en sélectionnant les ressources matérielles adaptées (GPU, TPU), afin de répondre aux besoins métier en termes de latence, scalabilité, accessibilité et robustesse.
    • Structurer un environnement de développement IA sécurisé et automatisé, en intégrant des pratiques MLOps (CI/CD/CT), des dispositifs d’Infrastructure as Code (Terraform, Ansible) et des mécanismes de cybersécurité (Zero Trust, journalisation), tout en mobilisant des outils FinOps (CodeCarbon, cost monitors), afin de garantir la traçabilité des déploiements, l’optimisation des ressources et la conformité réglementaire (RGPD, AI Act).
    • Sélectionner les modèles d’IA les plus adaptés à un cas d’usage métier donné (ML supervisé : régression, classification ML non supervisé: recommandation, Deep learning : LLM, Computer Vision, IA génératives), en tenant compte de la nature des données, des objectifs métier, et des contraintes d’interprétabilité, de robustesse et de soutenabilité, afin d’optimiser la performance du modèle et son adéquation aux attentes métier.
    • Concevoir en collaboration avec les équipes data science des modèles d’intelligence artificielle adaptés aux cas d’usage identifiés, en intégrant les principes d’IA responsable (équité, explicabilité, auditabilité) et en mobilisant les outils de documentation et d’interprétabilité (Model Cards, SHAP, LIME), afin de garantir leur robustesse, leur transparence et leur conformité aux exigences réglementaires (AI Act, RGPD).
    • Définir une stratégie d’évaluation des modèles IA, en sélectionnant des métriques adaptées (accuracy, F1-score, biais résiduels, recall) et en analysant les écarts de performance au regard des exigences métier, réglementaires et environnementales, afin de guider les décisions d’optimisation.
    • Évaluer la robustesse et la capacité de généralisation d’un modèle IA après entraînement, en identifiant les signes de surapprentissage (overfitting), de sous-apprentissage (underfitting) ou de biais contextuels, afin de valider sa fiabilité avant son déploiement sur des données réelles.
    • Superviser l’amélioration continue d’un modèle IA en analysant les performances pré-déploiement (biais résiduels, écarts de précision), les indicateurs d’usage (engagement, taux d’adoption) et les impacts métier (ROI, conformité réglementaire), en mobilisant des techniques d’optimisation (tuning, régularisation, ensemble learning) et des outils spécialisés (MLflow, Neptune, Arize), afin de renforcer sa robustesse, son équité et sa conformité aux exigences éthiques et réglementaires.
    • Coordonner l’intégration du modèle IA dans l’environnement applicatif, en pilotant les phases de tests et de validation (fonctionnels, d’interopérabilité, de performance) et en mobilisant les équipes concernées (DevOps, DSI, RSSI), afin d’assurer la compatibilité de la solution avec les systèmes cibles (API, microservices, cloud, edge), dans le respect des normes de sécurité, d’accessibilité et de conformité réglementaire (RGPD, AI Act, Zero Trust).
    • Superviser la production et la validation des livrables associés à la solution IA (guides utilisateurs, documentations API, fiches d’explicabilité), en adaptant les contenus aux profils des destinataires (métiers, techniques, conformité), afin d’assurer la transparence, l’appropriation et la maintenabilité de la solution déployée...

    Précisions de l’organisme de formation :

    • Maîtriser les langages de programmation
    • Développer des applications web et mobiles innovantes
    • Gérer des projets d’intelligence artificielle
    • Encourager la créativité et l’innovation

  • Résultats attendus

    ØValider les 5 blocs de compétences au total

     

    ØUn projet de recherche à la fin de la première année : un projet de recherche (40 pages) sur un bloc du programme (Pas de soutenance orale).

     

    ØPour le jury, à la fin de la deuxième année un mémoire (50 pages) sur l’ensemble des blocs, et un oral de soutenance (1h)

     

    ØUn projet humanitaire ou associatif par an (groupe de 5 à 8 étudiants)

  • Organisation pédagogique

    > Modalité d'enseignement :
    • Formation entièrement présentielle
  • En savoir plus

  • Des liens avec les métiers accessibles avec cette formation

    Expertise et support en systèmes d'information

    Direction des systèmes d'information

    Études et développement informatique

Source : Cariforef des Pays de la Loire - 234037 - Code établissement : 58534

La session est déclarée fermée.

N’hésitez pas, néanmoins, à prendre contact avec l’organisme de formation. Des places se sont peut-être libérées ou de nouvelles sessions programmées prochainement.

"Pour vous aider dans votre recherche, des chargé(e)s d'information sont à votre disposition."

• Métiers • Formations • Aides et financements • Lieux et outils d'information
Pour vous aider dans votre recherche, des chargé.e.s d'information sont à votre disposition.
appeler
• Métiers
• aides et financements
• Formations
• Lieux et outils d'information
Contactez-nous par mail, nous répondons à vos questions sur :
• les métiers • les aides et les financements • les formations • les lieux et les outils d'information
" Pour vous aider dans votre recherche, des chargé.e.s d'information sont à votre disposition "
* Champ obligatoire
RAPPEL GRATUIT
du lundi au jeudi de 9h à 12h30 / 13h30 à 17h et le vendredi de 9h à 12h30

Nos chargé.e.s d'information répondent à toutes vos questions.
Nous vous rappelons au moment qui vous arrange.

"Quand souhaitez-vous être rappelé ?"
Nos chargé.e.s d'information répondent à vos questions.