Aller au menu Aller au contenu Aller à la page d'accessibilité
masquer

CONTACTER
UN CONSEILLER

fleche

Je consulte ma fiche formation en Pays de la Loire.

Concepteur développeur en intelligence artificielle et analyse big data Data Analytics

Le Wagon

Mon plus formation

           

Descriptif de la formation

  • Concevoir un processus de collecte de données en évaluant et choisissant des outils adaptés pour faciliter l'accessibilité, la sécurité et l'intégrité des données centralisées dans le respect de la réglementation en vigueur (RGPD).
  • Créer un système automatisé de collecte de données en intégrant des solutions ETL (comme Fivetran ou Stitch) et/ou en développant des scripts informatiques en Python ou SQL pour une agrégation rapide et exacte des données correspondant aux besoins métier.
  • Développer des stratégies de nettoyage de données, en analysant le contexte spécifique des données pour assurer un traitement approprié et sécurisé des données qui réponde aux besoins métier de l’entreprise.
  • Extraire des données en développant des scripts personnalisés (par exemple en Python ou SQL) pour récupérer des informations précises et pertinentes depuis une ou plusieurs bases de données.
  • Mener des analyses exploratoires en calculant des techniques statistiques descriptives (comme la moyenne ou l’analyse des fréquences) pour comprendre la distribution des données et écarter les valeurs anormales.
  • Identifier et interpréter des tendances en utilisant des langages de programmation (par exemple Python) et/ou des outils métiers adaptés (par exemple un tableur) pour comprendre finement le contexte et la nature des données analysées.
  • Sélectionner l’algorithme d’apprentissage le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente à la problématique métier rencontrée.
  • Préparer et transformer des données en utilisant des techniques de prétraitement (preprocessing) pour les adapter aux spécificités du modèle d'apprentissage automatique choisi.
  • Entraîner un modèle d'apprentissage automatique en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
  • Identifier les évolutions clés en IA et Big Data en analysant des sources d'information spécialisées pour rester à la pointe des dernières innovations et alimenter les stratégies de projet.
  • Élaborer et évaluer la problématique métier en utilisant des approches analytiques, pour créer un cahier des charges qui reflète précisément les besoins et les objectifs du projet data.
  • Évaluer les risques inhérents au projet IA et Big Data concernant l’impact éthique, le respect du RGPD ou encore la conformité aux normes environnementales, en proposant des méthodes d’audit pour garantir une conformité globale du projet.
  • Planifier et coordonner les ressources humaines et matérielles de manière efficace, en structurant un calendrier des activités qui garantit le respect des délais et des budgets du projet data.
  • Piloter une équipe multidisciplinaire en mettant en place des mécanismes d'évaluation et de feedback continus, assurant ainsi une progression fluide et coordonnée du projet data.
  • Présenter les résultats de projets IA et Big Data en adaptant le contenu et la forme aux différentes parties prenantes, y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG pour garantir une compréhension claire et inclusive.
  • Préparer des données non structurées en les convertissant en données numériques et sous forme tabulaires pour servir de données d'entraînement à un algorithme d’apprentissage profond.
  • Sélectionner l’algorithme d’apprentissage profond le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente adaptée à la problématique métier rencontrée.
  • Entraîner un modèle d'apprentissage profond en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
  • Déployer efficacement un modèle d'apprentissage profond en utilisant des outils et plateformes de production adaptés (MLOps), pour assurer une accessibilité et une performance optimale des prédictions de l'algorithme aux utilisateurs finaux.
  • Identifier les indicateurs clés à calculer en interrogeant les besoins métier afin de structurer les tableaux de bords nécessaires à des prises de décisions stratégiques.
  • Choisir des visualisations pertinentes en prenant en considération la nature massive des données et le profil des usagers y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG afin de faciliter la compréhension des informations obtenues grâce à l’IA et au Big Data.
  • Créer des tableaux de bord en utilisant des outils de BI (comme PowerBI ou Looker Studio) afin de rendre accessibles et interactives les analyses prédictives aux autres membres de l'entreprise.
Cette formation à pour objectif de vous faire découvrir tout les aspects du métier de data analyst. Vous allez apprendre à extraire, manipuler et nettoyer des données pour les rendre actionnable (Python, base de données relationnelles SQL).                

Concepteur développeur en intelligence artificielle et analyse big data Data Analytics

  • Concevoir un processus de collecte de données en évaluant et choisissant des outils adaptés pour faciliter l'accessibilité, la sécurité et l'intégrité des données centralisées dans le respect de la réglementation en vigueur (RGPD).
  • Créer un système automatisé de collecte de données en intégrant des solutions ETL (comme Fivetran ou Stitch) et/ou en développant des scripts informatiques en Python ou SQL pour une agrégation rapide et exacte des données correspondant aux besoins métier.
  • Développer des stratégies de nettoyage de données, en analysant le contexte spécifique des données pour assurer un traitement approprié et sécurisé des données qui réponde aux besoins métier de l’entreprise.
  • Extraire des données en développant des scripts personnalisés (par exemple en Python ou SQL) pour récupérer des informations précises et pertinentes depuis une ou plusieurs bases de données.
  • Mener des analyses exploratoires en calculant des techniques statistiques descriptives (comme la moyenne ou l’analyse des fréquences) pour comprendre la distribution des données et écarter les valeurs anormales.
  • Identifier et interpréter des tendances en utilisant des langages de programmation (par exemple Python) et/ou des outils métiers adaptés (par exemple un tableur) pour comprendre finement le contexte et la nature des données analysées.
  • Sélectionner l’algorithme d’apprentissage le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente à la problématique métier rencontrée.
  • Préparer et transformer des données en utilisant des techniques de prétraitement (preprocessing) pour les adapter aux spécificités du modèle d'apprentissage automatique choisi.
  • Entraîner un modèle d'apprentissage automatique en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
  • Identifier les évolutions clés en IA et Big Data en analysant des sources d'information spécialisées pour rester à la pointe des dernières innovations et alimenter les stratégies de projet.
  • Élaborer et évaluer la problématique métier en utilisant des approches analytiques, pour créer un cahier des charges qui reflète précisément les besoins et les objectifs du projet data.
  • Évaluer les risques inhérents au projet IA et Big Data concernant l’impact éthique, le respect du RGPD ou encore la conformité aux normes environnementales, en proposant des méthodes d’audit pour garantir une conformité globale du projet.
  • Planifier et coordonner les ressources humaines et matérielles de manière efficace, en structurant un calendrier des activités qui garantit le respect des délais et des budgets du projet data.
  • Piloter une équipe multidisciplinaire en mettant en place des mécanismes d'évaluation et de feedback continus, assurant ainsi une progression fluide et coordonnée du projet data.
  • Présenter les résultats de projets IA et Big Data en adaptant le contenu et la forme aux différentes parties prenantes, y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG pour garantir une compréhension claire et inclusive.
  • Préparer des données non structurées en les convertissant en données numériques et sous forme tabulaires pour servir de données d'entraînement à un algorithme d’apprentissage profond.
  • Sélectionner l’algorithme d’apprentissage profond le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente adaptée à la problématique métier rencontrée.
  • Entraîner un modèle d'apprentissage profond en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
  • Déployer efficacement un modèle d'apprentissage profond en utilisant des outils et plateformes de production adaptés (MLOps), pour assurer une accessibilité et une performance optimale des prédictions de l'algorithme aux utilisateurs finaux.
  • Identifier les indicateurs clés à calculer en interrogeant les besoins métier afin de structurer les tableaux de bords nécessaires à des prises de décisions stratégiques.
  • Choisir des visualisations pertinentes en prenant en considération la nature massive des données et le profil des usagers y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG afin de faciliter la compréhension des informations obtenues grâce à l’IA et au Big Data.
  • Créer des tableaux de bord en utilisant des outils de BI (comme PowerBI ou Looker Studio) afin de rendre accessibles et interactives les analyses prédictives aux autres membres de l'entreprise.
Cette formation à pour objectif de vous faire découvrir tout les aspects du métier de data analyst. Vous allez apprendre à extraire, manipuler et nettoyer des données pour les rendre actionnable (Python, base de données relationnelles SQL).                

Le Wagon

10 Passage de la Poule Noire
44000 Nantes

07-56-79-80-80

Du 13/10/2025 au 12/12/2025

  • en centre : 360 heures
  • Temps plein
  • Cours de jour

  • Formation adulte

Lieu de la formation

Le Wagon
10 Passage de la Poule Noire 44000 Nantes
07-56-79-80-80
france-fundings@lewagon.org


  • Pré-requis

    > Niveau d’entrée :
    • Sans niveau spécifique
    > Type de prérequis :
    • Sans pré-requis spécifique
    > Commentaire prérequis :
    • Notre apprentissage intensif repose sur la mise en application concrète et des leçons quotidiennes dispensées (apprentissage en binôme, et en groupe, en autonomie assistée). Journée type du Wagon : Cours théoriques (9h à 10h30), mises en pratique (10h30 à 17h), Livecode (17h à 18h). La formation aboutit sur la création et la soutenance d'un projet réalisé en groupe (10 derniers jours). D'autres activités ludiques de networking sont proposées en dehors des cours : Talks, workshops, events collectifs (yoga, soirées, wakeboard,...). La formation s'adresse aux personnes (très) motivées, curieuses et sociables. Les cours sont dispensés en français, mais le programme est écrit en anglais : un bon niveau est donc indispensable.                
  • Objectif général : Certification

  • Blocs de compétences
    > Mener des projets IA et Big Data en équipe en intégrant les contraintes légales et des considérations éthiques
    • Identifier les évolutions clés en IA et Big Data en analysant des sources d'information spécialisées pour rester à la pointe des dernières innovations et alimenter les stratégies de projet. Élaborer et évaluer la problématique métier en utilisant des approches analytiques, pour créer un cahier des charges qui reflète précisément les besoins et les objectifs du projet data. Évaluer les risques inhérents au projet IA et Big Data concernant l’impact éthique, le respect du RGPD ou encore la conformité aux normes environnementales, en proposant des méthodes d’audit pour garantir une conformité globale du projet. Planifier et coordonner les ressources humaines et matérielles de manière efficace, en structurant un calendrier des activités qui garantit le respect des délais et des budgets du projet data. Piloter une équipe multidisciplinaire en mettant en place des mécanismes d'évaluation et de feedback continus, assurant ainsi une progression fluide et coordonnée du projet data. Présenter les résultats de projets IA et Big Data en adaptant le contenu et la forme aux différentes parties prenantes, y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG pour garantir une compréhension claire et inclusive.
    • Etude d'un cas pratique, production d'une présentation répondant à une problématique métier. Le candidat devra analyser une problématique métier, identifier des innovations technologiques pertinentes, justifier ses choix techniques, proposer un plan de gestion de projet (ressources, planification, modalités de suivi et de coordination) et une analyse des risques inhérents à la réalisation de ce projet.
    > Automatiser la collecte et le traitement des données (Data Engineering)
    • Concevoir un processus de collecte de données en évaluant et choisissant des outils adaptés pour faciliter l'accessibilité, la sécurité et l'intégrité des données centralisées dans le respect de la réglementation en vigueur (RGPD). Créer un système automatisé de collecte de données en intégrant des solutions ETL (comme Fivetran ou Stitch) et/ou en développant des scripts informatiques en Python ou SQL pour une agrégation rapide et exacte des données correspondant aux besoins métier. Développer des stratégies de nettoyage de données, en analysant le contexte spécifique des données pour assurer un traitement approprié et sécurisé des données qui réponde aux besoins métier de l’entreprise.
    • Un cas pratique d'étude d'un jeu de données concernant une problématique métier. Le candidat devra réaliser un traitement de cette donnée et son transfert automatique.
    > Analyser et synthétiser les données préalablement à l’utilisation d’algorithmes d’IA
    • Extraire des données en développant des scripts personnalisés (par exemple en Python ou SQL) pour récupérer des informations précises et pertinentes depuis une ou plusieurs bases de données. Mener des analyses exploratoires en calculant des techniques statistiques descriptives (comme la moyenne ou l’analyse des fréquences) pour comprendre la distribution des données et écarter les valeurs anormales. Identifier et interpréter des tendances en utilisant des langages de programmation (par exemple Python) et/ou des outils métiers adaptés (par exemple un tableur) pour comprendre finement le contexte et la nature des données analysées.
    • Un cas pratique d'étude d'un jeu de données sur une problématique métier sera donné au candidat. Ce dernier devra effectuer une analyse de données en récupérant ces données puis en calculant des statistiques descriptives pour en tirer des conclusions.
    > Appliquer des techniques d’analyse IA via des algorithmes d'apprentissage automatiques (Machine Learning)
    • Sélectionner l’algorithme d’apprentissage le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente à la problématique métier rencontrée. Préparer et transformer des données en utilisant des techniques de prétraitement (preprocessing) pour les adapter aux spécificités du modèle d'apprentissage automatique choisi. Entraîner un modèle d'apprentissage automatique en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
    • Un cas pratique d'étude d'un jeu de données sur une problématique métier sera donné au candidat. Ce dernier devra réaliser un algorithme d’apprentissage automatique et évaluer les performances de son modèle.
    > Option Data Science - Développer et mettre en production des algorithmes d’IA par apprentissage profond (Deep Learning)
    • Préparer des données non structurées en les convertissant en données numériques et sous forme tabulaires pour servir de données d'entraînement à un algorithme d’apprentissage profond. Sélectionner l’algorithme d’apprentissage profond le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente adaptée à la problématique métier rencontrée. Entraîner un modèle d'apprentissage profond en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis. Déployer efficacement un modèle d'apprentissage profond en utilisant des outils et plateformes de production adaptés (MLOps), pour assurer une accessibilité et une performance optimale des prédictions de l'algorithme aux utilisateurs finaux.
    • Un cas pratique d'étude d'un jeu de données sur une problématique métier sera donné au candidat. Ce dernier devra réaliser un algorithme d’apprentissage automatique profond et évaluer les performances de son modèle. De plus, le candidat se verra donner un modèle qu’il devra alors déployer en production.
    > Option Data Analyse - Concevoir des tableaux de bords avancés (Business Intelligence)
    • Identifier les indicateurs clés à calculer en interrogeant les besoins métier afin de structurer les tableaux de bords nécessaires à des prises de décisions stratégiques. Choisir des visualisations pertinentes en prenant en considération la nature massive des données et le profil des usagers y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG afin de faciliter la compréhension des informations obtenues grâce à l’IA et au Big Data. Créer des tableaux de bord en utilisant des outils de BI (comme PowerBI ou Looker Studio) afin de rendre accessibles et interactives les analyses prédictives aux autres membres de l'entreprise.
    • Un cas pratique d'étude d'un jeu de données sur une problématique métier sera donné au candidat. Ce dernier devra identifier les indicateurs clés à calculer afin de réaliser un tableau de bord. A partir de ce tableau de bord, le candidat donnera ses conclusions et ses recommandations.
  • Objectifs et Programme

    • Concevoir un processus de collecte de données en évaluant et choisissant des outils adaptés pour faciliter l'accessibilité, la sécurité et l'intégrité des données centralisées dans le respect de la réglementation en vigueur (RGPD).
    • Créer un système automatisé de collecte de données en intégrant des solutions ETL (comme Fivetran ou Stitch) et/ou en développant des scripts informatiques en Python ou SQL pour une agrégation rapide et exacte des données correspondant aux besoins métier.
    • Développer des stratégies de nettoyage de données, en analysant le contexte spécifique des données pour assurer un traitement approprié et sécurisé des données qui réponde aux besoins métier de l’entreprise.
    • Extraire des données en développant des scripts personnalisés (par exemple en Python ou SQL) pour récupérer des informations précises et pertinentes depuis une ou plusieurs bases de données.
    • Mener des analyses exploratoires en calculant des techniques statistiques descriptives (comme la moyenne ou l’analyse des fréquences) pour comprendre la distribution des données et écarter les valeurs anormales.
    • Identifier et interpréter des tendances en utilisant des langages de programmation (par exemple Python) et/ou des outils métiers adaptés (par exemple un tableur) pour comprendre finement le contexte et la nature des données analysées.
    • Sélectionner l’algorithme d’apprentissage le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente à la problématique métier rencontrée.
    • Préparer et transformer des données en utilisant des techniques de prétraitement (preprocessing) pour les adapter aux spécificités du modèle d'apprentissage automatique choisi.
    • Entraîner un modèle d'apprentissage automatique en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
    • Identifier les évolutions clés en IA et Big Data en analysant des sources d'information spécialisées pour rester à la pointe des dernières innovations et alimenter les stratégies de projet.
    • Élaborer et évaluer la problématique métier en utilisant des approches analytiques, pour créer un cahier des charges qui reflète précisément les besoins et les objectifs du projet data.
    • Évaluer les risques inhérents au projet IA et Big Data concernant l’impact éthique, le respect du RGPD ou encore la conformité aux normes environnementales, en proposant des méthodes d’audit pour garantir une conformité globale du projet.
    • Planifier et coordonner les ressources humaines et matérielles de manière efficace, en structurant un calendrier des activités qui garantit le respect des délais et des budgets du projet data.
    • Piloter une équipe multidisciplinaire en mettant en place des mécanismes d'évaluation et de feedback continus, assurant ainsi une progression fluide et coordonnée du projet data.
    • Présenter les résultats de projets IA et Big Data en adaptant le contenu et la forme aux différentes parties prenantes, y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG pour garantir une compréhension claire et inclusive.
    • Préparer des données non structurées en les convertissant en données numériques et sous forme tabulaires pour servir de données d'entraînement à un algorithme d’apprentissage profond.
    • Sélectionner l’algorithme d’apprentissage profond le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente adaptée à la problématique métier rencontrée.
    • Entraîner un modèle d'apprentissage profond en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
    • Déployer efficacement un modèle d'apprentissage profond en utilisant des outils et plateformes de production adaptés (MLOps), pour assurer une accessibilité et une performance optimale des prédictions de l'algorithme aux utilisateurs finaux.
    • Identifier les indicateurs clés à calculer en interrogeant les besoins métier afin de structurer les tableaux de bords nécessaires à des prises de décisions stratégiques.
    • Choisir des visualisations pertinentes en prenant en considération la nature massive des données et le profil des usagers y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG afin de faciliter la compréhension des informations obtenues grâce à l’IA et au Big Data.
    • Créer des tableaux de bord en utilisant des outils de BI (comme PowerBI ou Looker Studio) afin de rendre accessibles et interactives les analyses prédictives aux autres membres de l'entreprise.

    Précisions de l’organisme de formation :

    Cette formation à pour objectif de vous faire découvrir tout les aspects du métier de data analyst. Vous allez apprendre à extraire, manipuler et nettoyer des données pour les rendre actionnable (Python, base de données relationnelles SQL).                 Le Wagon - Data Analytics - Concepteur Développeur en Intelligence Artificielle et Analyse Big Data : La formation s'articule sur 5 parties : Partie I : Maîtrisez le data sourcing : Comprenez les KPIs des entreprises, collectez des données depuis différentes sources pour mener des analyses les plus emblématiques Analysez avec Google Sheets : Découvrez les analyse produit, sales, marketing et finance.
    Dashboard Google Sheets : Construisez des dashboard automatisés avec Google Sheets. Partie II : Apprenez à extraire et transformer la data via des API, des outils d'automatisation ou du tracking sur Google Tag Manager. Maîtrisez SQL et construisez des data warehouse structurés avec les techniques de software engineering. Apprenez l'extraction et le nettoyage automatique de données : Comprenez le fonctionnement des APIs avec Postman et automatisez des process avec les outils phares comme Zapier & n8n. Vous utiliserez Fivetran, le leader mondial des ELT et la nouvelle version de Google Analytics, GA 4.
    Maîtrisez le langage des data analysts : Apprenez toutes les techniques pour centraliser et transformer vos données dans un data warehouse. Réalisez des dashboards efficaces et menez des analyses poussées pour les équipes métiers. Apprenez à utiliser les requêtes SQL Partie III : Business Intelligence et data visualization : Communiquez clairement vos résultats en utilisant les bonnes visualisations et en créant des tableaux de bord automatisés sur des millions de données avec les outils de BI les plus utilisés. Apprenez la data visualization : apprenez à construire les graphiques et les tableaux de bord les plus clairs et les plus interactifs possibles pour vos équipes. Faites ressortir des insights de vos données en adoptant la bonne méthodologie d'analyse. Partie IV : Python pour l'analyse et la prédiction : Exécutez des analyses sur de gros jeux de données grâce à Python et Jupiter notebook. Collaborez mieux avec les équipes data scientists et engineers : Découvrez le format Jupiter Notebook et gérer vos environnements sur Jupyterhub.
    Apprenez à manipuler les données : Créer des clusters à partir de vos données, automatiser l'exécution de vos scripts avec Airflow et apprenez à prédire le futur avec les librairies Python sklearn, prophet. Partie V : Projets et Career Week : Réalisez un projet d'analyse de données de A à Z. Projet de fin : Réalisez un projet d'analyse de données de A à Z sur les vraies données de nos partenaires. Apprenez à bien poser le problème, à identifier, extraire, centraliser et traiter vos données. Menez vos analyses et créez des dashboard automatisés qui apporteront de la valeur.
    Career Week : Rencontrez des data analysts en startup, préparez votre CV et réalisez des entretiens blancs pour préparer votre recherche d'emploi. Allez plus en profondeur sur des sujets data essentiels: RGPD, l'organisation d'équipes data analysts en entreprise !          

  • Résultats attendus

    Développeur en intelligence artificielle

     
     
     
     
     

  • Organisation pédagogique

    > Modalité d'enseignement :
    • Formation entièrement présentielle
  • En savoir plus

  • Des liens avec les métiers accessibles avec cette formation
Source : Cariforef des Pays de la Loire - 249558 - Code établissement : 57586

La session est déclarée fermée.

N’hésitez pas, néanmoins, à prendre contact avec l’organisme de formation. Des places se sont peut-être libérées ou de nouvelles sessions programmées prochainement.

Pour vous aider dans votre recherche, des chargé.e.s d'information sont à votre disposition.
appeler
• Métiers
• aides et financements
• Formations
• Lieux et outils d'information
Contactez-nous par mail, nous répondons à vos questions sur :
• les métiers • les aides et les financements • les formations • les lieux et les outils d'information
" Pour vous aider dans votre recherche, des chargé.e.s d'information sont à votre disposition "
* Champ obligatoire
RAPPEL GRATUIT
du lundi au jeudi de 9h à 12h30 / 13h30 à 17h et le vendredi de 9h à 12h30

Nos chargé.e.s d'information répondent à toutes vos questions.
Nous vous rappelons au moment qui vous arrange.

"Quand souhaitez-vous être rappelé ?"
Nos chargé.e.s d'information répondent à vos questions.