Aller au menu Aller au contenu Aller à la page d'accessibilité
masquer

CONTACTER
UN CONSEILLER

fleche

Je consulte ma fiche formation en Pays de la Loire.

Expert en infrastructures de données massives Data engineer

Simplon Grand Ouest - Nantes

Descriptif de la formation

  • Analyser l’expression d’un besoin de projet data dans une étude de faisabilité en explorant, à l’aune des enjeux stratégiques de l’organisation, le besoin métier avec les parties prenantes pour valider les orientations et sélectionner les hypothèses techniques du projet avec le ou les commanditaire(s).
  • Cartographier les données disponibles en référençant les usages, les sources, les métadonnées et les données afin de valider les hypothèses techniques du projet data.
  • Concevoir un cadre technique d’exploitation des données en analysant les contraintes techniques, de moyens et la cartographie des données afin de définir une réponse technique adaptée aux ressources mobilisables dans le respect du RGPD et d’une démarche éco-responsable.
  • Réaliser une veille technique et réglementaire en sélectionnant des sources et en collectant et traitant les informations collectées afin de formuler des recommandations projet toujours en phase avec l’état de l’art.
  • Planifier la réalisation d’un projet data en attribuant les moyens nécessaires et en définissant les étapes de réalisation et les méthodes de suivi du projet afin de d’organiser sa mise en oeuvre
  • Superviser la réalisation d’un projet data en organisant les méthodes, les outils de travail et la communication entre les parties prenantes, afin d’accompagner les membres de l’équipe dans la réussite du projet
  • Communiquer tout au long de la réalisation du projet data sur les orientations, les réalisations et leurs impacts en élaborant la stratégie et les supports de communication afin d’informer toutes les parties prenantes des évolutions ou des opportunités internes comme externes, portés par le projet.
  • Automatiser l’extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
  • Développer des requêtes de type SQL d’extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
  • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l’homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
  • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des données préparées et en programmant leur import afin de stocker le jeu de données du projet.
  • Partager le jeu de données en configurant des interfaces logicielles et en créant des interfaces programmables afin de mettre à disposition le jeu de données pour le développement du projet.
  • Modéliser la structure des données d’un entrepôt de données en s’appuyant sur les dimensions et les faits afin d’optimiser l’organisation des données pour les requêtes analytiques.
  • Créer un entrepôt de données à partir des paramètres du projet, des contraintes techniques et matérielles et de la modélisation de la structure des données afin de soutenir l’analyse de l’activité et l’aide à la décision stratégique de l’organisation
  • Intégrer les ETL nécessaires en entrée et en sortie d’un entrepôt de données afin de garantir la qualité et le bon formatage des données en respectant les modélisations logiques et physiques préalablement établies
  • Gérer l’entrepôt de données à l’aide des outils d’administration et de supervision dans le respect du RGPD, afin de garantir les bons accès, l’intégration des évolutions structurelles et son maintien en condition opérationnelle dans le temps.
  • Implémenter des variations dans les dimensions de l’entrepôt de données en appliquant la méthode adaptée en fonction du type de changement demandé afin d’historiser les évolutions de l’activité de l’organisation et maintenir ainsi une bonne capacité d’analyse.
  • Analyser l'expression d'un besoin de projet data dans une étude de faisabilité en explorant, à l'aune des enjeux stratégiques de l'organisation, le besoin métier avec les parties prenantes pour valider les orientations et sélectionner les hypothèses techniques du projet avec le ou les commanditaire(s).
  • Cartographier les données disponibles en référençant les usages, les sources, les métadonnées et les données afin de valider les hypothèses techniques du projet data.
  • Concevoir un cadre technique d'exploitation des données en analysant les contraintes techniques, de moyens et la cartographie des données afin de définir une réponse technique adaptée aux ressources mobilisables dans le respect du RGPD et d'une démarche éco-responsable.
  • Réaliser une veille technique et réglementaire en sélectionnant des sources et en collectant et traitant les informations collectées afin de formuler des recommandations projet toujours en phase avec l'état de l'art.
  • Planifier la réalisation d'un projet data en attribuant les moyens nécessaires et en définissant les étapes de réalisation et les méthodes de suivi du projet afin de d'organiser sa mise en oeuvre
  • Superviser la réalisation d'un projet data en organisant les méthodes, les outils de travail et la communication entre les parties prenantes, afin d'accompagner les membres de l'équipe dans la réussite du projet
  • Communiquer tout au long de la réalisation du projet data sur les orientations, les réalisations et leurs impacts en élaborant la stratégie et les supports de communication afin d'informer toutes les parties prenantes des évolutions ou des opportunités internes comme externes, portés par le projet.
  • Automatiser l'extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
  • Développer des requêtes de type SQL d'extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
  • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l'homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
  • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des donn

Expert en infrastructures de données massives Data engineer

  • Analyser l’expression d’un besoin de projet data dans une étude de faisabilité en explorant, à l’aune des enjeux stratégiques de l’organisation, le besoin métier avec les parties prenantes pour valider les orientations et sélectionner les hypothèses techniques du projet avec le ou les commanditaire(s).
  • Cartographier les données disponibles en référençant les usages, les sources, les métadonnées et les données afin de valider les hypothèses techniques du projet data.
  • Concevoir un cadre technique d’exploitation des données en analysant les contraintes techniques, de moyens et la cartographie des données afin de définir une réponse technique adaptée aux ressources mobilisables dans le respect du RGPD et d’une démarche éco-responsable.
  • Réaliser une veille technique et réglementaire en sélectionnant des sources et en collectant et traitant les informations collectées afin de formuler des recommandations projet toujours en phase avec l’état de l’art.
  • Planifier la réalisation d’un projet data en attribuant les moyens nécessaires et en définissant les étapes de réalisation et les méthodes de suivi du projet afin de d’organiser sa mise en oeuvre
  • Superviser la réalisation d’un projet data en organisant les méthodes, les outils de travail et la communication entre les parties prenantes, afin d’accompagner les membres de l’équipe dans la réussite du projet
  • Communiquer tout au long de la réalisation du projet data sur les orientations, les réalisations et leurs impacts en élaborant la stratégie et les supports de communication afin d’informer toutes les parties prenantes des évolutions ou des opportunités internes comme externes, portés par le projet.
  • Automatiser l’extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
  • Développer des requêtes de type SQL d’extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
  • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l’homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
  • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des données préparées et en programmant leur import afin de stocker le jeu de données du projet.
  • Partager le jeu de données en configurant des interfaces logicielles et en créant des interfaces programmables afin de mettre à disposition le jeu de données pour le développement du projet.
  • Modéliser la structure des données d’un entrepôt de données en s’appuyant sur les dimensions et les faits afin d’optimiser l’organisation des données pour les requêtes analytiques.
  • Créer un entrepôt de données à partir des paramètres du projet, des contraintes techniques et matérielles et de la modélisation de la structure des données afin de soutenir l’analyse de l’activité et l’aide à la décision stratégique de l’organisation
  • Intégrer les ETL nécessaires en entrée et en sortie d’un entrepôt de données afin de garantir la qualité et le bon formatage des données en respectant les modélisations logiques et physiques préalablement établies
  • Gérer l’entrepôt de données à l’aide des outils d’administration et de supervision dans le respect du RGPD, afin de garantir les bons accès, l’intégration des évolutions structurelles et son maintien en condition opérationnelle dans le temps.
  • Implémenter des variations dans les dimensions de l’entrepôt de données en appliquant la méthode adaptée en fonction du type de changement demandé afin d’historiser les évolutions de l’activité de l’organisation et maintenir ainsi une bonne capacité d’analyse.
  • Analyser l'expression d'un besoin de projet data dans une étude de faisabilité en explorant, à l'aune des enjeux stratégiques de l'organisation, le besoin métier avec les parties prenantes pour valider les orientations et sélectionner les hypothèses techniques du projet avec le ou les commanditaire(s).
  • Cartographier les données disponibles en référençant les usages, les sources, les métadonnées et les données afin de valider les hypothèses techniques du projet data.
  • Concevoir un cadre technique d'exploitation des données en analysant les contraintes techniques, de moyens et la cartographie des données afin de définir une réponse technique adaptée aux ressources mobilisables dans le respect du RGPD et d'une démarche éco-responsable.
  • Réaliser une veille technique et réglementaire en sélectionnant des sources et en collectant et traitant les informations collectées afin de formuler des recommandations projet toujours en phase avec l'état de l'art.
  • Planifier la réalisation d'un projet data en attribuant les moyens nécessaires et en définissant les étapes de réalisation et les méthodes de suivi du projet afin de d'organiser sa mise en oeuvre
  • Superviser la réalisation d'un projet data en organisant les méthodes, les outils de travail et la communication entre les parties prenantes, afin d'accompagner les membres de l'équipe dans la réussite du projet
  • Communiquer tout au long de la réalisation du projet data sur les orientations, les réalisations et leurs impacts en élaborant la stratégie et les supports de communication afin d'informer toutes les parties prenantes des évolutions ou des opportunités internes comme externes, portés par le projet.
  • Automatiser l'extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
  • Développer des requêtes de type SQL d'extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
  • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l'homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
  • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des donn

Simplon Grand Ouest - Nantes

Immeuble Le Newton 50 boulevard Albert Einstein
44300 Nantes

00-00-00-00-00

Du 22/09/2025 au 26/03/2026

  • en centre : 672 heures
  • Durée: 672h de formation sur 18 mois. 

    Rythme: 1 semaine en formation / 3 semaines en entreprise 

  • Temps plein
  • Cours de jour

  • Contrat de professionnalisation

Lieu de la formation

Simplon Grand Ouest - Nantes
Immeuble Le Newton 50 boulevard Albert Einstein 44300 Nantes
00-00-00-00-00
fsoler@simplon.co


  • Pré-requis

    > Niveau d’entrée :
    • Niveau 5 (BTS, Titres ou équivalents)
    > Type de prérequis :
    • Sans pré-requis spécifique
    > Commentaire prérequis :
    • Bac+3 en informatique ou Bac+2 avec 1 an d’expérience professionnelle
    Être inscrit à France Travail,
    Très forte motivation à prouver,
    Représentation claire du métier,
    Bonne expression orale et écrite,
    L'envie de s’engager dans une formation intense
  • Objectif général : Certification

  • Blocs de compétences
    > Piloter la conduite d’un projet data au sein d’une organisation
    • Analyser l’expression d’un besoin de projet data dans une étude de faisabilité en explorant, à l’aune des enjeux stratégiques de l’organisation, le besoin métier avec les parties prenantes pour valider les orientations et sélectionner les hypothèses techniques du projet avec le ou les commanditaire(s). Cartographier les données disponibles en référençant les usages, les sources, les métadonnées et les données afin de valider les hypothèses techniques du projet data. Concevoir un cadre technique d’exploitation des données en analysant les contraintes techniques, de moyens et la cartographie des données afin de définir une réponse technique adaptée aux ressources mobilisables dans le respect du RGPD et d’une démarche éco-responsable. Réaliser une veille technique et réglementaire en sélectionnant des sources et en collectant et traitant les informations collectées afin de formuler des recommandations projet toujours en phase avec l’état de l’art. Planifier la réalisation d’un projet data en attribuant les moyens nécessaires et en définissant les étapes de réalisation et les méthodes de suivi du projet afin de d’organiser sa mise en oeuvre Superviser la réalisation d’un projet data en organisant les méthodes, les outils de travail et la communication entre les parties prenantes, afin d’accompagner les membres de l’équipe dans la réussite du projet Communiquer tout au long de la réalisation du projet data sur les orientations, les réalisations et leurs impacts en élaborant la stratégie et les supports de communication afin d’informer toutes les parties prenantes des évolutions ou des opportunités internes comme externes, portés par le projet.
    • Etude de cas. L’évaluation doit se faire dans le cadre d’une étude de cas réelle ou fictive sur la base de l’expression d’un besoin data, de l’organigramme de l’organisation et des activités métiers associées. Le but de cette étude de cas est de donner à voir à travers les outils que sont les grilles d’entretien, la démarche générale d’analyse de besoin menée par le candidat Livrables : les grilles d’entretien - Évaluation : Correction des grilles et Présentation orale individuelle Mise en situation L’évaluation doit se faire dans un contexte de projet data réel ou fictif d’une organisation et des éléments de preuves de la réalisation du projet. La mise en situation a pour but de confronter le candidat à un besoin data rencontré par une organisation à laquelle il devra répondre dans son intégralité. Selon la situation choisie, cette évaluation pourra intégrer les éléments d'infrastructure technique associés ou se limiter à la dimension de pilotage du projet. Livrable : rapport professionnel individuel - Évaluation : correction du rapport professionnel et soutenance orale individuelle Jeu de rôle “lancement d’un projet data” Le candidat est mis en situation de documenter et d’animer l'introduction de la réunion de lancement d’un projet data réel ou fictif. Le jeu de rôle a pour but de mettre le candidat dans la posture de chef de projet lors d’une étape clé de cette activité. Cette simulation permettra au candidat de présenter les documents ressources pour la coordination de projet, leurs usages, ainsi que de montrer au jury la mise en oeuvre du travail de collaboration et de communication (interne et externe). Livrables : le support de la présentation et les documents associés (par exemple : avant-projet, feuille de route, calendrier, stratégie de communication) Évaluation : correction des livrables et jeu de rôle, simulation de l’introduction de la réunion de lancement.
    > Réaliser la collecte, le stockage et la mise à disposition des données d’un projet data au sein d’une organisation
    • Automatiser l’extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet. Développer des requêtes de type SQL d’extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet. Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l’homogénéisation des formats des données afin de préparer le stockage du jeu de données final. Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des données préparées et en programmant leur import afin de stocker le jeu de données du projet. Partager le jeu de données en configurant des interfaces logicielles et en créant des interfaces programmables afin de mettre à disposition le jeu de données pour le développement du projet.
    • Mise en situation L’évaluation doit se faire dans un contexte de réalisation d’un service numérique réel ou fictif basé sur l’usage de données, à partir du cadrage pour la réalisation d’un service numérique (spécifications fonctionnelles et techniques par exemple). Le projet évalué a pour but d’optimiser, d’automatiser, de pérenniser et de mettre à disposition les flux de données et les données, utiles et nécessaires à la réalisation du service numérique, par les équipes techniques (par exemple en analyse statistique, en business intelligence, en machine learning ou encore en intelligence artificielle). Livrable : rapport professionnel individuel - Évaluation : correction du rapport professionnel et soutenance orale individuelle
    > Elaborer et maintenir un entrepôt de données (data warehouse)
    • Modéliser la structure des données d’un entrepôt de données en s’appuyant sur les dimensions et les faits afin d’optimiser l’organisation des données pour les requêtes analytiques. Créer un entrepôt de données à partir des paramètres du projet, des contraintes techniques et matérielles et de la modélisation de la structure des données afin de soutenir l’analyse de l’activité et l’aide à la décision stratégique de l’organisation. Intégrer les ETL nécessaires en entrée et en sortie d’un entrepôt de données afin de garantir la qualité et le bon formatage des données en respectant les modélisations logiques et physiques préalablement établies. Gérer l’entrepôt de données à l’aide des outils d’administration et de supervision dans le respect du RGPD, afin de garantir les bons accès, l’intégration des évolutions structurelles et son maintien en condition opérationnelle dans le temps. Implémenter des variations dans les dimensions de l’entrepôt de données en appliquant la méthode adaptée en fonction du type de changement demandé afin d’historiser les évolutions de l’activité de l’organisation et maintenir ainsi une bonne capacité d’analyse.
    • Mise en situation L’évaluation doit se faire dans un contexte de réalisation d’un projet fictif ou d’un projet professionnel réalisé en poste. Le projet évalué s’appuie sur le cadre technique de l’organisation et sur le cadre d’exploitation des données. Le projet a pour but de couvrir toutes les étapes de mise en place d’un entrepôt de données, de sa modélisation à son usage fonctionnel (réponse au besoin d’analyse). Livrable : rapport professionnel individuel - Évaluation : correction du rapport professionnel et soutenance orale individuelle Etude de cas L’évaluation doit se faire dans le cadre d’une situation professionnelle fictive réalisée durant le parcours de formation, à partir d’un entrepôt de données en place et d’un besoin d’évolution de celui-ci (technique, évolution dans le schéma des données sources etc.) en environnement de test. Le projet évalué s’appuie sur le cadre technique de l’organisation et sur le cadre d’exploitation des données. Lors de cette étude de cas, le candidat rend compte de sa capacité à maintenir un entrepôt de données en conditions opérationnelles, qu'il s'agisse aussi bien d'évolutions techniques que d’évolutions du besoin d’analyse. Livrable : rapport professionnel individuel - Évaluation : correction du rapport professionnel et échanges de questions réponses individuel
    > Encadrer la collecte massive et la mise à disposition des données issues de l’activité de l’organisation grâce à un data lake
    • Concevoir l'architecture du data lake en sélectionnant les technologies appropriées en fonction de la volumétrie, de la variété et de la vitesse des données dans le but de définir l’architecture technique optimale à intégrer. Intégrer les différents composants d'infrastructure du data lake en appliquant la procédure adaptée, afin d’assurer l’acquisition, le stockage et la mise à disposition du catalogue de données Gérer le catalogue des données en tenant compte de leur nature, de leurs sources d’alimentation et de leur cycle de vie, dans le respect du RGPD, afin de garantir les fonctionnalités du service. Implémenter les règles de gouvernance des données en sécurisant la recherche, la récupération et l’ajout de données afin de respecter les règles de gouvernance des données de l’organisation, dans le cadre du déploiement de la politique de protection des données.
    • Mise en situation L’évaluation doit se faire dans un contexte de réalisation d’un projet fictif proposé par l’équipe pédagogique ou d’un projet professionnel réalisé en poste. Le projet évalué s’appuie sur le cadre technique de l’organisation et sur le cadre d’exploitation des données. Le projet a pour but de couvrir toutes les étapes de mise en conditions opérationnelles d’un data lake* de son architecture à la gestion de tous les outils permettant son usage. Livrable : rapport professionnel individuel - Évaluation : correction du rapport professionnel et soutenance orale individuelle
  • Objectifs et Programme

    • Analyser l’expression d’un besoin de projet data dans une étude de faisabilité en explorant, à l’aune des enjeux stratégiques de l’organisation, le besoin métier avec les parties prenantes pour valider les orientations et sélectionner les hypothèses techniques du projet avec le ou les commanditaire(s).
    • Cartographier les données disponibles en référençant les usages, les sources, les métadonnées et les données afin de valider les hypothèses techniques du projet data.
    • Concevoir un cadre technique d’exploitation des données en analysant les contraintes techniques, de moyens et la cartographie des données afin de définir une réponse technique adaptée aux ressources mobilisables dans le respect du RGPD et d’une démarche éco-responsable.
    • Réaliser une veille technique et réglementaire en sélectionnant des sources et en collectant et traitant les informations collectées afin de formuler des recommandations projet toujours en phase avec l’état de l’art.
    • Planifier la réalisation d’un projet data en attribuant les moyens nécessaires et en définissant les étapes de réalisation et les méthodes de suivi du projet afin de d’organiser sa mise en oeuvre
    • Superviser la réalisation d’un projet data en organisant les méthodes, les outils de travail et la communication entre les parties prenantes, afin d’accompagner les membres de l’équipe dans la réussite du projet
    • Communiquer tout au long de la réalisation du projet data sur les orientations, les réalisations et leurs impacts en élaborant la stratégie et les supports de communication afin d’informer toutes les parties prenantes des évolutions ou des opportunités internes comme externes, portés par le projet.
    • Automatiser l’extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
    • Développer des requêtes de type SQL d’extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
    • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l’homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
    • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des données préparées et en programmant leur import afin de stocker le jeu de données du projet.
    • Partager le jeu de données en configurant des interfaces logicielles et en créant des interfaces programmables afin de mettre à disposition le jeu de données pour le développement du projet.
    • Modéliser la structure des données d’un entrepôt de données en s’appuyant sur les dimensions et les faits afin d’optimiser l’organisation des données pour les requêtes analytiques.
    • Créer un entrepôt de données à partir des paramètres du projet, des contraintes techniques et matérielles et de la modélisation de la structure des données afin de soutenir l’analyse de l’activité et l’aide à la décision stratégique de l’organisation
    • Intégrer les ETL nécessaires en entrée et en sortie d’un entrepôt de données afin de garantir la qualité et le bon formatage des données en respectant les modélisations logiques et physiques préalablement établies
    • Gérer l’entrepôt de données à l’aide des outils d’administration et de supervision dans le respect du RGPD, afin de garantir les bons accès, l’intégration des évolutions structurelles et son maintien en condition opérationnelle dans le temps.
    • Implémenter des variations dans les dimensions de l’entrepôt de données en appliquant la méthode adaptée en fonction du type de changement demandé afin d’historiser les évolutions de l’activité de l’organisation et maintenir ainsi une bonne capacité d’analyse.

    Précisions de l’organisme de formation :

    • Analyser l'expression d'un besoin de projet data dans une étude de faisabilité en explorant, à l'aune des enjeux stratégiques de l'organisation, le besoin métier avec les parties prenantes pour valider les orientations et sélectionner les hypothèses techniques du projet avec le ou les commanditaire(s).
    • Cartographier les données disponibles en référençant les usages, les sources, les métadonnées et les données afin de valider les hypothèses techniques du projet data.
    • Concevoir un cadre technique d'exploitation des données en analysant les contraintes techniques, de moyens et la cartographie des données afin de définir une réponse technique adaptée aux ressources mobilisables dans le respect du RGPD et d'une démarche éco-responsable.
    • Réaliser une veille technique et réglementaire en sélectionnant des sources et en collectant et traitant les informations collectées afin de formuler des recommandations projet toujours en phase avec l'état de l'art.
    • Planifier la réalisation d'un projet data en attribuant les moyens nécessaires et en définissant les étapes de réalisation et les méthodes de suivi du projet afin de d'organiser sa mise en oeuvre
    • Superviser la réalisation d'un projet data en organisant les méthodes, les outils de travail et la communication entre les parties prenantes, afin d'accompagner les membres de l'équipe dans la réussite du projet
    • Communiquer tout au long de la réalisation du projet data sur les orientations, les réalisations et leurs impacts en élaborant la stratégie et les supports de communication afin d'informer toutes les parties prenantes des évolutions ou des opportunités internes comme externes, portés par le projet.
    • Automatiser l'extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
    • Développer des requêtes de type SQL d'extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
    • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l'homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
    • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des donn
    Introduction à la formation
    Découvrir le métier de Data Engineer.
    Essayer la pédagogie active de Simplon.
    Apprendre les bases du développement et de l'algorithme.
    Rencontrer les autres personnes de la promotion.
    Comprendre les compétences à acquérir et les critères pour obtenir la certification finale

    Pendant la formation :
    Apprendre des langages de programmation comme Python, Java, ou Scala.
    Utiliser des outils Big Data comme Hadoop, Spark, et SQL.
    Apprendre sur l'architecture distribuée et le cloud computing.

    Phase 1 - Travailler sur des bases de données
    Créer et gérer des bases de données pour répondre à des besoins simples.
    Participer à la gestion d'un projet data.
    Contribuer à la conception et création de bases de données.
    Automatiser l'entrée de données dans les bases de données.
    Phase 2 - Évolution d'un data warehouse
    Travailler sur l'entrepôt de données de l'entreprise.
    Automatiser et standardiser les traitements de données. 
    Connaître les structures de données en faits et dimensions du data warehouse.
    Tester l'entrepôt de données en environnement de développement/test.
    Intégrer de nouvelles sources de données en ajustant les scripts.
    Phase 3 - Évolution d'un data lake
    Travailler sur le datalake, qui stocke les données brutes. 
    Adapter les procédures de collecte automatique de données.
    Travailler sur les outils de catalogage de données.
    Configurer les droits d'accès.
    Phase 4 - Bases de données pour les équipes d'analyse
    Créer une base de données pour répondre à un besoin métier. 
    Identifier les données sources pertinentes.
    Concevoir une base de données cible.
    Automatiser l'import des données depuis différentes sources.
    Développer des points de terminaison d'API et des règles d'autorisation.
    Phase 5 - Création d'un data warehouse
    Créer un entrepôt de données pour différents usages data. 
    Cartographier les données collectées par l'entreprise.
    Structurer l'entrepôt de données selon les cas d'usage.
    Choisir les outils de stockage et d'import.
    Maintenir les composants techniques en état de fonctionnement.
    Phase 6 - Création d'un datalake
    Mettre en place l'architecture et la structure d'un datalake. 
    Concevoir l'architecture du datalake.
    Intégrer les composants d'infrastructure.
    Mettre en place un catalogue de données.
    Implémenter des règles de gouvernance des données.
    Phase 7 - Missions d'étude, conseil, et intégration
    Piloter un projet

  • Résultats attendus

    Titre Professionnel : Expert en infrastructures de données massives 

  • Organisation pédagogique

    > Modalité d'enseignement :
    • Formation entièrement présentielle
  • En savoir plus

  • Des liens avec les métiers accessibles avec cette formation
Source : Cariforef des Pays de la Loire - 248496 - Code établissement : 56632

La session est déclarée fermée.

N’hésitez pas, néanmoins, à prendre contact avec l’organisme de formation. Des places se sont peut-être libérées ou de nouvelles sessions programmées prochainement.

Pour vous aider dans votre recherche, des chargé.e.s d'information sont à votre disposition.
appeler
• Métiers
• aides et financements
• Formations
• Lieux et outils d'information
Contactez-nous par mail, nous répondons à vos questions sur :
• les métiers • les aides et les financements • les formations • les lieux et les outils d'information
" Pour vous aider dans votre recherche, des chargé.e.s d'information sont à votre disposition "
* Champ obligatoire
RAPPEL GRATUIT
du lundi au jeudi de 9h à 12h30 / 13h30 à 17h et le vendredi de 9h à 12h30

Nos chargé.e.s d'information répondent à toutes vos questions.
Nous vous rappelons au moment qui vous arrange.

"Quand souhaitez-vous être rappelé ?"
Nos chargé.e.s d'information répondent à vos questions.