Aller au menu Aller au contenu Aller à la page d'accessibilité
masquer

CONTACTER
UN CONSEILLER

fleche

Je consulte ma fiche formation en Pays de la Loire.

Développeur en intelligence artificielle

Le Wagon

Mon plus formation

   

Descriptif de la formation

  • Automatiser l’extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
  • Développer des requêtes de type SQL d’extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
  • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l’homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
  • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des données préparées et en programmant leur import afin de stocker le jeu de données du projet.
  • Développer une API mettant à disposition le jeu de données en utilisant l’architecture REST afin de permettre l’exploitation du jeu de données par les autres composants du projet.
  • Organiser et réaliser une veille technique et réglementaire en animant le travail collectif de sélection des sources, de collecte, de traitement et de partage des informations afin de formuler des recommandations pour le projet toujours en phase avec l’état de l’art.
  • Identifier des services d’intelligence artificielle préexistants à partir de l’expression de besoin en fonctionnalités d’intelligence artificielle, en réalisant un benchmark de services existants et en analysant leurs caractéristiques pour formaliser une ou plusieurs recommandations de services adaptés au besoin.
  • Paramétrer un service d’intelligence artificielle en suivant sa documentation technique et en respectant les spécifications du projet, afin de permettre l’intégration des connecteurs du service dans le système d’information.
  • Développer une API exposant un modèle d’intelligence artificielle en utilisant l’architecture REST pour permettre l’interaction entre le modèle et les autres composants du projet.
  • Intégrer l’API d’un modèle ou d’un service d’intelligence artificielle dans une application, en respectant les spécifications du projet et les normes d’accessibilité en vigueur, à l’aide de la documentation technique de l’API, afin de créer les fonctionnalités d’intelligence artificielle de l’application.
  • Monitorer un modèle d’intelligence artificielle à partir des métriques courantes et spécifiques au projet, en intégrant les outils de collecte, d’alerte et de restitution des données du monitorage pour permettre l’amélioration du modèle de façon itérative.
  • Programmer les tests automatisés d’un modèle d’intelligence artificielle en définissant les règles de validation des jeux de données, des étapes de préparation des données, d'entraînement, d’évaluation et de validation du modèle pour permettre son intégration en continu et garantir un niveau de qualité élevé.
  • Créer une chaîne de livraison continue d’un modèle d’intelligence artificielle en installant les outils et en appliquant les configuration souhaitées, dans le respect du cadre imposé par le projet et dans une approche MLOps*, pour automatiser les étapes de validation, de test, de packaging et de déploiement du modèle.
  • Analyser le besoin d’application d’un commanditaire intégrant un service d'intelligence artificielle, en rédigeant les spécifications fonctionnelles et en le modélisant, dans le respect des standards d’utilisabilité et d’accessibilité, afin d’établir avec précision les objectifs de développement correspondant au besoin et à la faisabilité technique.
  • Concevoir le cadre technique d’une application intégrant un service d’intelligence artificielle, à partir de l'analyse du besoin, en spécifiant l’architecture technique et applicative et en préconisant les outils et méthodes de développement, pour permettre le développement du projet.
  • Coordonner la réalisation technique d’une application d’intelligence artificielle en s’intégrant dans une conduite agile de projet et un contexte MLOps et en facilitant les temps de collaboration dans le but d’atteindre les objectifs de production et de qualité.
  • Développer les composants techniques et les interfaces d’une application en utilisant les outils et langages de programmation adaptés et en respectant les spécifications fonctionnelles et techniques, les standards et normes d’accessibilité, de sécurité et de gestion des données en vigueur dans le but de répondre aux besoins fonctionnels identifiés.
  • Automatiser les phases de tests du code source lors du versionnement des sources à l’aide d’un outil d’intégration continue de manière à garantir la qualité technique des réalisations.
  • Créer un processus de livraison continue d’une application en s’appuyant sur une chaîne d’intégration continue et en paramétrant les outils d’automatisation et les environnements de test afin de permettre une restitution optimale de l’application.
  • Surveiller une application d’intelligence artificielle, en mobilisant des techniques de monitorage et de journalisation, dans le respect des normes de gestion des données personnelles en vigueur, afin d’alimenter la feedback loop dans une approche MLOps, et de permettre la détection automatique d’incidents.
  • Résoudre les incidents techniques en apportant les modifications nécessaires au code de l’application et en documentant les solutions pour en garantir le fonctionnement opérationnel.
La formation s'articule sur 5 parties : Partie I : Maîtrisez le data sourcing : Comprenez les KPIs des entreprises, collectez des données depuis différentes sources pour mener des analyses les plus emblématiques Analysez avec Google Sheets : Découvrez les analyse produit, sales, marketing et finance. Dashboard Google Sheets : Construisez des dashboard automatisés avec Google Sheets. Partie II : Apprenez à extraire et transformer la data via des API, des outils d'automatisation ou du tracking sur Google Tag Manager. Maîtrisez SQL et construisez des data warehouse structurés avec les techniques de software engineering. Apprenez l'extraction et le nettoyage automatique de données : Comprenez le fonctionnement des APIs avec Postman et automatisez des process avec les outils phares comme Zapier & n8n. Vous utiliserez Fivetran, le leader mondial des ELT et la nouvelle version de Google Analytics, GA 4. Maîtrisez le langage des data analysts : Apprenez toutes les techniques pour centraliser et transformer vos données dans un data warehouse. Réalisez des dashboards efficaces et menez des analyses poussées pour les équipes métiers. Apprenez à utiliser les requêtes SQL Partie III : Business Intelligence et data visualization : Communiquez clairement vos résultats en utilisant les bonnes visualisations et en créant des tableaux de bord automatisés sur des millions de données avec les outils de BI les plus utilisés. Apprenez la data visualization : apprenez à construire les graphiques et les tableaux de bord les plus clairs et les plus interactifs possibles pour vos équipes. Faites ressortir des insights de vos données en adoptant la bonne méthodologie d'analyse. Partie IV : Python pour l'analyse et la prédiction : Exécutez des analyses sur de gros jeux de données grâce à Python et Jupiter notebook. Collaborez mieux avec les équipes data scientists et engineers : Découvrez le format Jupiter Notebook et gérer vos environnements sur Jupyterhub. Apprenez à manipuler les données : Créer des clusters à partir de vos données, automatiser l'exécution de vos scripts avec Airflow et apprenez à prédire le futur avec les librairies Python sklearn, prophet. Partie V : Projets et Career Week : Réalisez un projet d'analyse de données de A à Z. Projet de fin : Réalisez un projet d'analyse de données de A à Z sur les vraies données de nos partenaires. Apprenez à bien poser le problème, à identifier, extraire, centraliser et traiter vos données. Menez vos analyses et créez des dashboard automatisés qui apporteront de la valeur. Career Week : Rencontrez des data analysts en startup, préparez votre CV et réalisez des entretiens blancs pour préparer votre recherche d'emploi. Allez plus en profondeur sur des sujets data essentiels: RGPD, l'organisation d'équipes data analysts en entreprise  

Développeur en intelligence artificielle

  • Automatiser l’extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
  • Développer des requêtes de type SQL d’extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
  • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l’homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
  • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des données préparées et en programmant leur import afin de stocker le jeu de données du projet.
  • Développer une API mettant à disposition le jeu de données en utilisant l’architecture REST afin de permettre l’exploitation du jeu de données par les autres composants du projet.
  • Organiser et réaliser une veille technique et réglementaire en animant le travail collectif de sélection des sources, de collecte, de traitement et de partage des informations afin de formuler des recommandations pour le projet toujours en phase avec l’état de l’art.
  • Identifier des services d’intelligence artificielle préexistants à partir de l’expression de besoin en fonctionnalités d’intelligence artificielle, en réalisant un benchmark de services existants et en analysant leurs caractéristiques pour formaliser une ou plusieurs recommandations de services adaptés au besoin.
  • Paramétrer un service d’intelligence artificielle en suivant sa documentation technique et en respectant les spécifications du projet, afin de permettre l’intégration des connecteurs du service dans le système d’information.
  • Développer une API exposant un modèle d’intelligence artificielle en utilisant l’architecture REST pour permettre l’interaction entre le modèle et les autres composants du projet.
  • Intégrer l’API d’un modèle ou d’un service d’intelligence artificielle dans une application, en respectant les spécifications du projet et les normes d’accessibilité en vigueur, à l’aide de la documentation technique de l’API, afin de créer les fonctionnalités d’intelligence artificielle de l’application.
  • Monitorer un modèle d’intelligence artificielle à partir des métriques courantes et spécifiques au projet, en intégrant les outils de collecte, d’alerte et de restitution des données du monitorage pour permettre l’amélioration du modèle de façon itérative.
  • Programmer les tests automatisés d’un modèle d’intelligence artificielle en définissant les règles de validation des jeux de données, des étapes de préparation des données, d'entraînement, d’évaluation et de validation du modèle pour permettre son intégration en continu et garantir un niveau de qualité élevé.
  • Créer une chaîne de livraison continue d’un modèle d’intelligence artificielle en installant les outils et en appliquant les configuration souhaitées, dans le respect du cadre imposé par le projet et dans une approche MLOps*, pour automatiser les étapes de validation, de test, de packaging et de déploiement du modèle.
  • Analyser le besoin d’application d’un commanditaire intégrant un service d'intelligence artificielle, en rédigeant les spécifications fonctionnelles et en le modélisant, dans le respect des standards d’utilisabilité et d’accessibilité, afin d’établir avec précision les objectifs de développement correspondant au besoin et à la faisabilité technique.
  • Concevoir le cadre technique d’une application intégrant un service d’intelligence artificielle, à partir de l'analyse du besoin, en spécifiant l’architecture technique et applicative et en préconisant les outils et méthodes de développement, pour permettre le développement du projet.
  • Coordonner la réalisation technique d’une application d’intelligence artificielle en s’intégrant dans une conduite agile de projet et un contexte MLOps et en facilitant les temps de collaboration dans le but d’atteindre les objectifs de production et de qualité.
  • Développer les composants techniques et les interfaces d’une application en utilisant les outils et langages de programmation adaptés et en respectant les spécifications fonctionnelles et techniques, les standards et normes d’accessibilité, de sécurité et de gestion des données en vigueur dans le but de répondre aux besoins fonctionnels identifiés.
  • Automatiser les phases de tests du code source lors du versionnement des sources à l’aide d’un outil d’intégration continue de manière à garantir la qualité technique des réalisations.
  • Créer un processus de livraison continue d’une application en s’appuyant sur une chaîne d’intégration continue et en paramétrant les outils d’automatisation et les environnements de test afin de permettre une restitution optimale de l’application.
  • Surveiller une application d’intelligence artificielle, en mobilisant des techniques de monitorage et de journalisation, dans le respect des normes de gestion des données personnelles en vigueur, afin d’alimenter la feedback loop dans une approche MLOps, et de permettre la détection automatique d’incidents.
  • Résoudre les incidents techniques en apportant les modifications nécessaires au code de l’application et en documentant les solutions pour en garantir le fonctionnement opérationnel.
La formation s'articule sur 5 parties : Partie I : Maîtrisez le data sourcing : Comprenez les KPIs des entreprises, collectez des données depuis différentes sources pour mener des analyses les plus emblématiques Analysez avec Google Sheets : Découvrez les analyse produit, sales, marketing et finance. Dashboard Google Sheets : Construisez des dashboard automatisés avec Google Sheets. Partie II : Apprenez à extraire et transformer la data via des API, des outils d'automatisation ou du tracking sur Google Tag Manager. Maîtrisez SQL et construisez des data warehouse structurés avec les techniques de software engineering. Apprenez l'extraction et le nettoyage automatique de données : Comprenez le fonctionnement des APIs avec Postman et automatisez des process avec les outils phares comme Zapier & n8n. Vous utiliserez Fivetran, le leader mondial des ELT et la nouvelle version de Google Analytics, GA 4. Maîtrisez le langage des data analysts : Apprenez toutes les techniques pour centraliser et transformer vos données dans un data warehouse. Réalisez des dashboards efficaces et menez des analyses poussées pour les équipes métiers. Apprenez à utiliser les requêtes SQL Partie III : Business Intelligence et data visualization : Communiquez clairement vos résultats en utilisant les bonnes visualisations et en créant des tableaux de bord automatisés sur des millions de données avec les outils de BI les plus utilisés. Apprenez la data visualization : apprenez à construire les graphiques et les tableaux de bord les plus clairs et les plus interactifs possibles pour vos équipes. Faites ressortir des insights de vos données en adoptant la bonne méthodologie d'analyse. Partie IV : Python pour l'analyse et la prédiction : Exécutez des analyses sur de gros jeux de données grâce à Python et Jupiter notebook. Collaborez mieux avec les équipes data scientists et engineers : Découvrez le format Jupiter Notebook et gérer vos environnements sur Jupyterhub. Apprenez à manipuler les données : Créer des clusters à partir de vos données, automatiser l'exécution de vos scripts avec Airflow et apprenez à prédire le futur avec les librairies Python sklearn, prophet. Partie V : Projets et Career Week : Réalisez un projet d'analyse de données de A à Z. Projet de fin : Réalisez un projet d'analyse de données de A à Z sur les vraies données de nos partenaires. Apprenez à bien poser le problème, à identifier, extraire, centraliser et traiter vos données. Menez vos analyses et créez des dashboard automatisés qui apporteront de la valeur. Career Week : Rencontrez des data analysts en startup, préparez votre CV et réalisez des entretiens blancs pour préparer votre recherche d'emploi. Allez plus en profondeur sur des sujets data essentiels: RGPD, l'organisation d'équipes data analysts en entreprise  

Le Wagon

10 Passage de la Poule Noire
44000 Nantes

07-56-79-80-80

Du 15/01/2024 au 15/03/2024

  • en centre : 360 heures
  •  

     
     
     
  • Temps plein
  • Cours de jour

  • Formation adulte

Lieu de la formation

Le Wagon
10 Passage de la Poule Noire 44000 Nantes
07-56-79-80-80
france-fundings@lewagon.org


  • Pré-requis

    > Niveau d’entrée :
    • Sans niveau spécifique
    > Type de prérequis :
    • Sans pré-requis spécifique
    > Commentaire prérequis :
    • Nous vous invitons à postuler directement sur la page prévue à cet effet. Vous recevrez un email avec quelques questions supplémentaires ainsi qu'une invitation à prendre rendez-vous avec l'un des membres de notre équipe pour un entretien de motivation. Dans le même temps, nous vous demandons également de compléter dès que possible la track Ruby sur Codecademy. Une fois ces deux conditions obligatoires remplies, vous recevrez une réponse de notre part sous 3 ou 4 jours  
  • Objectif général : Certification

  • Blocs de compétences
    > Réaliser la collecte, le stockage et la mise à disposition des données d’un projet en intelligence artificielle
    • Automatiser l’extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet. Développer des requêtes de type SQL d’extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet. Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l’homogénéisation des formats des données afin de préparer le stockage du jeu de données final. Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des données préparées et en programmant leur import afin de stocker le jeu de données du projet. Développer une API mettant à disposition le jeu de données en utilisant l’architecture REST afin de permettre l’exploitation du jeu de données par les autres composants du projet.
    • Mise en situation L’évaluation doit se faire dans un contexte de réalisation d’un service numérique réel ou fictif basé sur l’usage de données, à partir du cadrage pour la réalisation d’un service numérique (spécifications fonctionnelles et techniques par exemple). Le projet évalué a pour but d’optimiser, d’automatiser, de pérenniser et de mettre à disposition les flux de données et les données, utiles et nécessaires à la réalisation du service numérique, par les équipes techniques (par exemple en analyse statistique, en business intelligence, en machine learning ou encore en intelligence artificielle). Livrable : rapport professionnel individuel Évaluation basée sur la correction du rapport professionnel et une soutenance orale individuelle
  • Objectifs et Programme

    • Automatiser l’extraction de données depuis un service web, une page web (scraping), un fichier de données, une base de données et un système big data en programmant le script adapté afin de pérenniser la collecte des données nécessaires au projet.
    • Développer des requêtes de type SQL d’extraction des données depuis un système de gestion de base de données et un système big data en appliquant le langage de requête propre au système afin de préparer la collecte des données nécessaires au projet.
    • Développer des règles d'agrégation de données issues de différentes sources en programmant, sous forme de script, la suppression des entrées corrompues et en programmant l’homogénéisation des formats des données afin de préparer le stockage du jeu de données final.
    • Créer une base de données dans le respect du RGPD en élaborant les modèles conceptuels et physiques des données à partir des données préparées et en programmant leur import afin de stocker le jeu de données du projet.
    • Développer une API mettant à disposition le jeu de données en utilisant l’architecture REST afin de permettre l’exploitation du jeu de données par les autres composants du projet.
    • Organiser et réaliser une veille technique et réglementaire en animant le travail collectif de sélection des sources, de collecte, de traitement et de partage des informations afin de formuler des recommandations pour le projet toujours en phase avec l’état de l’art.
    • Identifier des services d’intelligence artificielle préexistants à partir de l’expression de besoin en fonctionnalités d’intelligence artificielle, en réalisant un benchmark de services existants et en analysant leurs caractéristiques pour formaliser une ou plusieurs recommandations de services adaptés au besoin.
    • Paramétrer un service d’intelligence artificielle en suivant sa documentation technique et en respectant les spécifications du projet, afin de permettre l’intégration des connecteurs du service dans le système d’information.
    • Développer une API exposant un modèle d’intelligence artificielle en utilisant l’architecture REST pour permettre l’interaction entre le modèle et les autres composants du projet.
    • Intégrer l’API d’un modèle ou d’un service d’intelligence artificielle dans une application, en respectant les spécifications du projet et les normes d’accessibilité en vigueur, à l’aide de la documentation technique de l’API, afin de créer les fonctionnalités d’intelligence artificielle de l’application.
    • Monitorer un modèle d’intelligence artificielle à partir des métriques courantes et spécifiques au projet, en intégrant les outils de collecte, d’alerte et de restitution des données du monitorage pour permettre l’amélioration du modèle de façon itérative.
    • Programmer les tests automatisés d’un modèle d’intelligence artificielle en définissant les règles de validation des jeux de données, des étapes de préparation des données, d'entraînement, d’évaluation et de validation du modèle pour permettre son intégration en continu et garantir un niveau de qualité élevé.
    • Créer une chaîne de livraison continue d’un modèle d’intelligence artificielle en installant les outils et en appliquant les configuration souhaitées, dans le respect du cadre imposé par le projet et dans une approche MLOps*, pour automatiser les étapes de validation, de test, de packaging et de déploiement du modèle.
    • Analyser le besoin d’application d’un commanditaire intégrant un service d'intelligence artificielle, en rédigeant les spécifications fonctionnelles et en le modélisant, dans le respect des standards d’utilisabilité et d’accessibilité, afin d’établir avec précision les objectifs de développement correspondant au besoin et à la faisabilité technique.
    • Concevoir le cadre technique d’une application intégrant un service d’intelligence artificielle, à partir de l'analyse du besoin, en spécifiant l’architecture technique et applicative et en préconisant les outils et méthodes de développement, pour permettre le développement du projet.
    • Coordonner la réalisation technique d’une application d’intelligence artificielle en s’intégrant dans une conduite agile de projet et un contexte MLOps et en facilitant les temps de collaboration dans le but d’atteindre les objectifs de production et de qualité.
    • Développer les composants techniques et les interfaces d’une application en utilisant les outils et langages de programmation adaptés et en respectant les spécifications fonctionnelles et techniques, les standards et normes d’accessibilité, de sécurité et de gestion des données en vigueur dans le but de répondre aux besoins fonctionnels identifiés.
    • Automatiser les phases de tests du code source lors du versionnement des sources à l’aide d’un outil d’intégration continue de manière à garantir la qualité technique des réalisations.
    • Créer un processus de livraison continue d’une application en s’appuyant sur une chaîne d’intégration continue et en paramétrant les outils d’automatisation et les environnements de test afin de permettre une restitution optimale de l’application.
    • Surveiller une application d’intelligence artificielle, en mobilisant des techniques de monitorage et de journalisation, dans le respect des normes de gestion des données personnelles en vigueur, afin d’alimenter la feedback loop dans une approche MLOps, et de permettre la détection automatique d’incidents.
    • Résoudre les incidents techniques en apportant les modifications nécessaires au code de l’application et en documentant les solutions pour en garantir le fonctionnement opérationnel.

    Précisions de l’organisme de formation :

    La formation s'articule sur 5 parties : Partie I : Maîtrisez le data sourcing : Comprenez les KPIs des entreprises, collectez des données depuis différentes sources pour mener des analyses les plus emblématiques Analysez avec Google Sheets : Découvrez les analyse produit, sales, marketing et finance. Dashboard Google Sheets : Construisez des dashboard automatisés avec Google Sheets. Partie II : Apprenez à extraire et transformer la data via des API, des outils d'automatisation ou du tracking sur Google Tag Manager. Maîtrisez SQL et construisez des data warehouse structurés avec les techniques de software engineering. Apprenez l'extraction et le nettoyage automatique de données : Comprenez le fonctionnement des APIs avec Postman et automatisez des process avec les outils phares comme Zapier & n8n. Vous utiliserez Fivetran, le leader mondial des ELT et la nouvelle version de Google Analytics, GA 4. Maîtrisez le langage des data analysts : Apprenez toutes les techniques pour centraliser et transformer vos données dans un data warehouse. Réalisez des dashboards efficaces et menez des analyses poussées pour les équipes métiers. Apprenez à utiliser les requêtes SQL Partie III : Business Intelligence et data visualization : Communiquez clairement vos résultats en utilisant les bonnes visualisations et en créant des tableaux de bord automatisés sur des millions de données avec les outils de BI les plus utilisés. Apprenez la data visualization : apprenez à construire les graphiques et les tableaux de bord les plus clairs et les plus interactifs possibles pour vos équipes. Faites ressortir des insights de vos données en adoptant la bonne méthodologie d'analyse. Partie IV : Python pour l'analyse et la prédiction : Exécutez des analyses sur de gros jeux de données grâce à Python et Jupiter notebook. Collaborez mieux avec les équipes data scientists et engineers : Découvrez le format Jupiter Notebook et gérer vos environnements sur Jupyterhub. Apprenez à manipuler les données : Créer des clusters à partir de vos données, automatiser l'exécution de vos scripts avec Airflow et apprenez à prédire le futur avec les librairies Python sklearn, prophet. Partie V : Projets et Career Week : Réalisez un projet d'analyse de données de A à Z. Projet de fin : Réalisez un projet d'analyse de données de A à Z sur les vraies données de nos partenaires. Apprenez à bien poser le problème, à identifier, extraire, centraliser et traiter vos données. Menez vos analyses et créez des dashboard automatisés qui apporteront de la valeur. Career Week : Rencontrez des data analysts en startup, préparez votre CV et réalisez des entretiens blancs pour préparer votre recherche d'emploi. Allez plus en profondeur sur des sujets data essentiels: RGPD, l'organisation d'équipes data analysts en entreprise     Le Wagon Nantes - Développeur en intelligence artificielle - Data Analytics

  • Résultats attendus

    Que serais-je capable de faire au bout des 9 semaines ?

    • Maîtrisez le data sourcing

    Comprenez les KPIs des entreprises, collectez des données depuis différentes sources pour mener des analyses classiques (churn, funnel, CAC, AB test, time to convert, etc.)

    • Apprenez à extraire et transformer la data

    Apprenez à extraire des données via des API, des outils d'automatisation ou du tracking produit sur GTM. Maîtrisez SQL et construisez des Data Warehouses propres avec des techniques classiques (data layers)

    • Business Intelligence et Data Visualization

    Communiquez clairement vos résultats, en utilisant les bonnes visualisations et en créant des tableaux de bord automatisés, avec les outils de BI les plus utilisés.

    • Python pour l’analyse et la prédiction

    Exécutez des analyses sur de gros jeux de données, grâce à Python et Jupiter Notebook. Apprenez les bases du Machine Learning en Python, pour collaborer avec des Data Scientists ou des ingénieurs en Machine Learning.

     

  • Organisation pédagogique

    > Modalité d'enseignement :
    • Formation entièrement présentielle
  • En savoir plus

  • Des liens avec les métiers accessibles avec cette formation
Source : Cariforef des Pays de la Loire - 207367 - Code établissement : 57586

La session est déclarée fermée.

N’hésitez pas, néanmoins, à prendre contact avec l’organisme de formation. Des places se sont peut-être libérées ou de nouvelles sessions programmées prochainement.

Pour vous aider dans votre recherche, des chargé.e.s d'information sont à votre disposition.
appeler
• Métiers
• aides et financements
• Formations
• Lieux et outils d'information
Contactez-nous par mail, nous répondons à vos questions sur :
• les métiers • les aides et les financements • les formations • les lieux et les outils d'information
" Pour vous aider dans votre recherche, des chargé.e.s d'information sont à votre disposition "
* Champ obligatoire
RAPPEL GRATUIT
du lundi au jeudi de 9h à 12h30 / 13h30 à 17h et le vendredi de 9h à 12h30

Nos chargé.e.s d'information répondent à toutes vos questions.
Nous vous rappelons au moment qui vous arrange.

"Quand souhaitez-vous être rappelé ?"
Nos chargé.e.s d'information répondent à vos questions.