L'essentiel

Icon de la nomenclature

Nomenclature
du niveau de qualification

Niveau 6

Icon NSF

Code(s) NSF

114b : Modèles mathématiques ; Informatique mathématique

125g : Langages artificiels et informatique ; Linguistique et didactique des langues

326 : Informatique, traitement de l'information, réseaux de transmission

Icon formacode

Formacode(s)

31025 : Data analytics

31035 : Data visualization

31026 : Data science

31028 : Intelligence artificielle

31052 : Data Warehouse

Icon date

Date d’échance
de l’enregistrement

09-02-2027

Niveau 6

114b : Modèles mathématiques ; Informatique mathématique

125g : Langages artificiels et informatique ; Linguistique et didactique des langues

326 : Informatique, traitement de l'information, réseaux de transmission

31025 : Data analytics

31035 : Data visualization

31026 : Data science

31028 : Intelligence artificielle

31052 : Data Warehouse

09-02-2027

Nom légal Siret Nom commercial Site internet
LE WAGON 79494991700023 - https://www.lewagon.com/fr

Objectifs et contexte de la certification :

Le marché de la donnée et de l'IA connaît une croissance exponentielle grâce à l'impact croissant de la numérisation, des objets connectés, des réseaux sociaux et des plateformes numériques. Selon des études, le marché de l'IA devrait atteindre 90 milliards de dollars en 2025. Le gouvernement français a mis en place une stratégie nationale pour l'IA, soutenue par des investissements importants.

Les métiers de la donnée sont répartis en plusieurs pôles, tels que la collecte, le traitement, l'analyse, la protection des données, le développement de modèles d'apprentissage et les opérations liées aux bases de données.

La certification de Concepteur développeur en IA et analyse Big Data répond aux compétences requises pour les data scientists et les data analysts mais aussi pour d'autres métiers liés au traitement de la donnée et de l'intelligence artificielle.

Ces professionnels sont très recherchés sur le marché du travail. Que ce soit pour rendre les données intelligentes et résoudre des problématiques métier ou exploiter les données pour faciliter la prise de décisions, la maîtrise de l'apprentissage automatique, de la science de la donnée et de la visualisation est devenue essentielle dans de nombreux secteurs.

Activités visées :

  • Mettre en place des processus de collecte de données de façon automatisée en utilisant des outils d’orchestration ou des scripts informatiques et en respectant les normes légales (RGPD).
  • Réaliser des opérations de transformation de données pour écarter les valeurs mal formatées, erronées ou simplement incohérentes et ainsi assurer la qualité des futures analyses. 
  • Combiner les données pour en créer des modèles : identifier toutes les dimensions et variables qui seront nécessaires à l’analyse de la performance de chaque équipe métier et les mettre à leur disposition.
  • Réaliser une étude statistique descriptive des données (distribution, moyenne, écart-type…) pour mieux comprendre comment elles sont distribuées et ainsi expliquer les grandes tendances.
  • Utiliser des techniques d’apprentissage automatique : concevoir des programmes informatiques pour expliquer la relation entre une et plusieurs variables afin de prédire des tendances ou de regrouper les données par caractéristiques communes.
  • Organiser un travail de cadrage de projet data : réaliser une veille technologique des outils et des techniques statistiques, planifier les différentes étapes du projet tout en évaluant les risques associés.
  • Organiser et coordonner le travail nécessaire à la mise en place d’un projet data : identifier les personnes utiles à sa bonne réalisation, mettre en place des outils de gestion de projet et présenter les résultats du projet en s’adaptant au public visé.
  • Utiliser des techniques d’apprentissage profond (deep learning) pour exploiter des données non structurées (données textuelles ou visuelles) et approfondir ses analyses ou améliorer la qualité de ses prédictions.
  • Mettre en production les algorithmes d’apprentissage profond, en monitorer dans le temps les performances et les améliorer en fonction des différentes innovations technologiques.
  • Identifier les indicateurs clés de performance de chaque équipe métier en conduisant des entretiens pour comprendre précisément leurs besoins. 
  • Mettre à disposition des équipes métiers des interfaces graphiques représentant les indicateurs clés de performance métier (tableaux de bord) afin de les aider dans leurs prises de décision, et ce en s’adaptant au public visé.

Compétences attestées :

  • Concevoir un processus de collecte de données en évaluant et choisissant des outils adaptés pour faciliter l'accessibilité, la sécurité et l'intégrité des données centralisées dans le respect de la réglementation en vigueur (RGPD).  
  • Créer un système automatisé de collecte de données en intégrant des solutions ETL (comme Fivetran ou Stitch) et/ou en développant des scripts informatiques en Python ou SQL pour une agrégation rapide et exacte des données correspondant aux besoins métier. 
  • Développer des stratégies de nettoyage de données, en analysant le contexte spécifique des données pour assurer un traitement approprié et sécurisé des données qui réponde aux besoins métier de l’entreprise.
  • Extraire des données en développant des scripts personnalisés (par exemple en Python ou SQL) pour récupérer des informations précises et pertinentes depuis une ou plusieurs bases de données. 
  • Mener des analyses exploratoires en calculant des techniques statistiques descriptives (comme la moyenne ou l’analyse des fréquences) pour comprendre la distribution des données et écarter les valeurs anormales.
  • Identifier et interpréter des tendances en utilisant des langages de programmation (par exemple Python) et/ou des outils métiers adaptés (par exemple un tableur) pour comprendre finement le contexte et la nature des données analysées. 
  • Sélectionner l’algorithme d’apprentissage le plus adapté en comparant les performances  et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente  à la problématique métier rencontrée. 
  • Préparer et transformer des données en utilisant des techniques de prétraitement (preprocessing) pour les adapter aux spécificités du modèle d'apprentissage automatique choisi. 
  • Entraîner un modèle d'apprentissage automatique en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
  • Identifier les évolutions clés en IA et Big Data en analysant des sources d'information spécialisées pour rester à la pointe des dernières innovations et alimenter les stratégies de projet. 
  • Élaborer et évaluer la problématique métier en utilisant des approches analytiques, pour créer un cahier des charges qui reflète précisément les besoins et les objectifs du projet data.
  • Évaluer les risques inhérents au projet IA et Big Data concernant l’impact éthique, le respect du RGPD ou encore la conformité aux normes environnementales, en proposant des méthodes d’audit pour garantir une conformité globale du projet.
  • Planifier et coordonner les ressources humaines et matérielles de manière efficace, en structurant un calendrier des activités qui garantit le respect des délais et des budgets du projet data. 
  • Piloter une équipe multidisciplinaire en mettant en place des mécanismes d'évaluation et de feedback continus, assurant ainsi une progression fluide et coordonnée du projet data. 
  • Présenter les résultats de projets IA et Big Data en adaptant le contenu et la forme aux différentes parties prenantes, y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG pour garantir une compréhension claire et inclusive. 
  • Préparer des données non structurées en les convertissant en données numériques et sous forme tabulaires pour servir de données d'entraînement à un algorithme d’apprentissage profond. 
  • Sélectionner l’algorithme d’apprentissage profond le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente adaptée à la problématique métier rencontrée. 
  • Entraîner un modèle d'apprentissage profond en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
  • Déployer efficacement un modèle d'apprentissage profond en utilisant des outils et plateformes de production adaptés (MLOps), pour assurer une accessibilité et une performance optimale des prédictions de l'algorithme aux utilisateurs finaux.
  • Identifier les indicateurs clés à calculer en interrogeant les besoins métier afin de structurer les tableaux de bords nécessaires à des prises de décisions stratégiques. 
  • Choisir des visualisations pertinentes en prenant en considération la nature massive des données et le profil des usagers y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG afin de faciliter la compréhension des informations obtenues grâce à l’IA et au Big Data. 
  • Créer des tableaux de bord en utilisant des outils de BI (comme PowerBI ou Looker Studio) afin de rendre accessibles et interactives les analyses prédictives aux autres membres de l'entreprise.   

Modalités d'évaluation :

Les évaluations des compétences de 5 des 6 blocs sont réalisées via un cas pratique. Le candidat reçoit un jeu de données associé à une problématique métier. Il doit, pour :

  • le bloc 1, réaliser un traitement de cette donnée et son transfert automatique.
  • le bloc 2, effectuer une analyse de données en récupérant ces données puis en calculant des statistiques descriptives pour en tirer des conclusions
  • le bloc 3, réaliser un algorithme d’apprentissage automatique et évaluer les performances de son modèle.
  • le bloc 5, réaliser un algorithme d’apprentissage automatique profond et évaluer les performances de son modèle et déployer un modèle en production.
  • le bloc 6,  identifier les indicateurs clés à calculer afin de réaliser un tableau de bord et donner ses conclusions et ses recommandations.

Pour le bloc 4, le candidat devra produire une présentation répondant à une problématique métier. Le candidat devra analyser une problématique métier, identifier des innovations technologiques pertinentes, justifier ses choix techniques, proposer un plan de gestion de projet (ressources, planification, modalités de suivi et de coordination) et une analyse des risques inhérents à la réalisation de ce projet. 

RNCP38616BC01 - Automatiser la collecte et le traitement des données (Data Engineering)

Liste de compétences Modalités d'évaluation

Concevoir un processus de collecte de données en évaluant et choisissant des outils adaptés pour faciliter l'accessibilité, la sécurité et l'intégrité des données centralisées dans le respect de la réglementation en vigueur (RGPD). 

Créer un système automatisé de collecte de données en intégrant des solutions ETL (comme Fivetran ou Stitch) et/ou en développant des scripts informatiques en Python ou SQL pour une agrégation rapide et exacte des données correspondant aux besoins métier.

Développer des stratégies de nettoyage de données, en analysant le contexte spécifique des données pour assurer un traitement approprié et sécurisé des données qui réponde aux besoins métier de l’entreprise.

Un cas pratique d'étude d'un jeu de données concernant une problématique métier. Le candidat devra réaliser un traitement de cette donnée et son transfert automatique.

RNCP38616BC02 - Analyser et synthétiser les données préalablement à l’utilisation d’algorithmes d’IA

Liste de compétences Modalités d'évaluation

Extraire des données en développant des scripts personnalisés (par exemple en Python ou SQL) pour récupérer des informations précises et pertinentes depuis une ou plusieurs bases de données.

Mener des analyses exploratoires en calculant des techniques statistiques descriptives (comme la moyenne ou l’analyse des fréquences) pour comprendre la distribution des données et écarter les valeurs anormales.

Identifier et interpréter des tendances en utilisant des langages de programmation (par exemple Python) et/ou des outils métiers adaptés (par exemple un tableur) pour comprendre finement le contexte et la nature des données analysées.

Un cas pratique d'étude d'un jeu de données sur une problématique métier sera donné au candidat. Ce dernier devra effectuer une analyse de données en récupérant ces données puis en calculant des statistiques descriptives pour en tirer des conclusions.

RNCP38616BC03 - Appliquer des techniques d’analyse IA via des algorithmes d'apprentissage automatiques (Machine Learning)

Liste de compétences Modalités d'évaluation

Sélectionner l’algorithme d’apprentissage le plus adapté en comparant les performances  et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente  à la problématique métier rencontrée.

Préparer et transformer des données en utilisant des techniques de prétraitement (preprocessing) pour les adapter aux spécificités du modèle d'apprentissage automatique choisi.

Entraîner un modèle d'apprentissage automatique en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.

Un cas pratique d'étude d'un jeu de données sur une problématique métier sera donné au candidat. Ce dernier devra réaliser un algorithme d’apprentissage automatique et évaluer les performances de son modèle.

RNCP38616BC04 - Mener des projets IA et Big Data en équipe en intégrant les contraintes légales et des considérations éthiques

Liste de compétences Modalités d'évaluation

Identifier les évolutions clés en IA et Big Data en analysant des sources d'information spécialisées pour rester à la pointe des dernières innovations et alimenter les stratégies de projet.

Élaborer et évaluer la problématique métier en utilisant des approches analytiques, pour créer un cahier des charges qui reflète précisément les besoins et les objectifs du projet data.

Évaluer les risques inhérents au projet IA et Big Data concernant l’impact éthique, le respect du RGPD ou encore la conformité aux normes environnementales, en proposant des méthodes d’audit pour garantir une conformité globale du projet.

Planifier et coordonner les ressources humaines et matérielles de manière efficace, en structurant un calendrier des activités qui garantit le respect des délais et des budgets du projet data.

Piloter une équipe multidisciplinaire en mettant en place des mécanismes d'évaluation et de feedback continus, assurant ainsi une progression fluide et coordonnée du projet data.

Présenter les résultats de projets IA et Big Data en adaptant le contenu et la forme aux différentes parties prenantes, y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG pour garantir une compréhension claire et inclusive.

Etude d'un cas pratique, production d'une présentation répondant à une problématique métier. Le candidat devra analyser une problématique métier, identifier des innovations technologiques pertinentes, justifier ses choix techniques, proposer un plan de gestion de projet (ressources, planification, modalités de suivi et de coordination) et une analyse des risques inhérents à la réalisation de ce projet.

RNCP38616BC05 - Option Data Science - Développer et mettre en production des algorithmes d’IA par apprentissage profond (Deep Learning)

Liste de compétences Modalités d'évaluation

Préparer des données non structurées en les convertissant en données numériques et sous forme tabulaires pour servir de données d'entraînement à un algorithme d’apprentissage profond.

Sélectionner l’algorithme d’apprentissage profond le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente adaptée à la problématique métier rencontrée.

Entraîner un modèle d'apprentissage profond en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.

Déployer efficacement un modèle d'apprentissage profond en utilisant des outils et plateformes de production adaptés (MLOps), pour assurer une accessibilité et une performance optimale des prédictions de l'algorithme aux utilisateurs finaux.

Un cas pratique d'étude d'un jeu de données sur une problématique métier sera donné au candidat. Ce dernier devra réaliser un algorithme d’apprentissage automatique profond et évaluer les performances de son modèle. De plus, le candidat se verra donner un modèle qu’il devra alors déployer en production.

 

RNCP38616BC06 - Option Data Analyse - Concevoir des tableaux de bords avancés (Business Intelligence)

Liste de compétences Modalités d'évaluation

Identifier les indicateurs clés à calculer en interrogeant les besoins métier afin de structurer les tableaux de bords nécessaires à des prises de décisions stratégiques.

Choisir des visualisations pertinentes en prenant en considération la nature massive des données et le profil des usagers y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG afin de faciliter la compréhension des informations obtenues grâce à l’IA et au Big Data. 

Créer des tableaux de bord en utilisant des outils de BI (comme PowerBI ou Looker Studio) afin de rendre accessibles et interactives les analyses prédictives aux autres membres de l'entreprise.  

Un cas pratique d'étude d'un jeu de données sur une problématique métier sera donné au candidat. Ce dernier devra identifier les indicateurs clés à calculer afin de réaliser un tableau de bord. A partir de ce tableau de bord, le candidat donnera ses conclusions et ses recommandations.

Description des modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par correspondance :

Pour obtenir la certification le candidat doit avoir validé chacun des 4 blocs de compétences communs et un bloc des 2 blocs de compétences optionnels.

Secteurs d’activités :

Le Concepteur - Développeur en intelligence artificielle et analyse Big Data est amené à travailler:

  • en travailleur indépendant (freelance)
  • dans de jeunes entreprises innovantes (startup)
  • dans des grandes entreprises de technologies telles que Google, Facebook, Microsoft
  • dans des entreprises de service financier : banque, assurance, service financier
  • dans des entreprises de commerce électronique
  • dans des entreprises de santé et pharmaceutique :
  • dans des entreprises de conseil en management
  • dans de nombreuses autres industries, telles que les médias, les télécommunications, l'énergie et les transports, qui ont également besoin de compétences en données pour optimiser leurs opérations et prendre des décisions éclairées.

Type d'emplois accessibles :

Data Analyst - Data Scientist - Développeur en Intelligence Artificielle - BI Analyst - Chef de projet Data - Chief Data Scientist - Consultant Data - Développeur Data

Code(s) ROME :

  • M1805 - Études et développement informatique
  • M1403 - Études et prospectives socio-économiques

Références juridiques des règlementations d’activité :

RGPD : règlement général sur la protection des données UE 2016/679 Parlement Européen

Le cas échant, prérequis à l’entrée en formation :

Le candidat doit être titulaire d’un diplôme de niveau 4 avec au moins 1 an d’expérience professionnelle ou être titulaire d’un niveau 5 ou plus dans un domaine scientifique et / ou de gestion. 

Le candidat devra également obtenir l’aval de la commission pédagogique (entretien en visioconférence et test d’entrée). 

Le candidat pourra choisir entre l’option Data Science (bloc 5) et l’option Data Analyse (bloc 6) suivant ses résultats aux tests d’entrée et sur décision de la commission pédagogique.

Le cas échant, prérequis à la validation de la certification :

Pré-requis disctincts pour les blocs de compétences :

Non

Validité des composantes acquises :

Validité des composantes acquises
Voie d’accès à la certification Oui Non Composition des jurys
Après un parcours de formation sous statut d’élève ou d’étudiant X -
En contrat d’apprentissage X

Le jury est obligatoirement composé d’un enseignant et d’au moins deux professionnels d’entreprise extérieurs à Le Wagon

Après un parcours de formation continue X

Le jury est obligatoirement composé d’un enseignant et d’au moins deux professionnels d’entreprise extérieurs à Le Wagon

En contrat de professionnalisation X

Le jury est obligatoirement composé d’un enseignant et d’au moins deux professionnels d’entreprise extérieurs à Le Wagon

Par candidature individuelle X -
Par expérience X

Le jury est obligatoirement composé d’un enseignant et d’au moins deux professionnels d’entreprise extérieurs à Le Wagon

Validité des composantes acquises
Oui Non
Inscrite au cadre de la Nouvelle Calédonie X
Inscrite au cadre de la Polynésie française X

Statistiques :

Statistiques
Année d'obtention de la certification Nombre de certifiés Nombre de certifiés à la suite d’un parcours vae Taux d'insertion global à 6 mois (en %) Taux d'insertion dans le métier visé à 6 mois (en %) Taux d'insertion dans le métier visé à 2 ans (en %)
2022 120 0 76 58 -
2021 113 0 86 66 75

Lien internet vers le descriptif de la certification :

https://www.lewagon.com/fr/data-science-course

Liste des organismes préparant à la certification :

Certification(s) antérieure(s) :

Certification(s) antérieure(s)
Code de la fiche Intitulé de la certification remplacée
RNCP35141 Développeur en intelligence artificielle

Référentiel d'activité, de compétences et d'évaluation :