L'essentiel

Icon de la nomenclature

Nomenclature
du niveau de qualification

Niveau 6

Icon NSF

Code(s) NSF

326 : Informatique, traitement de l'information, réseaux de transmission

114g : Mathématiques de l'informatique, mathématiques financières, statistique de la santé

Icon formacode

Formacode(s)

11052 : Mathématiques appliquées

11036 : Statistique

31028 : Intelligence artificielle

Icon date

Date d’échéance
de l’enregistrement

10-02-2026

Niveau 6

326 : Informatique, traitement de l'information, réseaux de transmission

114g : Mathématiques de l'informatique, mathématiques financières, statistique de la santé

11052 : Mathématiques appliquées

11036 : Statistique

31028 : Intelligence artificielle

10-02-2026

Nom légal Siret Nom commercial Site internet
JEDHA 83872651100044 JEDHA https://jedha.co/

Objectifs et contexte de la certification :

La Science des Données (ou Data Science en anglais) est devenue au cours de ces dernières années un élément indispensable pour permettre aux entreprises d’innover et de se différencier, et l’Intelligence Artificielle un outil de performance indispensable. Les directions métiers tous secteurs confondus utilisent déjà ces dernières, et cette tendance est amenée à augmenter exponentiellement au cours des prochaines années. L’objectif visé de la certification de "Concepteur Développeur en Science des Données " est de devenir un spécialiste en science des données ayant la capacité d’avoir une vision globale des projets de Science de Données, capable de les concevoir et diriger dans leur ensemble comme d'intervenir à un point précis de ces derniers.

En effet, la certification confère au candidat les compétences pour exercer le métier : l'ensemble de ces compétences, décrites dans le référentiel, lui permet de créer des infrastructures de gestion de données robustes et adaptées, de les alimenter, de développer des algorithmes d’intelligence artificielle, de les mettre en production, mais aussi de collaborer avec les différentes équipes-métiers métier d'une organisation pour évaluer et adapter les besoins data. Il lui est donc possible de diriger des projets de gestion de données de bout-en-bout, d'en rendre compte, d'être force de proposition et de les adapter aux besoins de son environnement professionnel. 

Le candidat certifié peut mettre en œuvre l'ensemble des compétences nécessaires pour être opérationnel rapidement.

Activités visées :

A1.   Contruction d'une infrastructure de gestion de données adaptée à   l'organisation

A2. Collecte de données

A3. Gestion d'entrepôts de données (Data   Warehouse)

A4. Analyse exploratoire de   données

A5. Visualisation et présentation de données

A6. Mise en place d'un algorithme d'apprentissage automatique

A7. Segmentation et réduction de base de données

A8. Optimisation des performances des algorithmes   d'apprentissage automatique

A9. Mise en place d'un   apprentissage automatique profond

A10. Optimisation des performances des algorithmes d'apprentissage automatique profond pour industrialisation

A11. Industrialisation d'algorithmes d'apprentissage automatique

A12. Production d'applications d'intelligence artificielle utilisables par toutes les équipes métier

A13. Définition d'une modélisation statistique qui permette de répondre aux problématiques des directions métiers 

A14. Construction d'un système de gestion et de suivi de projet d'analyse et de gestion de données

A15. Direction de projets de gestion de données    

Compétences attestées :

Bloc n°1 - Construction et alimentation d'une infrastructure de   gestion de données

C1.1 - Concevoir une architecture de   données robuste et adaptée en créant des lacs de données (Data Lake en   anglais) et des entrepôts de données (Data Warehouse en anglais) afin   de répondre aux besoins de stockage, d'utilisation, de sécurité et de   protection de l'organisation définie par un cahier des charges

C1.2 - Intégrer la dimension de stockage et de calcul distribuée à   l'infrastructure de données via l'utilisation d'outils comme Spark ou AWS   Redshift afin de l'adapter à des besoins de gestion de données massives (Big   Data en anglais)   

C1.3 - Collecter des données   provenant de différentes sources (Web, Logiciels internes de type Sage   / Excel ou externes de type Google Analytics) via des   librairies de programmation de type Scrapy ou Beautifulsoup   dans le respect des normes de protection des données utilisateurs définies dans le RGPD pour alimenter le Data Lake afin d'affiner le résultat d'analyses futures. 

C1.4 - Nettoyer et organiser les   données dans l'entrepôt de données (Data Warehouse en anglais) en   écrivant des processus d'extraction, transformation et chargements (ETL en   anglais) afin de rendre ces données disponibles et compréhensibles pour les   autres équipes métiers.        
 

Bloc n°2 - Analyse exploratoire, descriptive et inférentielle de   données

C2.1 - Traiter des bases de données grâce à des analyses statistiques descriptives et inférentielles via des librairies de programmation comme Numpy ou Pandas, pour les organiser et les nettoyer afin de les normaliser par rapport à la population étudiée.
C2.2 - Effectuer des analyses univariées et multivariées sur des bases de données structurées afin de préciser des relations entre plusieurs variables et d'établir des liens statistiques entre elles.
C2.3 - Optimiser les analyses statistiques grâce au traitement parallélisé via l'utilisation d'outils comme Spark pour accélérer le temps de calcul d'un ordinateur afin de pouvoir analyser des volumes de données massifs (Big Data) 

C2.4 - Présenter le résultat d'une analyse statistique de données structurées, massives ou non, grâce à des librairies de programmation comme Plotly ou Matplotlib pour synthétiser ce résultat devant un public profane afin de faciliter la prise de décisions et appuyer leurs déclinaisons opérationnelles

Bloc n°3 - Analyse prédictive de données structurées par l'intelligence artificielle

 C3.1 - Traiter des données   structurées en créant un pipeline de traitement grâce à des librairies de   programmation comme Scikit-Learn pour encoder, normaliser et découper   des données afin de les rendre interprétables par un algorithme   d'apprentissage automatique (Machine Learning en anglais)
C3.2 - Effectuer des analyses prédictives sur un jeu de données structurées   grâce à des algorithmes d'apprentissage automatique supervisés adaptés afin   d'automatiser des tâches liées aux résultats des prédictions de ces   algorithmes 

 C3.3 - Élaborer un algorithme d'apprentissage automatique non-supervisé pour segmenter une base de données en différents groupes homogènes ou réduire la dimension de cette dernière afin de pouvoir comprendre des observations de manière granulaire et de permettre leur visualisation 

 C3.4 - Évaluer la performance prédictive des algorithmes d'apprentissage automatique en déterminant l'influence des différentes variables pour pouvoir l'améliorer afin de démontrer son utilité aux directions métiers, par rapport aux processus déjà établis dans l'organisation 

Bloc n°4 - Analyse prédictive de données non-structurées par   l'intelligence artificielle

C4.1 - Traiter des données non-structurées (image, texte, audio) par la création de fonction de traitements via l'utilisation de librairies de programmation comme TensorFlow ou Numpy pour les transformer en matrices afin de les rendre interprétables par un algorithme d'apprentissage automatique profond (Deep learning en anglais)
C4.2 - Élaborer des réseaux de neurones adaptés (classiques, convolutifs ou recursifs) en superposant des couches neuronales via des librairies de programmation comme TensorFlow pour analyser des données non-structurées afin de détecter des signaux sur ces dernières
C4.3 - Créer un algorithme robuste et précis en configurant un réseau de neurones pré-entrainé profond afin de répondre à des problématiques de prédiction sur des volumes de données massifs
C4.4 - Créer des données non-structurées en élaborant des réseaux de neurones adverses afin de construire de nouvelles bases d'entrainement pour des applications d'intelligence artificielle 

C4.5 - Évaluer la performance d'un algorithme d'apprentissage automatique profond en évaluant des indicateurs sur des données d'entrainement et de validation afin d'industrialiser son utilisation

Bloc n°5 - Industrialisation d'un algorithme d'apprentissage automatique et automatisation des processus de décision

 C5.1 - Standardiser la construction et l'environnement informatique d'un algorithme d'apprentissage automatique grâce des outils de production comme MLflow et Docker afin de faciliter la mise en production de projets d'intelligence artificielle sur tous types de plateformes
C5.2 - Créer une interface de programmation applicative grâce à des outil comme AWS sagemaker afin de donner un accès à échelle aux prédictions des algorithmes d'apprentissage automatique à l'ensemble des équipes métiers concernées 

 C5.3 - Déployer une application web intégrant des algorithmes de statistiques prédictives (Machine Learning et Deep Learning) grâce à des outils comme Flask, Heroku ou AWS sagemaker pour les rendre utilisables par l'ensemble des équipes métiers afin d'automatiser leurs processus de décision

Bloc n°6 - Direction de projets de gestion de données

C6.1 - Traduire les enjeux métiers en problématiques mathématiques/data grâce à une compréhension des besoins propres à chaque projet data afin de pouvoir répondre aux objectifs de l'organisation
C6.2 - Maîtriser les technologies les plus récentes et adaptées du marché grâce à de la veille technologique et de la pratique constante pour développer une expertise afin d'être à même de proposer aux directions métiers les solutions les plus adaptées actuellement à une problématique et l'amélioration constante des process de gestion de données déjà en place
C6.3 - Définir un cahier des charges, un retroplanning et un budget afin de défendre et détailler aux directions métier un projet data répondant aux besoins de l'organisation  

C6.4 - Gérer un projet d'analyse et de gestion de données (analyse statistique descriptive, Machine Learning, Deep Learning, Big Data ou non) grâce à l'élaboration d'indicateurs adaptés et de tableaux de bords, afin de faire le suivi et le bilan de l’action, ainsi que de la déclinaison opérationnelle de ses résultats, le tout dans le respect des normes de protection des données utilisateurs définies dans le RGPD 

C6.5 - Transmettre aux directions-métiers le process d'extraction d'informations et d'analyse de données en le vulgarisant afin de soutenir la mise en place d'une stratégie et d'actions futures.
C6.6 - Diriger un projet de gestion de données, allant de sa conception à la mise en place de solutions, afin de le mener jusqu'à son terme, d'être la personne clé disposant de toutes les informations sur le projet à tout moment, et d'accompagner d'autres services de l'organisation dans l'ensemble des activités relatives à celui-ci 

Modalités d'évaluation :

Evaluation par le jury de certification sur la base de mises en situation professionnelle : études de cas réels pour les blocs 1 à 5, conception et réalisation d'un projet data pour le bloc 6.


Bloc n°1 - Construction et alimentation d'une infrastructure de gestion de données

Type d'évaluation :Une étude de cas sur des données réelles

Thème d'évaluation : Construction d'une infrastructure cloud accueillant des données Big Data (collecte de données web, intégration des données dans un Data Lake, nettoyage et chargement des données dans une base de données type AWS Redshift par traitement parallélisé si nécessaire via la construction d'un processus ETL)

Contexte: En centre de formation ou à distance, étalé sur 10 heures. 


Bloc n°2 - Analyse exploratoire, descriptive et inférentielle de données

Type d'évaluation : Deux études de cas sur des données réelles

Thème d'évaluation :
- Gestion de valeurs manquantes et aberrantes d'une base de données non-massives puis analyse pour déterminer et présenter des tendances par le biais de graphiques.
- Analyse d'une base de données massives déstructurées (Utilisation de Spark) adaptée à une problématique définie.
Contexte : En centre de formation ou à distance, étalé sur 20 heures.


Bloc n°3 - Analyse prédictive de données structurées par   l'intelligence artificielle

Type d'évaluation : trois études de cas pratiques tirées de cas réels

Thème d'évaluation :

- Optimisation des processus marketing de qualification de prospect par le biais d'algorithmes d'apprentissage supervisés
- Optimisation d'algorithmes d'apprentissage automatique supervisé sur des bases de données déséquilibrées
- Localisation de zones de densité géographique par l'élaboration d'algorithmes d'apprentissage automatique non-supervisé

Contexte : En centre de formation ou à distance, étalé sur 30 heures.


Bloc n°4 - Analyse prédictive de données non-structurées par l'intelligence artificielle

Type d'évaluation : une étude de cas pratique sur des données non-structurées

Thème d'évaluation : Analyse de sentiment, par l'élaboration d'un algorithme permettant de déterminer le sentiment d'un utilisateur à l'égard d'un produit (avec possibilité de créer de la nouvelle donnée pour agrémenter la base).

Contexte : En centre de formation ou à distance, étalé sur 20 heures


Bloc n°5 - Industrialisation d'un algorithme d'apprentissage automatique et automatisation des processus de décision

Type d'évaluation : Etude de cas pratique sur le déploiement d'un algorithme d'apprentissage automatique

Thème d'évaluation : Web dashboard construction et mise en production d'une application web d'intelligence artificielle

Contexte : En centre de formation ou à distance, étalé sur 10 heures. 


Bloc n°6 - Direction de projets de gestion de données

Type d'évaluation :projet data conçu de A à Z.

Thème d'évaluation :Libre. Les apprenants peuvent préparer le projet data de leur choix. Celui-ci peut être personnel, développé par le candidat dans le cadre de son activité professionnelle, ou défini par une entreprise partenaire. Il fera l'objet d'une soutenance orale de 10 minutes suivie de 5 à 10 minutes de questions.

RNCP35288BC01 - Construction et alimentation d'une infrastructure de gestion de données

Liste de compétences Modalités d'évaluation

C1.1 - Concevoir une architecture de données robuste et adaptée en créant des lacs de données (Data Lake en anglais) et des entrepôts de données (Data Warehouse en anglais) afin de répondre aux besoins de stockage, d'utilisation, de sécurité et de protection de l'organisation définie par un cahier des charges

C1.2 - Intégrer la dimension de stockage et de calcul distribuée à l'infrastructure de données via l'utilisation d'outils comme Spark ou AWS Redshift afin de l'adapter à des besoins de gestion de données massives (Big Data en anglais) 

C1.3 - Collecter des données provenant   de différentes sources (Web, Logiciels internes de type Sage / Excel   ou externes de type Google Analytics) via des librairies de   programmation de type Scrapy ou Beautifulsoup  dans le respect des normes de protection des données utilisateurs définies dans le RGPD pour alimenter le Data Lake afin d'affiner le résultat d'analyses futures.

C1.4 - Nettoyer et organiser les données dans l'entrepôt de données (Data Warehouse en anglais) en écrivant des processus d'extraction, transformation et chargements (ETL en anglais) afin de rendre ces données disponibles et compréhensibles pour les autres équipes métiers.    

Type d'évaluation : Une étude de cas sur des données réelles

Thème d'évaluation : Construction d'une infrastructure Cloud accueillant des données Big Data 

RNCP35288BC02 - Analyse exploratoire, descriptive et inférentielle de données

Liste de compétences Modalités d'évaluation

 C2.1 - Traiter des bases de données grâce à des analyses statistiques descriptives et inférentielles via des librairies de programmation comme Numpy ou Pandas, pour les organiser et les nettoyer afin de les normaliser par rapport à la population étudiée.
C2.2 - Effectuer des analyses univariées et multivariées sur des bases de données structurées afin de préciser des relations entre plusieurs variables et d'établir des liens statistiques entre elles.
C2.3 - Optimiser les analyses statistiques grâce au traitement parallélisé via l'utilisation d'outils comme Spark pour accélérer le temps de calcul d'un ordinateur afin de pouvoir analyser des volumes de données massifs (Big Data) 

C2.4 - Présenter le résultat d'une analyse statistique de données structurées, massives ou non, grâce à des librairies de programmation comme Plotly ou Matplotlib pour synthétiser ce résultat devant un public profane afin de faciliter la prise de décisions et appuyer leurs déclinaisons opérationnelles. 

 Type d'évaluation : Deux études de cas sur des données réelles
Thème d'évaluation :
- Gestion de valeurs manquantes et aberrantes d'une base de données non-massives puis analyse pour déterminer et présenter des tendances par le biais de graphiques.
- Analyse d'une base de données massives déstructurées adaptée à une problématique définie. 

RNCP35288BC03 - Analyse prédictive de données structurées par l'intelligence artificielle

Liste de compétences Modalités d'évaluation

C3.1 - Traiter des données structurées en créant un pipeline de traitement grâce à des librairies de programmation comme Scikit-Learn pour encoder, normaliser et découper des données afin de les rendre interprétables par un algorithme d'apprentissage automatique (Machine Learning en anglais)
C3.2 - Effectuer des analyses prédictives sur un jeu de données structurées grâce à des algorithmes d'apprentissage automatique supervisés adaptés afin d'automatiser des tâches liées aux résultats des prédictions de ces algorithmes

C3.3 - Élaborer un algorithme d'apprentissage automatique non-supervisé pour segmenter une base de données en différents groupes homogènes ou réduire la dimension de cette dernière afin de pouvoir comprendre des observations de manière granulaire et de permettre leur visualisation. 

C3.4 - Évaluer la performance prédictive des algorithmes d'apprentissage automatique en déterminant l'influence des différentes variables pour pouvoir l'améliorer afin de démontrer son utilité aux directions métiers, par rapport aux processus déjà établis dans l'organisation 

Type d'évaluation : trois études de cas pratiques tirées de cas réels
 Thème d'évaluation
- Optimisation des processus par le biais d'algorithmes d'apprentissage supervisés
- Optimisation d'algorithmes d'apprentissage automatique supervisé sur des bases de données déséquilibrées
- Localisation de zones de densité géographique par l'élaboration d'algorithmes d'apprentissage automatique non-supervisé

RNCP35288BC04 - Analyse prédictive de données non-structurées par l'intelligence artificielle

Liste de compétences Modalités d'évaluation

C4.1 - Traiter des données non-structurées (image, texte, audio) par la création de fonction de traitements via l'utilisation de librairies de programmation comme TensorFlow ou Numpy pour les transformer en matrices afin de les rendre interprétables par un algorithme d'apprentissage automatique profond (Deep learning en anglais)
C4.2 - Élaborer des réseaux de neurones adaptés (classiques, convolutifs ou recursifs) en superposant des couches neuronales via des librairies de programmation comme TensorFlow pour analyser des données non-structurées afin de détecter des signaux sur ces dernières
C4.3 - Créer un algorithme robuste et précis en configurant un réseau de neurones pré-entrainé profond afin de répondre à des problématiques de prédiction sur des volumes de données massifs
C4.4 - Créer des données non-structurées en élaborant des réseaux de neurones adverses afin de construire de nouvelles bases d'entrainement pour des applications d'intelligence artificielle

C4.5 - Évaluer la performance d'un   algorithme d'apprentissage automatique profond en évaluant des indicateurs   sur des données d'entrainement et de validation afin d'industrialiser   son utilisation     

 Type d'évaluation : une étude de cas pratique sur des données non-structurées
Thème d'évaluation : Analyse de sentiment, par l'élaboration d'un algorithme permettant de déterminer le sentiment d'un utilisateur à l'égard d'un produit

RNCP35288BC05 - Industrialisation d'un algorithme d'apprentissage automatique et automatisation des processus de décision

Liste de compétences Modalités d'évaluation

C5.1 - Standardiser la construction et l'environnement informatique d'un algorithme d'apprentissage automatique grâce des outils de production comme MLflow et Docker afin de faciliter la mise en production de projets d'intelligence artificielle sur tous types de plateformes
C5.2 - Créer une interface de programmation applicative grâce à des outil comme AWS sagemaker afin de donner un accès à échelle aux prédictions des algorithmes d'apprentissage automatique à l'ensemble des équipes métiers concernées 

C5.3 - Déployer une application web intégrant des algorithmes de statistiques prédictives (Machine Learning et Deep Learning) grâce à des outils comme Flask, Heroku ou AWS sagemaker pour les rendre utilisables par l'ensemble des équipes métiers afin d'automatiser leurs processus de décision 

 Type d'évaluation :Etude de cas pratique sur le déploiement d'un algorithme d'apprentissage automatique
 

Thème d'évaluation : construction et mise en production d'une application web d'intelligence artificielle 

RNCP35288BC06 - Direction de projets de gestion de données

Liste de compétences Modalités d'évaluation

C6.1 - Traduire les enjeux métiers en   problématiques mathématiques/data grâce à une compréhension des besoins   propres à chaque projet data afin de pouvoir répondre aux objectifs de   l'organisation
C6.2 - Maîtriser les technologies les plus récentes et adaptées du marché   grâce à de la veille technologique et de la pratique constante pour développer   une expertise afin d'être à même de proposer aux directions métiers les   solutions les plus adaptées actuellement à une problématique et l'amélioration   constante des process de gestion de données déjà en place
C6.3 - Définir un cahier des charges, un retroplanning et un budget afin de   défendre et détailler aux directions métier un projet data répondant aux   besoins de l'organisation     

C6.4 - Gérer un projet d'analyse et de gestion de données (analyse statistique descriptive, Machine Learning, Deep Learning, Big Data ou non) grâce à l'élaboration d'indicateurs adaptés et de tableaux de bords, afin de faire le suivi et le bilan de l’action, ainsi que de la déclinaison opérationnelle de ses résultats, le tout dans le respect des normes de protection des données utilisateurs définies dans le RGPD

C6.5 - Transmettre aux   directions-métiers le process d'extraction d'informations et d'analyse de   données en le vulgarisant afin de soutenir la mise en place d'une stratégie   et d'actions futures.
C6.6 - Diriger un projet de gestion de données, allant de sa conception à la   mise en place de solutions, afin de le mener jusqu'à son terme, d'être la   personne clé disposant de toutes les informations sur le projet à tout   moment, et d'accompagner d'autres services de l'organisation dans l'ensemble   des activités relatives à celui-ci     

 Type d'évaluation : projet data conçu de A à Z.
Thème d'évaluation :libre. Les apprenants peuvent préparer le projet data de leur choix. Celui-ci peut être personnel, développé par le candidat dans le cadre de son activité professionnelle, ou défini par une entreprise partenaire. Il fera l'objet d'une soutenance orale de 10 minutes suivie de 5 à 10 minutes de questions.

Description des modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par correspondance :

La certification s'acquiert par capitalisation des blocs de compétences et par équivalence. La validation de la totalité des 6 blocs de compétences est obligatoire pour l'obtention de la certification.

Les candidats n’ayant validé que certains des 6 blocs de compétences du référentiel « Concepteur Développeur en Science des Données » se voient remettre un certificat de compétences attestant de la validation partielle de la certification professionnelle, et nommant les blocs concernés. La validation partielle d’un bloc n’est pas possible.  

La certification est valable à vie. En cas de validation partielle des blocs, la durée de validité de chaque bloc de compétences est de 5 ans. 

Secteurs d’activités :

Depuis l'émergence de l’Intelligence Artificielle et des Big Data, les Concepteurs Développeurs en Science des Données sont recrutés dans de différents et nombreux domaines (commercial, finance, santé, recherche, administration…), à des postes pouvant différer par leur niveau hiérarchique et leur niveau de technicité, et par une grandes variété d’organisations : dans l’industrie, par de grandes entreprises comme de jeunes start-up, dans le service public et l’administration, par des institutions scientifiques, des organisations médicales ou paramédicales et même des structures associatives. En effet, leur travail d'analyse peut facilement se retrouver à la base de l’élaboration de la stratégie générale d’une organisation.

Tous les secteurs d’activités utilisant de la donnée sont ainsi concernés et quel que soit la taille de l’entreprise. Le “Concepteur Développeur en Science des Données” pourra exercer son activité : 

  • Dans une entreprise de Services Numériques (ESN ou ex SSII) réalisant des prestations de science des données ou d’intelligence artificielle, en régie ou au forfait
  • Dans l’ensemble des structures utilisatrices d’Intelligence Artificielle, possédant un service dédié à l’analyse de données et aux développements de ces IA, du secteur privé ou public, entreprises ou association (ex : Banque, Assurance, startups spécialisées dans l’Intelligence Artificielle, certains établissements de recherche ou de santé, etc) 
  • En tant qu’indépendant pour des missions de gestion de données, de conceptions ou mise en production d’algorithmes,  ou de pilotage de projet Data.
  • Dans des organismes de formation spécialisés dans l’Intelligence Artificielle. 


Type d'emplois accessibles :

  • Data Scientist
  • Data Engineer
  • Machine Learning Engineer 
  • Développeur Full-Stack Python (ou Software Engineer) 
  • Data Analyst (ou Data Miner) 
  • Business Analyst
  • Consultant Intelligence Artificielle (ou Consultant Data) 
  • Product Manager Data (ou Product Owner ou chef de produit Data)
  • Chef de Projet Data (ou Project Manager Data)
  • Ingénieur d'études / Chargé d'études
  • Ingénieur en Business Intelligence
  • Directeur / Directrice de l'Organisation et des Systèmes d'Information -DOSI
  • Attaché / Attachée d’études statistiques 

Code(s) ROME :

  • M1403 - Études et prospectives socio-économiques
  • M1810 - Production et exploitation de systèmes d''information
  • M1805 - Études et développement informatique
  • M1803 - Direction des systèmes d''information
  • M1806 - Conseil et maîtrise d''ouvrage en systèmes d''information

Références juridiques des règlementations d’activité :

L’ensemble du processus de conception et de développement d’algorithmes d’apprentissage automatique doit se dérouler dans le respect des réglementations en vigueur quant à l’utilisation de données personnelles (RGPD) et des critères définissant l’utilisation responsable des données. 
Le règlement général sur la protection des données (RGPD, ou encore GDPR, de l'anglais General Data Protection Regulation) est le règlement de l'Union Européenne qui constitue le texte de référence en matière de protection des données à caractère personnel : il renforce la protection de ces données pour les individus, responsabilise les acteurs du traitement de ces données et augmente le pouvoir des autorités de régulation au sein de l'Union européenne. Il est entré en application dans l'ensemble des 28 États membres de l'Union européenne à compter du 25 mai 2018. Il met en place des principes nouveaux, dont les plus importants sont : 

  • Un consentement explicite et positif doit être donné par l’utilisateur. Il dispose également d’un droit à l’effacement de ses données personnelles dans les meilleurs délais et peut demander à recevoir l’ensemble des données personnelles détenues par l’entreprise le concernant.
  • Le principe de protection des données dès la conception (Privacy by Design) impose aux organisations de prendre en compte les exigences relatives à la protection des données personnelles dès la conception des produits, services et systèmes exploitant ces données.
  • La minimisation des données impose à l’organisation de ne collecter, traiter et stocker que les données nécessaires en vue de l’exécution de ses tâches. 
  • Les organisations publiques, traitant des données très sensibles ou de plus de 250 personnes ont l’obligation de nommer un délégué à la protection des données pour contrôler le respect du règlement, de conseiller le responsable des traitements sur son application et de faire office de point de contact avec l'autorité de contrôle, de répondre aux sollicitations de personnes qui souhaitent exercer leurs droits.
  • L’ensemble des dispositions du RGPD s'appliquent aux organisations établies en dehors de l'UE qui traitent les données relatives aux activités des organisations de l'UE ou appartenant à des résidents de l'UE

L’utilisation responsable des données implique également de manière plus large un certain nombre de critères qui préviennent la création d’intelligences artificielles intrusives, pouvant porter atteinte à l’ordre public, inciter à la haine ou de manière plus générale promouvant ou permettant toute activité interdite par la loi ou allant à l’encontre de l’éthique. L’éthique des données est une problématique en perpétuelle évolution, mobilisant nombre de groupes de travail publics comme indépendants. Si le cadre actuel est défini par le RGPD, ces acteurs et groupes de travail essayent de créer des cadres pour faire en sorte que les évolutions permises en science des données bénéficient directement à l’intérêt général et pas uniquement à des acteurs privés. Ces cadres incluent par exemple le site d’open source de bases de données Kaggle ou la plateforme de travail Data for Good.

Le cas échant, prérequis à l’entrée en formation :

  • Un niveau 5  dans un domaine scientifique et/ou économique. À l’international, un niveau équivalent est requis. Ce niveau sera justifié par le CV de l’apprenant.
  • La réussite d’un test d’admission “coding challenge”, validant des compétences nécessaires scientifiques en mathématiques appliquées ainsi qu’en programmation python. 
  • La réussite d’un entretien préalable qui jugera:
    • De la plus-value de l’acquisition des compétences décrites dans le référentiel "Concepteur Développeur en Science des Données " pour le projet professionnel
    • De la pertinence et de la faisabilité de ce projet professionnel
    • De la capacité du candidat à suivre la Formation dans les conditions définies au préalable (possibilité de suivre la formation en présentiel ou distanciel)
  • Une expérience professionnelle adaptée sera valorisée pour l’admission dans la formation.
  • Une  pratique courante de l’anglais (niveau B2 en compréhension & expression écrite et B1 de compréhension & expression orale du référentiel européen CECRL) est requise. 
  • Dans certains cas, la réussite aux tests d’admission et à l’entretien pourront se substituer à un diplôme de niveau 5.

Le cas échant, prérequis à la validation de la certification :

Pré-requis disctincts pour les blocs de compétences :

Non

Validité des composantes acquises :

Validité des composantes acquises
Voie d’accès à la certification Oui Non Composition des jurys Date de dernière modification
Après un parcours de formation sous statut d’élève ou d’étudiant X

Le jury de certification est composé de :

  • 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné
  • 1 membre externe, préférentiellement choisi parmi les membres externes du conseil pédagogique
  • 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisé dans en science des données

Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.).

-
En contrat d’apprentissage X

Le jury de certification est composé de :

  • 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné
  • 1 membre externe, préférentiellement choisi parmi les membres externes du conseil pédagogique
  • 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisé dans en science des données

Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.).

-
Après un parcours de formation continue X

Le jury de certification est composé de :

  • 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné
  • 1 membre externe, préférentiellement choisi parmi les membres externes du conseil pédagogique
  • 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisé dans en science des données

Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.).

-
En contrat de professionnalisation X

Le jury de certification est composé de :

  • 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné
  • 1 membre externe, préférentiellement choisi parmi les membres externes du conseil pédagogique
  • 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisé dans en science des données

Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.).

-
Par candidature individuelle X - -
Par expérience X

 Le dossier VAE est étudié directement par :  

  • 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné
  • 1 membre externe, choisi parmi les membres externes du conseil pédagogique
  • 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisés dans les sciences des données
-
Validité des composantes acquises
Oui Non
Inscrite au cadre de la Nouvelle Calédonie X
Inscrite au cadre de la Polynésie française X

Statistiques :

Statistiques
Année d'obtention de la certification Nombre de certifiés Nombre de certifiés à la suite d’un parcours vae Taux d'insertion global à 6 mois (en %) Taux d'insertion dans le métier visé à 6 mois (en %) Taux d'insertion dans le métier visé à 2 ans (en %)
2020 60 0 78 76 -
2019 60 0 86 78 -

Lien internet vers le descriptif de la certification :

https://www.jedha.co/page/certificat-concepteur-developpeur

Liste des organismes préparant à la certification :

Historique des changements de certificateurs :

Historique des changements de certificateurs
Nom légal du certificateur Siret du certificateur Action Date de la modification
JEDHA 83872651100028 Est retiré 01-04-2023
JEDHA 83872651100036 Est ajouté 01-04-2023
JEDHA 83872651100036 Est retiré 14-11-2023
JEDHA 83872651100044 Est ajouté 14-11-2023

Référentiel d'activité, de compétences et d'évaluation :