L'essentiel

Icon de la nomenclature

Nomenclature
du niveau de qualification

Niveau 7

Icon NSF

Code(s) NSF

114g : Mathématiques de l'informatique, mathématiques financières, statistique de la santé

Icon formacode

Formacode(s)

31026 : Data science

Icon date

Date d’échéance
de l’enregistrement

10-10-2024

Niveau 7

114g : Mathématiques de l'informatique, mathématiques financières, statistique de la santé

31026 : Data science

10-10-2024

Nom légal Siret Nom commercial Site internet
DATA SCIENCETECH INSTITUTE 81023913700039 DATA SCIENCETECH INSTITUTE https://www.datasciencetech.institute

Objectifs et contexte de la certification :

 Le métier visé est celui d’ expert (« Data Scientist » en Anglais) dans le domaine des Sciences des Données. Ces dernières peuvent être de toute taille, jusqu’à la qualification de « massives » (« Big Data » en Anglais). Ces données partagent une complexité nécessitant l’utilisation de techniques mathématiques avancées avec leurs implémentations informatiques correspondantes. Ces implémentations sont localisées sur des infrastructures informatiques locales et/ou dans les nuages (« cloud computing » en Anglais). 

 Le Data Scientist conçoit des indicateurs pour l’aide à la décision à partir de sources de données multiples et dispersées, mises en place par des experts en ingénierie des données (« Data Engineers » en Anglais). Ces indicateurs sont construits à l’aide d’analyses mathématiques et de prototypes d’implémentations informatiques. Ces prototypes sont ensuite industrialisés à l’échelle de l’organisation par les Data Engineers. 

Le métier de Data Scientist est donc spécialisé en modélisation mathématique -qu’elle soit de nature probabiliste/statistique, déterministe ou stochastique-, en informatique scientifique et en architecture des systèmes d’information. Ce spectre large de compétences débouche, en partie, sur ce que l’on appelle aujourd’hui et communément « l’intelligence artificielle – IA » 

Référentiel Utilisé : Data Scientist – Référentiel Métiers OPIIEC - http://referentiels-metiers.opiiec.fr/fiche-metier/113-data-scientistLa fiche métier « Data Scientist » du référentiel métier OPIIEC a été choisie délibérément, car elle est la seule en France sur ce métier précis. Elle est par ailleurs attachée à la branche SYNTEC, qui est la principale source d’emploi de nos certifiés. 

Activités visées :

Identifier les problématiques « décisionnelles » des directions métiers.

Définir une modélisation mathématique qui permette de répondre à la problématique.

Construire des outils d'analyse pour collecter les données de l'entreprise.

Rassembler l'ensemble des sources de données pertinentes (structurées ou non structurées) liées aux processus de production, de vente ou de la connaissance du client/usager.

Organiser, étudier et synthétiser ces sources de données sous forme de résultats exploitables.

Modéliser les comportements et en extraire de nouveaux usages utilisateurs.

Compétences attestées :

Intitulé : Analyser, concevoir et développer des modélisations mathématiques pour enrichir les systèmes d’aide à la décision 

Descriptif : 

Explorer, décrire et interpréter des données dans leur aspect multidimensionnel.   

Produire des traitements de données simples en utilisant les concepts de la statistique descriptive, en vue de présenter les résultats obtenus à l’aide de tableaux, de graphiques et d’indicateurs numériques.

Mesurer la liaison entre deux variables.  

Choisir les outils et déterminer leurs limites afin de communiquer les conclusions et leur interprétation.   

Produire des études statistiques en mettant en œuvre les techniques d’apprentissage automatique par la machine (machine learning) pour des données avec ou sans caractères temporels.  


Intitulé : Concevoir et déployer des infrastructures informatiques distribuées pour stocker et traiter des données massives. 

Descriptif : 

Participer, avec des Data Engineers, à la rédaction d'un cahier des charges technique pour la conception et la mise en place d’une solution d’analyse des données volumineuses.   

Exploiter un système distribué d’entrepôt de données structurées et non structurées, notamment via Apache Hadoop & Apache Spark.   

Contribuer à la définition de l’architecture de stockage de données, en guidant les Data Engineers à prendre en compte les besoins de traitements algorithmiques de l’intelligence artificielle.   

Concevoir et implémenter des algorithmes pour le traitement des grands volumes de données dans le respect des bonnes pratiques de l’ingénierie logicielle (incluant les approches SQL et NoSQL).   

Exploiter des infrastructures informatiques distribuées en mode cloud sur la plateforme Amazon AWS pour y déporter des traitements algorithmiques de l’intelligence artificielle (préparation à la certification Amazon AWS Solution Architect – Associate)


Intitulé : Détecter et évaluer l’état de l’art de l’intelligence artificielle pour développer des projets innovants. 

Descriptif : 

Cibler et faire ressortir des modèles linéaires, non-linéaires, généralisés ou mixtes et construire des modèles complexes ou novateurs de prévisions en utilisant les techniques de modélisation, estimations, tests et diagnostics.  Identifier les variables ou composantes importantes d’un modèle afin de tester des hypothèses en utilisant les techniques de modélisation, estimations, tests et diagnostics.   

Modéliser des données observées, les interpréter pour en faire de la prédiction en utilisant des outils appropriés et en tenant compte de leur nature aléatoire.   

Déterminer et analyser des données complexes en utilisant les méthodes de fouille et de visualisation de séries temporelles et fonctionnelles, de textes (clustering, classification), de réseaux (statique ou dynamiques) ou d’images.   

Intégrer les technologies complémentaires (web sémantique, modélisation multi-agents) pour l’hybridation des approches intelligence artificielle connectivistes (réseaux de neurones) et symboliques (moteurs de raisonnement).   

Opérationnaliser une publication scientifique en implémentation informatique pour réaliser un prototype innovant.   B3C6 - Utiliser l’écosystème des solutions SAS pour la modélisation prédictive (préparation à la certification SAS® Certified Predictive Modeler Using SAS® Enterprise Miner™)   

  

Intitulé : Conduire des projets complexes en intégrant les contraintes légales et les valeurs d’éthique pour diffuser les bonnes pratiques dans les organisations. 

Descriptif  : 

Intégrer les philosophies, problématiques et contraintes des réglementations françaises et européennes (CNIL, RGPD) sur la protection des données dans un projet Data Science.   

Prendre la mesure de l’environnement international sur la réglementation de la protection des données, notamment aux Etats-Unis.

Intégrer les deux grandes familles de pratiques de gestion de projets informatiques complexes (en cascade et en agilité) ainsi que les approches du « juste-à-temps ».    

Modalités d'évaluation :

Intitulé : Analyser, concevoir et développer des modélisations mathématiques pour enrichir les systèmes d’aide à la décision 

Modalités d’évaluation : Examens écrits.
Projets d’application.
Mise en situation professionnelle réelle au travers du stage obligatoire d’application.   Bloc de compétences capitalisable pour obtenir la certification : 9 ECTS.


Intitulé : Concevoir et déployer des infrastructures informatiques distribuées pour stocker et traiter des données massives. 

Modalités d’évaluation : Questionnaires à choix multiples
Projets d’applications
Examen externe de certification industrielle « Amazon AWS Solutions Architect – Associate » Mise en situation professionnelle réelle au travers du stage obligatoire d’application.   Bloc de compétences capitalisable pour obtenir la certification : 9 ECTS


Intitulé : Détecter et évaluer l’état de l’art de l’intelligence artificielle pour développer des projets innovants. 

Modalités d’évaluation : Questionnaires à choix multiples.
Projets d’applications.
Examen externe de certification industrielle « SAS® Certified Predictive Modeler Using SAS® Enterprise Miner™ ».
Mise en situation professionnelle réelle au travers du stage obligatoire d’application.    Bloc de compétences capitalisable pour obtenir la certification : 10 ECTS 


Intitulé : Conduire des projets complexes en intégrant les contraintes légales et les valeurs d’éthique pour diffuser les bonnes pratiques dans les organisations.

Modalités d’évaluation : Mise en situation en travaux dirigés et pratiques.
Questionnaires à choix multiples.
Mise en situation professionnelle réelle au travers du stage obligatoire d’application.      Bloc de compétences capitalisable pour obtenir la certification : 2 ECTS.

RNCP34262BC01 - Analyser, concevoir et développer des modélisations mathématiques pour enrichir les systèmes d’aide à la décision

Liste de compétences Modalités d'évaluation

Explorer, décrire et interpréter des données dans leur aspect multidimensionnel.  

Produire des traitements de données simples en utilisant les concepts de la statistique descriptive, en vue de présenter les résultats obtenus à l’aide de tableaux, de graphiques et d’indicateurs numériques.  Mesurer la liaison entre deux variables.  Choisir les outils et déterminer leurs limites afin de communiquer les conclusions et leur interprétation.   

Produire des études statistiques en mettant en œuvre les techniques d’apprentissage automatique par la machine (machine learning) pour des données avec ou sans caractères temporels.  

Examens écrits.

Projets d’application.

Mise en situation professionnelle réelle au travers du stage obligatoire d’application.     

RNCP34262BC02 - Concevoir et déployer des infrastructures informatiques distribuées pour stocker et traiter des données massives.

Liste de compétences Modalités d'évaluation

Participer, avec des Data Engineers, à la rédaction’ un cahier des charges technique pour la conception et la mise en place d’une solution d’analyse des données volumineuses.

Exploiter un système distribué d’entrepôt de données structurées et non structurées, notamment via Apache Hadoop & Apache Spark.  

 Contribuer à la définition de l’architecture de stockage de données, en guidant les Data Engineers à prendre en compte les besoins de traitements algorithmiques de l’intelligence artificielle. 

Concevoir et implémenter des algorithmes pour le traitement des grands volumes de données dans le respect des bonnes pratiques de l’ingénierie logicielle (incluant les approches SQL et NoSQL).   

Exploiter des infrastructures informatiques distribuées en mode cloud sur la plateforme Amazon AWS pour y déporter des traitements algorithmiques de l’intelligence artificielle (préparation à la certification Amazon AWS Solution Architect – Associate)  

Questionnaires à choix multiples


Projets d’applications


Examen externe de certification industrielle « Amazon AWS Solutions Architect – Associate »


 Mise en situation professionnelle réelle au travers du stage obligatoire d’application.  

RNCP34262BC03 - Détecter et évaluer l’état de l’art de l’intelligence artificielle pour développer des projets innovants

Liste de compétences Modalités d'évaluation

Cibler et faire ressortir des modèles linéaires, non-linéaires, généralisés ou mixtes et construire des modèles complexes ou novateurs de prévisions en utilisant les techniques de modélisation, estimations, tests et diagnostics.  Identifier les variables ou composantes importantes d’un modèle afin de tester des hypothèses en utilisant les techniques de modélisation, estimations, tests et diagnostics.  

Modéliser des données observées, les interpréter pour en faire de la prédiction en utilisant des outils appropriés et en tenant compte de leur nature aléatoire. 

Déterminer et analyser des données complexes en utilisant les méthodes de fouille et de visualisation de séries temporelles et fonctionnelles, de textes (clustering, classification), de réseaux (statique ou dynamiques) ou d’images. 

Intégrer les technologies complémentaires (web sémantique, modélisation multi-agents) pour l’hybridation des approches intelligence artificielle connectivistes (réseaux de neurones) et symboliques (moteurs de raisonnement).   

Opérationnaliser une publication scientifique en implémentation informatique pour réaliser un prototype innovant.  

Questionnaires à choix multiples.


Projets d’applications.


Examen externe de certification industrielle « SAS® Certified Predictive Modeler Using SAS® Enterprise Miner™ ».


Mise en situation professionnelle réelle au travers du stage obligatoire d’application.  

RNCP34262BC04 - Conduire des projets complexes en intégrant les contraintes légales et les valeurs d’éthique pour diffuser les bonnes pratiques dans les organisations

Liste de compétences Modalités d'évaluation

Intégrer les philosophies, problématiques et contraintes des réglementations françaises et européennes (CNIL, RGPD) sur la protection des données dans un projet Data Science.   

Prendre la mesure de l’environnement international sur la réglementation de la protection des données, notamment aux États-Unis.  

Intégrer les deux grandes familles de pratiques de gestion de projets informatiques complexes (en cascade et en agilité) ainsi que les approches du « juste-à-temps ».  

Mise en situation en travaux dirigés et pratiques.


Questionnaires à choix multiples.


Mise en situation professionnelle réelle au travers du stage obligatoire d’application. 

Description des modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par correspondance :

L’obtention de la certification est conditionnée par la validation de l’ensemble des compétences évaluées. Les compétences sont évaluées par des examens, des questionnaires à choix multiples, des projets d’applications, des mises en situation professionnelles durant les enseignements, des certifications industrielles externes et une expérience professionnelle réelle durant un stage d'application de 6 mois obligatoire.

   Les diplômés présentent des compétences en : Mathématiques appliquées à l’analyse de données et l’intelligence artificielle. Développement informatique pour l’apprentissage automatique par la machine (machine learning) et l’intelligence artificielle avec les langages C, C++, Python, R, SAS. Exploitation des bases de données relationnelles avec SQL. Exploitation des réservoirs de données (data lake) avec des données structurées et non structurées, notamment sur l’architecture Hadoop & Spark. Exploitation de l’informatique dans les nuages (cloud computing) pour les systèmes distribués. Contextes juridique et éthique du traitement des données en France, Europe (RGPD) et Etats-Unis. Gestion de projets informatiques complexe.  

La certification ne peut être obtenue que par la totalité de l’acquisition des blocs compétences.   

La durée de validité d’une compétence acquise est à vie à l’exception des certifications industrielles externes qui ont une durée fixée par l’émetteur de la certification.   

Secteurs d’activités :

 Toutes entreprises industrielles et de services, organismes publics, associations, sociétés de services et de conseil en ingénierie (y compris informatique).

Toutes ces structures ont comme point commun de générer et/ou d’avoir accès à des volumes importants de données numériques.  

Type d'emplois accessibles :

Data Scientist

Machine Learning Engineer

Data Analyst

M1403 : Études et prospectives socio-économiques
M1802 : Expertise et support en systèmes d'information
M1805 : Études et développement informatique
M1806 : Conseil et maîtrise d'ouvrage en systèmes d'information  

Code(s) ROME :

  • M1403 - Études et prospectives socio-économiques
  • M1802 - Expertise et support en systèmes d''information
  • M1805 - Études et développement informatique
  • M1806 - Conseil et maîtrise d''ouvrage en systèmes d''information

Références juridiques des règlementations d’activité :

Non Applicable

Le cas échant, prérequis à l’entrée en formation :

 Formation initiale et continue à ce jour et VAE dans le futur 

Le cas échant, prérequis à la validation de la certification :

Pré-requis disctincts pour les blocs de compétences :

Non

Validité des composantes acquises :

Validité des composantes acquises
Voie d’accès à la certification Oui Non Composition des jurys
Après un parcours de formation sous statut d’élève ou d’étudiant X Cette information a été supprimée en application de l’article 17.1 du Règlement général sur la protection des données (RGPD)
En contrat d’apprentissage X Cette information a été supprimée en application de l’article 17.1 du Règlement général sur la protection des données (RGPD)
Après un parcours de formation continue X Cette information a été supprimée en application de l’article 17.1 du Règlement général sur la protection des données (RGPD)
En contrat de professionnalisation X Cette information a été supprimée en application de l’article 17.1 du Règlement général sur la protection des données (RGPD)
Par candidature individuelle X Cette information a été supprimée en application de l’article 17.1 du Règlement général sur la protection des données (RGPD)
Par expérience X

La composition du futur jury VAE répond aux critères spécifiés ci-après :

3 représentants de DSTI « Enseignement » :

  • le Responsable VAE
  • deux enseignants DSTI ayant des activités d’applications industrielles.

1 représentant DSTI « Conseil Scientifique et Pédagogique ».

3 représentants du monde industriel.


Ce jury est nommé par le Président de l’École, sur propositions respectives des Directeurs Généraux à l’Enseignement et aux Relation Extérieures.


Validité des composantes acquises
Oui Non
Inscrite au cadre de la Nouvelle Calédonie X
Inscrite au cadre de la Polynésie française X

Statistiques :

Statistiques
Année d'obtention de la certification Nombre de certifiés Nombre de certifiés à la suite d’un parcours vae Taux d'insertion global à 6 mois (en %) Taux d'insertion dans le métier visé à 6 mois (en %) Taux d'insertion dans le métier visé à 2 ans (en %)
2017 16 0 88 88 100
2016 22 0 86 86 100
2015 7 0 86 86 86

Liste des organismes préparant à la certification :

Référentiel d'activité, de compétences et d'évaluation :