Aller à la navigation principale Aller au contenu Aller à la navigation de bas de page
Répertoire national des certifications professionnelles

Expert Big Data Engineer (MS)

Active

N° de fiche
RNCP36398
Nomenclature du niveau de qualification : Niveau 7
Code(s) NSF :
  • 326 : Informatique, traitement de l'information, réseaux de transmission
Formacode(s) :
  • 11016 : analyse données
  • 31006 : sécurité informatique
  • 31014 : informatique décisionnelle
  • 31032 : système exploitation informatique
Taux d'insertion global moyen à 6 mois : 89%%

Taux d'insertion moyen dans le(s) métier(s) visé(s) à 6 mois : 89%
Date d’échéance de l’enregistrement : 25-04-2025
Nom légal SIRET Nom commercial Site internet
UNIVERSITE DE TECHNOLOGIE DE TROYES 19101060200032 UTT https://www.utt.fr/
Objectifs et contexte de la certification :

La certification Expert Big Data Engineer (MS) a non seulement pour objectif de fournir une vue d’ensemble sur le sujet du Big Data, mais aussi de transmettre les techniques clés pour la mise en œuvre des analyses décisionnelles sur ces données. Cette certification permet d’acquérir des compétences qui relèvent de quatre piliers du monde de la data :

  • Le premier traite de l’analyse de besoins et de la création de projet dans le contexte de la data et de sa réglementation.
  • Le deuxième est dédié à mise en œuvre d’infrastructures de stockage et d’analyse de la data.
  • Le troisième s’intéresse plus spécifiquement à un premier traitement de la data et à sa visualisation.
  • Le quatrième se concentre sur l’analyse et la modélisation des données.   

La certification Expert Big Data Engineer (MS) répond à une demande des entreprises en forte croissance dans le domaine du Big Data en proposant une formation au plus près des besoins de ces entreprises pour accompagner et/ou consolider leur mutation et positionnement stratégique dans ce domaine. Ces entreprises recherchent des experts du data-driven analytics capables de concevoir des solutions innovantes aux problématiques de gestion et d’analyse des grandes quantités de données générées par l’activité humaine et des systèmes sociotechniques. Les compétences des certifiés permettront aux entreprises faisant appel à leurs services de mettre en place des projets data dans le respect de la réglementation, d’améliorer l'architecture des projets data existants à l’aide des outils les plus récents, d’aboutir à la création d’indicateurs métiers ou de représentations graphiques des data, utilisables comme outils descriptifs d’aide à la décision. Les certifiés seront aussi capables de mettre en œuvre des techniques d’analyses encore plus poussés sur la Data de l’entreprises liés à la fouille de données, le Machine Learning (ML), la modélisation statistique, le Deep Learning (DL) ou l’intelligence artificielle. 

Activités visées :

Les missions de l'expert Big Data Engineer recouvrent les domaines suivants : 

ANALYSER L’EXISTANT ET PROPOSER DES SOLUTIONS LIÉES A LA DATA

Analyse des besoins et des problématiques : 

  • Référencement et regroupement de l'ensemble des sources de données structurées ou non structurées nécessaires et pertinentes à l'analyse ; 
  • Analyse de la problématique liée aux données (data) ; 
  • Conception d’un projet data avec les parties prenantes ; 
  • Prise en compte de l’outil informatique existant (serveurs de stockage).  

Identification des données de l’organisation 

  • Supervision d’une réunion d’équipe ; 
  • Management de projet de la team data ; 
  • Collecte des données auprès des différents services/responsables métiers ; 
  • Cartographie des données.  

 Formalisation du besoin et des solutions techniques : 

  • Formalisation du besoin et des enjeux ; 
  • Analyse de manière qualitative et quantitative du projet dans son ensemble ; 
  • Analyse des données (data) et des données non-structurées ; 
  • Réalisation d’un cahier des charges.  

Préconisations de stratégies en matière de possession, gestion et transformation des données : 

  • Proposition d’une stratégie data ;
  • Prise en compte du droit des données ; 
  • Prise en compte du cloud computing (serveurs, stockage, mise en réseau, logiciels) de l’entreprise/collectivité dans sa stratégie ; 
  • Prise en compte des risques liés à la donnée ;
  • Proposition de serveurs auprès des utilisateurs de l’organisation privée/public 

 

DÉPLOYER DES INFRASTRUCTURES INFORMATIQUES POUR ANALYSER LA DATA 

Définition de l’architecture de stockage  

  •  Identification des solutions de stockage possibles des données ; 
  • Utilisation d’un logiciel de stockage des données (Hadoop) ; 
  • Proposition de solutions d’entrepôts de données (stockage interne, stockage en ligne) en fonction de l’organisation ; 
  • Explication et documentation du choix de la solution proposée ; 
  • Prise en compte de la législation des données selon la situation des serveurs (UE/hors UE).  

Tests et mise en place de protocoles  

  • Réalisation de tests sur lesweb services ; 
  • Rédaction des protocoles à destination des utilisateurs de ces outils ; 
  • Communication auprès des équipes sur les protocoles existants et sur leur utilisation.  

Extraction d’information (Information Retrieval)   

  • Utilisation d’outils de visualisation de tendances en grandes dimensions ; 
  • Mise en place d’enrichissement des données ; 
  • Calcul d’indicateurs ; 
  • Mise en œuvre d’interconnexion et visualisation de graphes sociaux distribués.  

 

TRAITER ET VISUALISER DE LA DATA 

Mise en œuvre de langages et outils de programmation  

  • Utilisation d’une programmation pour l’analyse décisionnelle ; 
  • Utilisation de langages et outils de programmation (ElasticSearch Java mapReduce, Python, R, SCALA) ; 
  • Mise en œuvre des algorithmes de traitement de grosses volumétries de données.   

Réalisation d’une visualisation dynamique 

  •  Choix d’une solution de visualisation adaptée (Chart.js DataHero, Dygraphs, Instant Atlas Plotly, Kibana , Raw, …) ; 
  •  Utilisation d’outils de visualisation des données.   

Analyse des données et conseil auprès du commanditaire : 

  • analyse et visualisation spatio-temporelles ; 
  • utilisation de Scalable MultiMedia Analytics ; 
  • visualisation des données permettant de découvrir un phénomène non connu / de confirmer ou d’affirmer une information ou une hypothèse de travail ; 
  • interprétation des graphiques obtenues ; 
  • formalisation de rapports et de conseils (stratégiques, économique, organisationnelle …) auprès des utilisateurs dédiés.

 

ANALYSER ET MODÉLISER LA DATA 

Utilisation de données en grande dimension 

  • Utilisation d’un système de gestion de bases de données (Bigtable, HyperTable NoSQL, SQL …) ;
  • Transformation de la donnée ; 
  • Recherche de cibles (targets) ou de motifs (patterns) enfouis dans les données ; 
  • Segmentation des données afin d’évaluer des probabilités ; 
  • Mise en place d’un algorithme issu du Machine Learning pour prédire ou comprendre et expliquer.  

Déploiement d’un modèle d’apprentissage en profondeur (Deep learning) 

  • Mise en place d’applications de Deep Learning ; 
  • Déploiement d’un modèle via une interface de programmation (API) dans le web ; 
  • Réalisation d’un tableau de bord (Dashboard) pour présenter le travail de modélisation ; 
  • Communication sur le modèle d’apprentissage auprès des utilisateurs ;  
  • Prise en compte de la consommation d’énergie dans le choix des outils ou prestataires.  . 

Traitements de volumes de données 

  • Mise en œuvre avec le logiciel des applications sur des machines standards ; 
  • Traitement de grandes quantités de données ; 
  • Prise en compte de la consommation d’énergie dans le choix des outils ou prestataires 
Compétences attestées :

 La certification Expert Big Data Engineer (MS) permet de valider les compétences suivantes :  

  1. ANALYSER L’EXISTANT ET PROPOSER DES SOLUTIONS LIÉES A LA DATA 

Analyser  les problématiques au sein d’une organisation privée/publique en  mettant en place un déploiement d’une architecture ou d’une structure,  en interagissant avec des interlocuteurs différents et concernés par la  problématique.   

Animer  et mener une réunion avec tous les acteurs principaux et secondaires  concernés par une problématique existante ou nouvelle afin de trouver  les éventuelles solutions pour la résoudre en tenant compte de l’avis  des différents acteurs afin de s’imprégner de l’écosystème de la  structure dans lequel on intervient.     

Formaliser  le besoin émanant de la problématique au sein d’un cahier des charges dans le respect du budget alloué afin de proposer des solutions  réalisables et réalistes avec les données et ressources propres  possédées.   

Présenter  un rapport détaillé de faisabilité en tenant compte des paramètres  extérieurs tels que le développement durable, la réglementation en  vigueur liée à la confidentialité des données, l’éthique afin de les  rendre compatible avec les contraintes inhérentes à l’organisation.       

DÉPLOYER DES INFRASTRUCTURES INFORMATIQUES POUR ANALYSER LA DATA  

Identifier la façon dont l’organisation assure le stockage et le format des  données internes, structurées ou non structurées, en tenant compte des  données manquantes, erronées ou perdues, des différents processus en  fonction des pays, des entités qui vont produire les flux de données et de la réglementation en vigueur sur la confidentialité des données  (RGPD) afin d’avoir un jeu de données adaptée (exemples : Data Frame Python, R/Tibble).    

Mettre  en place les protocoles nécessaires à l’utilisation des web services au  sein de la structure en réalisant des tests sur les services et rédigeant une documentation et en communiquant auprès des équipes pour leur permettre de les utiliser de façon optimale.     

Mettre  en œuvre des techniques d’extraction d’information intrinsèque ou par  recoupement d’interconnexion en utilisant des outils permettant la visualisation de tendances en grandes dimensions afin d’extraire des  Data pertinentes dans les flux de données.    

TRAITER ET VISUALISER DE LA DATA  

Programmer  en utilisant des langages de programmation adaptés à la donnée récoltée  au sein de l’organisation et de la donnée provenant de sources  extérieures afin de mettre en place des algorithmes gérant le volume important des données.   

Utiliser des outils avancés pour la visualisation des données en choisissant les outils adaptés, en respectant les méthodes de représentation graphique afin d’obtenir une visualisation dynamique des données.  

Analyser  les données représentées graphiquement en identifiant les tendances et  les valeurs inhabituelles dans ces données afin de prendre des décisions en s’appuyant sur ces données et d’apporter ainsi une solution aux utilisateurs.    

 

ANALYSER ET MODÉLISER LA DATA  

Utiliser  des outils permettant l’analyse et la classification de données sous différents angles afin d’identifier les liaisons ou les patterns (motifs) entre les nombreuses bases de données relationnelles.   

Déployer un modèle d’apprentissage profond (Deep Learning) en développant des modèles, des algorithmes via une interface de programmation/graphique, en réalisant un document  méthodologique/technique et en communiquant oralement sur ce modèle afin de favoriser l’intégration et une démarche de modélisation auprès de ses utilisateurs.       

Assurer  le traitement de volumes (gros ou non) de données avec un langage de  programmation/logiciel dédié gérant des algorithmes et permettant à la structure d’opérer plus vite.  

Modalités d'évaluation :

L’évaluation est réalisée sous la forme de mises en situation professionnelle simulée, d’études de cas, ainsi que la remise des rapports et la soutenance des projets. Les candidats font également l'objet de deux autres évaluations transversales : l'une relative à la rédaction et à la soutenance de la thèse professionnelle, et l'autre à l'évaluation réalisée en entreprise par le tuteur ou le responsable de stage.

N° et intitulé du bloc Liste de compétences Modalités d'évaluation
RNCP36398BC01

Analyser l'existant et proposer des solutions liées à la data

Analyser les problématiques au sein de d’une organisation privée/publique en mettant en place un déploiement d’une architecture ou d’une structure, en interagissant avec des interlocuteurs différents et concernés par la problématique afin d’émettre des recommandations adaptées au contexte et au besoin de l’entreprise .

 

Animer et mener une réunion avec tous les acteurs principaux et secondaires concernés par une problématique existante ou nouvelle afin de trouver les éventuelles solutions pour la résoudre en tenant compte de l’avis des différents acteurs et afin de s’immerger dans l’écosystème de la structure dans lequel on intervient. 

 

Formaliser le besoin émanant de la problématique au sein d’un cahier des charges dans le respect du budget alloué afin de proposer des solutions réalisables et réalistes avec les données et ressources propres possédées. 

 

Présenter un rapport détaillé de faisabilité en tenant compte des paramètres extérieurs tels que le développement durable, la réglementation en vigueur liée à la confidentialité des données, l’éthique afin de les rendre compatible avec les contraintes inhérentes à l’organisation.  

Réalisation de Projets

En équipe, les candidats devront répondre à une problématique client fictive. En relation avec des experts, ils doivent étudier un système d’informations donné, appréhender le volume de données et les risques afin d’apporter des recommandations.

Un rapport détaillant les différentes étapes du processus de traitement de la problématique est attendu de chaque groupe, suivie d’une présentation orale. 

 

Contrôle continu sous forme d’évaluations écrites

Ces évaluations se réalisent sous la forme de questionnaires ou d’exercices.  Ils sont d’une durée d’une heure à deux heures au maximum. Il s’agit de questions portant sur la réglementation de la gestion de données massives et sur la méthodologie de l’analyse des besoins et des problématiques.  

 

Mise en situation professionnelle avec un jeu de données en équipe 

Il s’agit d’un travail en équipe sur des sites, afin de trouver des algorithmes. Ce travail se déroule en fil rouge. Les candidats sont dans une situation d’un travail en équipe, avec un chef d’équipe qui répartit les tâches au sein du groupe (vérification de la base, travail des algorithmes, rédaction d’un rapport…). Le candidat est mis en situation dans un groupe d’étudiants dont il anime une réunion en tant que chef de projet.  

Chaque équipe doit rendre une feuille de route de projet, détaillant les jalons définis, les acteurs et leur rôle, le tableau de bord de suivi du travail, et le reporting de la cartographie des données pour l’animation de la réunion.  

 

Réalisation de Projets

Rédaction d’un cahier des charges présentant le besoin et les contraintes (budget, délai, technique) et le présenter à l’oral.    En plus du rapport de projet, l’étudiant devra rendre un suivi écrit retraçant les éventuelles difficultés rencontrées et liées à la réalisation de l’objectif du projet.     

 

Étude de cas 

Il est remis à l’étudiant un scénario, dont il doit faire un rapport détaillé en tenant compte des différents aspects nécessaires au respect de la procédure réglementaire.   L’étudiant doit rendre le rapport et faire une présentation orale devant les membres du jury composé de l’enseignant et 3 étudiants. 

  Contrôle continu sous forme d’évaluations écrites

Elles se réalisent sous la forme de questionnaires ou d’exercices. Elles sont d’une durée d’une heure à deux heures au maximum. Il s’agit de questions portant sur la réglementation de la gestion de données massive et sur les stratégies en matière de possession, gestion et transformation des données. 

RNCP36398BC02

Déployer des infrastructures informatiques pour stocker, extraire et analyser la data

 Identifier la façon dont l’organisation assure le stockage et le format des données internes, structurées ou non structurées, en tenant compte des données manquantes, erronées ou perdues, des différents processus en fonction des pays, des entités qui vont produire les flux de données et de la réglementation en vigueur sur la confidentialité des données (RGPD) afin d’avoir un jeu de données adaptées (ex : Data Frame Python, R/Tibble) 

 

Mettre en place les protocoles nécessaires à l’utilisation des web services au sein de la structure en réalisant des tests sur les services et rédigeant une documentation et en communiquant auprès des équipes pour leur permettre de les utiliser de façon optimale.  

 

Mettre en œuvre des techniques d’extraction d’information intrinsèque ou par recoupement d’interconnexion en utilisant des outils permettant la visualisation de tendances en grandes dimensions afin d’extraire des Data pertinentes dans les flux de données.  

Réalisation de Projets : étude sur la mise en place d’un projet data en intégrant les contraintes techniques et législatives. Soutenance orale du projet.  

Chaque étudiant doit rendre sa feuille de route de projet définissant la charte du projet, le calendrier prévisionnel, la présentation des résultats en tenant compte des aspects législatifs.   

 

Réalisation de Projets : le projet porte sur la rédaction de protocoles / tutoriels. L’étudiant doit préparer des exemples types, et fournir des solutions adaptées à ces derniers. La mise en place d’un forum et wiki de discussion autour de l’outil mis en place est aussi requise.   

L’étudiant doit rendre son rapport avec les exemples types et les solutions sélectionnées 

 

Réalisation de Projets : mise en place d’outils de visualisation des données et de calculs d’indicateurs par exemple à l’aide des bibliothèques pandas de Python et tidyverse de R.    

L’étudiant doit rendre rapport et un script (une succession de commandes commentées soit sur Python/R).

RNCP36398BC03

Traiter et visualiser de la data

 Programmer en utilisant des langages de programmation adaptés à la donnée récoltée au sein de l’organisation et de la donnée provenant de sources extérieures afin de mettre en place des algorithmes gérant le volume important des données. 

 

Utiliser des outils avancés pour la visualisation des données en choisissant les outils adaptés, en respectant les méthodes de représentation graphique afin d’obtenir une visualisation dynamique des données. 

 

Analyser les données représentées graphiquement en identifiant les tendances et les valeurs inhabituelles dans ces données afin de prendre des décisions en s’appuyant sur ces données et d’apporter ainsi une solution aux utilisateurs. 

Réalisation de Projets : le projet est centré sur les aspects techniques de la résolution d’un ou plusieurs problèmes réels.  

Le projet se fait en petit groupe (chef de projet, programmeur et testeur). 

Les étudiants devront répondre à une problématique donnée à leur groupe. Un retour d’expérience des autres groupes est également proposé.    

Chaque groupe devra rendre son rapport de projet avant la soutenance devant le jury composé de l’enseignant expert et trois étudiants. Le retour d’expérience se fera à la fin des soutenances, chaque groupe choisira un orateur qui prendre la parole pendant 5 minutes pour donner leur impression par rapport à la vie de groupe. 

 

Réalisation de Projets : réalisation   et présentation d’une visualisation dynamique dans le cadre de son projet.  Les étudiants devront trouver par eux-mêmes  une base de données qui nécessite la mise en place d’une visualisation approfondie et dynamique. Les étudiants en binôme devront rendre un rapport de projet lors de l’évaluation.   

 

Réalisation de Projets : une base de données issue de tous les domaines possibles est donnée aux étudiants avec une problématique bien définie et des questions ouvertes. 

Des groupes d’étudiants procèdent à l’analyse des données. 

Il est attendu une présentation orale des résultats obtenus. Cette présentation est suivie d’échanges et de questions avec le professeur et deux rapporteurs choisis parmi les étudiants. Le reporting de présentation est requis.  

 

 

      

RNCP36398BC04

Analyser et modéliser la data

Utiliser des outils permettant l’analyse et la classification de données sous différents angles afin d’identifier les liaisons ou les patterns (motifs) entre les nombreuses bases de données relationnelles

Déployer un modèle d’apprentissage profond (Deep Learning) en développant des modèles, des algorithmes via une interface de programmation/graphique, en réalisant un document méthodologique/technique et en communiquant oralement sur ce modèle afin de favoriser l’intégration sa démarche de modélisation auprès de ses utilisateurs

Assurer le traitement de volumes variés (gros ou non) de données avec un langage de programmation/logiciel dédié gérant des algorithmes afin de permettre à la structure d’opérer plus vite.  

Réalisation de Projets : le projet demande dans un premier temps d’expliquer pourquoi nous sommes dans une problématique de grande dimension. La deuxième partie réclame la mise en application des techniques de grande dimension. La problématique est tournée soit vers un problème de classification, soit vers un problème de prédiction. Le rendu du projet se fera sous forme d’une présentation orale, devant un jury composé du professeur et de deux étudiants.    

 

Réalisation de Projets : le projet est tourné vers deux axes. Le premier axe concerne la prédiction. Pour qualifier cette prédiction, des indicateurs seront précisés et discutés (leur pertinence). Un deuxième axe est orienté vers la consommation de ressources et l’impact environnemental. 

L’étudiant devra rendre un rapport écrit en ne négligeant pas l’impact environnemental. En effet, il devra convaincre le lecteur au déploiement de son algorithme de Deep Learning

 

Réalisation de Projets :  le projet est axé principalement sur l’explication détaillée et argumentée par l’étudiant du traitement de la masse des données. Il ne négligera pas la prise en compte de l'énergie dépensée pour traiter la masse de données. Il devra mettre en concurrence plusieurs prestataires pour résoudre son problème d’énergie.    

Un rapport écrit est demandé avec la mise en pratique du traitement de la masse des données et les bons arguments. Il expliquera comment il a choisi et motivera ses décisions. La   présentation se fera à l’oral devant un jury composé du professeur et deux professionnels extérieurs.         

Description des modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par équivalence :

Le référentiel de certification est organisé autour de 4 blocs de compétences. Chacun de ces blocs de compétences peut faire l’objet d’une validation de manière indépendante.  Pour viser la certification professionnelle complète, le candidat doit valider les 4 blocs de compétences, rédiger une thèse professionnelle et la présenter oralement devant un jury composé d’académiques et de professionnels, en se basant sur son expérience en entreprise de 4 à 6 mois équivalent temps plein, consécutifs ou non, ou sur son expérience dans le cadre d'une alternance. 

Secteurs d’activités :

 Compte tenu de la transformation digitale de la société et de l’industrie qui va en s’accélérant, tous les types de secteur d’activités générant et manipulant les données sont concernés et en particulier : 

  • La (cyber)sécurité
  • La sûreté
  • Le réseau d’énergie
  • Les médias, le marketing, etc.  

De même toutes les tailles d’entreprises ou de service employeurs sont potentiellement concernés : 

  • grands groupes
  • startups, PME / TPE
  • industrie
  • sociétés de services et SSII
  • agence web et agence de communication
  • associations
  • établissements publics & collectivités territoriales
  • indépendant.   
Type d'emplois accessibles :

 Les titulaires de cette certification peuvent occuper différents types d’emploi : 

  • Expert Big Data engineer 
  • Consultant Big Data  
  • Ingénieur Big Data  
  • Architecte Big Data  
  • Data architect  
  • Data scientist et Chief data scientist 
  • Data governor 
  • Data analyst  
  • Business Intelligence Manager 
  • Master Data Manager   
  • Expert/consultant en informatique et systèmes d’information  
  • Expert en data visualisation  
  • Chief Data Officer  
  • Data Protection Officer (DPO)  
  • Machine Learning Engineer  
  • Chef de projet intelligence artificielle  
  • Développeur intelligence artificielle  
  • Ingénieur intelligence artificielle  
Code(s) ROME :
  • M1802 - Expertise et support en systèmes d''information
  • M1801 - Administration de systèmes d''information
  • M1805 - Études et développement informatique
  • M1803 - Direction des systèmes d''information
  • M1806 - Conseil et maîtrise d''ouvrage en systèmes d''information
Références juridiques des règlementations d’activité :

Le métier n'est pas règlementé, néanmoins dans l'exercice professionnel de son activité, l'expert Big Data Engineer doit respecter et tenir compte des droits, obligations et normes en matière de sécurisation et de gestion de données massives pour garantir sa mise en conformité. Il doit prendre en compte les obligations règlementaires et normatives en vigueur notamment le Règlement Général sur la Protection des Données (RGPD) et veiller à ce que le stockage, le traitement ainsi que la visualisation des données répondent au besoin. Il joue aussi un rôle de conseil en matière d’exploitation ou de monétisation de la donnée.  

Le cas échéant, prérequis à la validation des compétences :

Les conditions d’accès à la certification sont arrêtées par le Règlement intérieur des formations mastères spécialisés de la Conférence des Grandes écoles (CGE).

 

1/Conditions d’accès générales

 Sont recevables les candidatures d’étudiants titulaires d’un des diplômes suivants : 

  • Diplôme d’ingénieur habilité par la Commission des Titres d’Ingénieur (liste CTI) 
  • Diplôme d’une école de management habilitée à délivrer le grade de Master (liste CEFDG) 
  • Diplôme  de 3e cycle habilité par les autorités universitaires (DEA, DESS,  Master…) ou diplôme professionnel cohérent et équivalent avec le niveau  bac+5 
  • Diplôme  de M1 ou équivalent, pour des auditeurs justifiant d’au moins trois  années d’expérience professionnelle en sécurité informatique  
  • Titre inscrit au RNCP niveau 7 
  • Diplôme étranger équivalent aux diplômes bac+5 français exigés ci-dessus 


2/Conditions d’accès dérogatoires : 

  1. Dans  la limite de 40 % maximum de l’effectif de la promotion suivant la  formation Mastère Spécialisé concernée, sont recevables, après une  procédure de Validation des acquis personnels et professionnels (VAPP), les candidatures de personnes, justifiant a minima de 10 années d’expérience professionnelle (hors stage, césure, cursus initial en alternance).   
  2. Par  dérogation pour 30 % maximum du nombre d’étudiants suivant la formation  Mastère Spécialisé concernée, sont recevables les candidatures  d’étudiants titulaires d’un des diplômes suivants :  
  • Niveau M1 validé ou équivalent sans expérience professionnelle  
  • Diplôme de L3 justifiant d’une expérience adaptée de 3 ans minimum  


Le pourcentage total des dérogations prévues au a) et au b) ci-dessus ne doit pas excéder 40%.   



Validité des composantes acquises :
Voie d’accès à la certification Oui Non Composition des jurys
Après un parcours de formation sous statut d’élève ou d’étudiant X

Le jury de délivrance de la certification est composé du Directeur de la formation et de la pédagogie ou son représentant, du responsable de la formation de mastère spécialisé et deux représentants du monde professionnel extérieurs au dispositif de formation. 

Après un parcours de formation continue X

Le jury de délivrance de la certification est composé du Directeur de la formation et de la pédagogie ou son représentant, du responsable de la formation de mastère spécialisé et deux représentants du monde professionnel extérieurs au dispositif de formation.  

En contrat de professionnalisation X

Le jury de délivrance de la certification est composé du Directeur de la formation et de la pédagogie ou son représentant, du responsable de la formation de mastère spécialisé et deux représentants du monde professionnel extérieurs au dispositif de formation.  

Par candidature individuelle X -
Par expérience X

Le jury de délivrance de la certification est composé du Directeur de la formation et de la pédagogie ou son représentant, du responsable de la formation de mastère spécialisé et trois représentants du monde professionnel extérieurs au dispositif de formation.   

En contrat d’apprentissage X

Le jury de délivrance de la certification est composé du Directeur de la formation et de la pédagogie ou son représentant, du responsable de la formation de mastère spécialisé et deux représentants du monde professionnel extérieurs au dispositif de formation.  

Oui Non
Inscrite au cadre de la Nouvelle Calédonie X
Inscrite au cadre de la Polynésie française X
Lien avec d’autres certifications professionnelles, certifications ou habilitations : Non
Date de décision 25-04-2022
Durée de l'enregistrement en années 3
Date d'échéance de l'enregistrement 25-04-2025
Promotions (année d'obtention) pouvant bénéficier du niveau de qualification octroyé 2018|2019|2020|2021
Statistiques :
Année d'obtention de la certification Nombre de certifiés Nombre de certifiés à la suite d’un parcours vae Taux d'insertion global à 6 mois (en %) Taux d'insertion dans le métier visé à 6 mois (en %) Taux d'insertion dans le métier visé à 2 ans (en %)
2019 10 0 86 86 100
2018 11 0 91 91 100
Lien internet vers le descriptif de la certification :

https://www.utt.fr/formations/mastere-specialise/big-data-analytics-avancees-pour-la-decision


Le certificateur n'habilite aucun organisme préparant à la certification

Référentiel d’activité, de compétences et d’évaluation :

Référentiel d’activité, de compétences et d’évaluation
Ouvre un nouvel onglet Ouvre un site externe Ouvre un site externe dans un nouvel onglet