Objectifs

  • Développer, tester et évaluer dans une démarche orientée sur le co-design des architectures et des services - technologiques et applicatifs - le couplage des approches Big Data, Big Analytics et Cloud Computing.
  • Privilégier, en vue de se différencier des travaux menés par les industriels et chercheurs américains (Google, Amazon, FaceBook, Tweeter) dont les travaux sont très orientés sur les techniques de stockage et d‘indexation des bases de données de nouvelle génération, le développement d’algorithmes avancés, adaptés au traitement des données, massives, complexes, hétérogènes et dynamiques (données de type grands graphes, données multi-modales, données issues de sources internes et externes, etc … ). Ce positionnement permettra en outre aux acteurs nationaux une entrée dans les champs méthodologiques et technologiques du Big Analytics et du Visual Analytics, lesquels restent à ce jour encore très ouverts.
  • Développer des capacités de stockage et de requêtage intelligent des données en s‘appuyant sur les nouveaux modèles de base de données, en exploitant quand cela est nécessaire et pertinent les approches hybrides associant bases relationnelles et non relationnelles.
  • Développer des capacités ou services de traitement d’analyse des données – la notion de traitement incluant les pré-traitements, l‘analyse et la restitution - en s‘appuyant notamment sur :
    • Des techniques de transformation et d‘agrégation des données (transformation des données non structurées en données structurées, créations d‘indicateurs et d‘agrégats, fusion de données … ),
    • Des techniques d‘analyse de données, fondées essentiellement sur Mapreduce, et adaptées au traitement des données, massives, complexes, hétérogènes et dynamiques, au traitement du flux en temps réel et aux défis applicatifs du projet,
    • Des techniques de restitution fondées sur le business intelligence et la visualisation dynamique et interactive des résultats d‘analyse
  • Proposer une architecture modulaire assurant un socle technique adapté au traitement des Big Data dans le nuage. Dans un premier temps les modules proposés seront les modules nécessaires au support des cas d‘usage du projet, un effort particulier sera fait ensuite afin de proposer une couche d‘abstraction isolant ces modules des technologies sous-jacentes.
  • Définir un cadre méthodologique permettant une représentation homogène des différents socles techniques ayant le moins d‘adhérence possible avec les produits sélectionnés. On s‘inspirera par exemple de l‘approche service REST/JSon,particulièrement intéressante dans une approche « data centric » puisque l‘on sépare clairement la représentation des données de leur moyen d‘accès.



Thales Université Lyon 2 UPMC LIMSI CNRS LABRI L2TI UTT ALDECIS INTHEMIS SYLLABS Gendarmerie Nationale Police Nationale VISEO Bordeaux INP ERIC SYNALTIC TALEND Université de Bordeaux