Axe stratégique ASPIC > Descriptif détaillé de l’axe ASPIC
Positionnement stratégique
Il s’agit, pour cet axe stratégique, de mettre en synergie les compétences établies dans les axes thématiques du laboratoire afin d’aborder la problématique de la valorisation des contenus numériques sous un angle systémique. Cela revient, en particulier, à une exploitation croisée des compétences en matière de serious games, d’indexation par le contenu, et de représentation de connaissances.
La « simple » juxtaposition de ces compétences reste toutefois insuffisante, dans la mesure où le principe de bouclage de pertinence induit, avec de fortes intrications entre les problématiques « interaction » et « contenu », de nouveaux enjeux scientifiques liés, notamment, à la caractérisation des contextes, à la description des contenus, à l’expression « multi-échelles » des sémantiques des informations manipulées, mais aussi à la recherche, à tout niveau, de la pertinence du contenu délivré, en fonction du comportement perçu et interprété des différents acteurs humains pris en compte dans le système.
Cadre des recherches
Afin de délimiter le champ de nos recherches dans cet axe, les différentes entités que nous considérons sont résumées sur la figure 1 et sont les suivantes :
Les Contenus seront principalement issus d’une capture reposant sur des mécanismes de numérisation, échantillonnage temporel, spatio-temporel. On traitera alors aussi bien du texte, du graphisme, de l’écriture, des symboles que des images fixes ou animées, généralement en grande quantité. Nous distinguerons les contenus « passifs » des contenus « actifs », suivant les possibilités d’enrichissement dynamique du contenu initialement produit (un document patrimonial du 16ème siècle est passif, alors qu’un contenu pédagogique produit avec un outil numérique sera considéré comme actif).
On fera ici l’hypothèse que les contenus manipulés prennent en compte des informations métiers et contextuelles éventuellement incomplètes et parfois semi-structurées.
Les traitements :associés au problème de pertinence de l’information, reposeront sur des indicateurs de qualité (correction, complétude, actualisation, cohérence vis-à-vis de l’utilisateur, ) et la manipulation d’une sémantique propice à l’interaction avec l’utilisateur. Ceci se traduit par la mise en œuvre d’analyse de contenus (image, signal, indexation), en adéquation avec la connaissance métier du contenu et les intentions pré-supposées de l’utilisateur. Ceci se concrétise également par la mise en œuvre de traitements adaptatifs et de prise en compte globale du bouclage de pertinence par la compréhension des objectifs (représentation, validation) avec une gestion fine des sémantiques associées aux contextes, en intégrant un aspect lié à la dynamique temporelle des contenus. Certains traitements prendront en charge l’analyse et la restructuration dynamique des données (clustering interactif, indexation adaptative, syndication, agrégation sémantique).
Les humains en interaction avec « le système » sont caractérisés par leurs compétences, leur profil culturel, social, leur capacité d’apprentissage variable, leurs objectifs individuels ou collectifs. Ils peuvent (simultanément ou non) être associés au processus de production de l’information ou de consommation, par exemple en contribuant explicitement au système d’informations par des annotations interactives graphiques et textuelle (surcharge et exploitation/recherche – avec analyse sémantique de la surcharge)
Pour le concepteur (producteur de contenu), il est nécessaire de proposer plusieurs outils : dématérialisation, modélisation et de métamodélisation des applications interactives (données et traitements) système auteur, gestion des ontologies, scénarisation d’applications interactives.
Dans le rôle d’utilisateur, il devra disposer d’outils d’indexation adaptative, de recherche d’information, de sécurisation, de navigation dans des corpus en masse, …
Les interactions reposent sur plusieurs modalités d’acquisition (capture non intrusive à partir d’analyse d’images, fusion de capteurs multimodaux, interface de modification, d’annotations …) et de visualisation par la gestion multi-supports (ordinateur, tablette ou smartphone), dans un contexte d’environnement communicant.
Problématiques scientifiques
La maîtrise de ce bouclage de pertinence repose sur la formalisation et le développement de modèles et d’outils permettant d’assurer la valorisation des contenus, en adéquation avec la diversité des usages et des usagers et de leur dynamique de production et de consommation des contenus. Pour ce faire, notre démarche consiste à poser un diagnostic sur la caractérisation générale de cette problématique, dans cet objectif de construction d’une boucle complète et générique d’exploitation de contenus numériques en vue de leur valorisation.
Les thématiques de recherche peuvent être catégorisées en 3 axes, non séquentiels (approche systémique)
1/ Représentation des connaissances
– La représentation des connaissances associées au contexte métier des contenus numériques, et à la manière de les analyser (ontologie métier, ontologie analyse d’image, …). La problématique consiste à utiliser le fait que nos contenus numériques véhiculent un message, lié à l’environnement de production du document et de son pré-supposé usage. Il s’agit là de formaliser les spécificités liées aux documents numériques que nous abordons dans le cadre de cet axe stratégique en modélisant ces connaissances par des formalismes ad-hoc (graphes conceptuels, treillis de Galois, ontologies….) , exploitables pour la génération dynamique de scénario d’analyse, mais également pour une analyse a posteriori des remontées des chaines d’analyse de contenu, pour l’indexation, la cohérence sémantique, …
2/ Analyse des contenus – Indexation – Recherche d’informations
– Considérant le fait qu’une boucle d’interaction est intégrée dans le système global, la caractérisation des contenus par des signatures statistiques et/ou structurelles pertinentes doit être étudiée de manière particulière: Il s’agit là de caractériser les contenus numériques par des méthodes d’analyse (analyse d’images, de signal, ….) pour les projeter dans des espaces de caractéristiques adaptés et favorisant les processus interactifs d’indexation, de navigation, de recherche d’informations.. Les problématiques de recherche associées sont étroitement liées
– La structuration des espaces de caractéristiques, afin de gérer les masses de données, au travers de méthodes de sélection de caractéristiques pertinentes, de techniques de clustering ou encore de projection dans des espaces adaptés (graph embedding, par exemple). La gestion des masses de données représente en effet un enjeu majeur, en particulier dans le contexte où les supports de représentation des connaissances, intégrant des données numériques et symboliques, s’appuient sur des formalismes complexes tels que les graphes conceptuels, les treillis de Galois, …
3/ Interaction – Visualisation – bouclage de pertinence – Scénarisation dynamique
– Les mécanismes de bouclage de pertinence et de profilage dynamique : cet aspect est tout à fait fondamental, dans la mesure où il exploite les interactions de l’homme avec les contenus numériques, pour re-structurer les espaces de caractéristiques et/ou de classes en fonction des actions de l’utilisateur (clustering interactif, …) d’une part, mais également pour capitaliser des informations sur le profil de l’utilisateur. Ceci permet d’adapter l’exécution de l’application pour interagir avec l’utilisateur de la manière la plus pertinente compte tenu du contexte identifié par la plateforme.
– Les mécanismes de recherche d’informations en contexte : Il s’agit là de travailler sur les modes d’exploration des espaces de caractéristiques, pour apporter des réponses efficientes aux processus de recherche d’informations. Il s’agira là de définir des stratégies pertinentes de parcours, en appui sur les techniques de recherche d’informations dans des espaces multidimensionnels.
– Les techniques de scénarisation personnalisées : les stratégies d’analyse des contenus dépendent fortement du contexte et de l’usager. L’objet de ces recherches consistera à formaliser les scénarii d’analyse des contenus de manière profilée à un usage (couple (contexte/usage), sur la base des apprentissages opérés pendant les phases d’interaction. Les recherches porteront ici sur des formalismes de représentation de ces scenarii et sur les techniques d’apprentissage adaptées. Une étude sémantique d’éléments temporels (attente, séquence d’actions) ou de certaines réalisations commandées par l’application et effectuées par l’utilisateur permettra de les interpréter en terme de comportement (par exemple à l’occasion d’un dessin : reconnaissance d’une forme répertoriée ou confinement de l’écriture dans un coin).
Dans tous les cas, il sera nécessaire de se référer à un corpus préalablement établi par le concepteur.
– L’introduction de comportements implicites de l’utilisateur constitue un élément de plus-value important. Dans ce cas, l’utilisateur n’exerce pas de contrôle explicite du système par son comportement- i.e. l’interprétation de son comportement pas le système est effectué à l’insu de l’utilisateur, qui n’a pas conscience que son comportement peut déclencher une action du système. Une difficulté majeure réside dans la détection et suivi de détails en temps réel. En plus des recherches sur l’analyse d’Images animées, une problématique de fond correspond à celle de l’intégration de données sémantiques dans l’aide à l’analyse d’images. Ceci repose sur la modélisation de l’utilisateur, du raisonnement et de l’expertise dont le calibrage repose sur des données incertaines et évolutives. Les contraintes temps-réel renforcent les problèmes difficiles de classification des comportements, de détection de situations et d’identification de contexte.
– Les problématiques de représentation et de visualisation des informations, en particulier dans un contexte massif : il s’agira d ‘élaborer des interfaces de visualisation, en adéquation avec le contexte, et en regard avec les attentes de l’utilisateur profilé, et intégrant les problématiques de grands volumes.
Approche
Ayant ainsi cartographié l’environnement scientifique, nous orienterons notre stratégie d’expérimentations sur deux projets pour nous assurer d’une certaine généricité. Dans ce contexte, les terrains d’expérimentations seront le contexte de la gestion de documents et la e-education, ces deux secteurs n’étant d’ailleurs pas du tout cloisonnés. Ils correspondent à des domaines d’activités du laboratoire et ont été identifiés comme stratégiques par nos partenaires industriels.
Dans la continuité des bases de la plateforme établies dans le cadre des recherches menées dans les projets du 13ème CPER., ces éléments seront intégrés dans une architecture logicielle globale. Cette architecture permettra d’aborder l’ensemble de ces problématiques dans une logique d’inter-opérabilité globale. Chacun des chercheurs contribueront ainsi à un ensemble collectif, valorisant sa recherche dans un environnement collectif décloisonné.
Interfaces de l’axe stratégique avec l’environnement du laboratoire
Cet axe trouve toute sa cohérence avec nos formations de niveau Master, d’une part avec le Master « Ingénierie des Contenus numériques en Entreprise », au sein duquel la modélisation des flux numériques dans les organisations est abordée sous un angle global, et d’autre part avec le Master Jeux Videos et médias interactifs, au sein duquel les question d’interactivités sont centrales.
Cet axe est par ailleurs dans la droite ligne du Projet d’implantation d’un Technopôle de dématérialisation et de valorisation de contenus numériques à La Rochelle. Base d’un écosystème pérenne, catalysant une industrie nouvelle génératrice d’innovation et d’emplois, et mobilisant au plan technologique les meilleurs acteurs académiques au plan européen et des acteurs industriels majeurs, ce projet bénéficie d’un ancrage territorial et d’un soutien appuyé des collectivités territoriales (notamment du département de la Charente-Maritime).
Les Partenaires académiques sont
• En France : Laboratoire L3i – Université de la Rochelle, Laboratoire LABRI – Université de Bordeaux, CNRS, laboratoire LIRIS – Université / INSA de Lyon, CNRS, Laboratoire LIPADE – Université de Paris 5, Projet Qgar INRIA Grand Est – LORIA Nancy, LI – Université de Tours, LITIS – Université de Rouen.
• En Europe : Dipartimento di Sistemi e Informatica de Firenze, Italie, School of Computing et avec Science and Engineering University of Salford, Royaume Uni, German Research Center for Artificial Intelligence), Allemagne, CVC – Université Autonome de Barcelona, Espagne.
• Aux états Unis : Computer Science & Engineering, Lehigh University
•
Les Partenaires industriels sont IBM, IRIS, ATOS Origin, et Canon ;
Ce consortium est soutenu par l’APROGED, Association Nationale des Professionnels pour l’Economie Numérique, qui regroupe plus d’une centaine d’entreprises de toutes tailles, dont les acteurs majeurs du domaine, et qui représente un acteur majeur international en termes de normalisation. Ce partenariat technologique est en cours d’ouverture pour répondre à une demande pluridisciplinaire critique pour la recherche notamment en sciences de l’environnement et en sciences humaines et sociales.