Dynamique des systèmes et adaptativité > Présentation

L’équipe « Dynamique des Systèmes et Adaptativité (eAdapt) » regroupe les chercheurs du L3i travaillant autour de la « dynamique des systèmes logiciel et l’adaptativité de ces système (interaction Homme Système) » et de la « dynamique des systèmes en réseaux et auto-adaptation de ces système ».

Le laboratoire L3i positionne ses recherches sur les méthodes, modèles, théories et outils liés à la gestion interactive et intelligente de la production, la structuration, l’accès, la manipulation et l’exploitation des contenus. Il propose des solutions pour de nouvelles orientations scientifiques : acquisition de données hétérogènes de niveaux de structuration variables, traitement de données réparties, individualisation des services par la mise en œuvre de traitements adaptatifs... Ceci nécessite la définition de nouvelles modalités de traitement et d’interaction liés aux différents contextes et aux comportements de l’humain dans les différents rôles qu’il occupe dans ces systèmes : depuis celui de producteur jusqu’à celui d’utilisateur des contenus. La problématique de la structuration de contenus dynamiques, complexes, hétérogènes, multiples, à des échelles d’intérêt potentiellement variables, requiert le développement de solutions issues de l’intelligence artificielle, intégrant une nécessaire contextualisation des traitements, l’utilisation de représentations sémantiques de niveaux variables (connaissances métier, expert), le développement de méthodes de raisonnements adaptatifs et d’apprentissage automatique, et le déploiement de nouvelles logiques d’adaptation des traitements liées aux interactions Homme-Machine et Homme-Contenus.

L’explosion massive des données hétérogènes, le développement des technologies de l’information et de communication a favorisé la production de données numériques. Aujourd’hui, tout utilisateur de système d’information est un producteur et consommateur potentiel de ressources numériques.

L’une des plus grandes problématiques engendrée par ce contexte concerne la gestion de ces ressources dans leur environnement personnel. Les utilisateurs des systèmes d’information souhaitent disposer d’environnements numériques qui leur permettent de mieux organiser, sélectionner et utiliser leurs ressources tout en collaborant avec d’autres utilisateurs autour de leurs ressources numériques.

De nombreux résultats ont déjà été obtenus dans le cadre de l’étude d’environnements informatiques numériques. Ils visent essentiellement à faciliter la mise à disposition de contenus numérique, accompagner l’utilisateur en offrant des modalités d’interactions avec le système et valider les connaissances acquises.

Notre objectif scientifique est de proposer une architecture logicielle et des heuristiques reposant sur l’interaction entre Humains et Systèmes afin d’adapter la logique d’exécution du système et la gestion des ressources associées aux contenus numériques.

Il repose sur les objectifs fonctionnels suivants :
 Pouvoir analyser en temps réel, de manière individualisée, le comportement d’un utilisateur
 Continuer le traitement de la manière la plus adaptée en fonction du contexte
 Le concepteur doit pouvoir mesurer la pertinence de son activité
 La logique d’adaptabilité de l’activité doit pouvoir être expliquée.
 Les contenus numériques sont gérés comme des ressources ; on cherche à sélectionner et éventuellement adapter les ressources les plus pertinentes (traitement/système/utilisateurs).

Responsable d’équipe :

Ronan CHAMPAGNAT

Objectifs scientifiques de l’équipes

Les développements récents de l’Internet et des nouvelles technologies de l’information et de la communication modifient en profondeur la nature et l’usage des systèmes d’information. Si l’utilisateur doit toujours réaliser un ensemble de tâches pour réaliser un service en utilisant ou produisant des documents, la profusion des données (notamment, celles massivement collectée via des nouveaux capteurs), la constitution rapide de réseaux sociaux fait que l’utilisateur doit être accompagné et ce de manière personnalisée et en fonction de ses objectifs d’accès aux contenus et aux services numériques. C’est dans cette optique que se situe notre stratégie de recherche pour les années à venir.

Par ailleurs, depuis 5 ans une partie de l’équipe s’est agrégée autour du projet de réalisation d’un environnement de conception, de pilotage et d’exécution adaptative de scénarios pédagogiques (e-éducation). Pour la période à venir, l’accent ne sera pas uniquement sur le domaine de l’e-éducation pour la mise en œuvre de nos résultats scientifiques. Le lien avec d’autres cas d’études, répondant à des enjeux sociétaux, sera mis en œuvre. Ainsi, ces cas d’études seront principalement liés aux domaines d’applications stratégiques du laboratoire (e-éducation ; valorisation de contenus numériques : e-tourisme ; environnement et développement durable : Gestion de crises, Smart cities) mais aussi sur un autre domaine connexe, qui est la gestion de processus métiers (BPM) agiles et la reprises sur erreurs.

Nous décrivons dans ce qui suit les problématiques scientifiques que nous allons nous atteler à traiter dans la période à venir.

Du capteur à la décision et de la décision au capteur

 Produire/capter efficacement des données de qualité

La quantité de données massives collectées par un réseau de capteurs sans fil à large échelle nous amène aujourd’hui à réfléchir aux moyens de minimiser son impact sur à la fois le réseau (consommation énergétique importante pour des capteurs fonctionnants sur batterie) que sur les capacités de stockage nécessaires à l’historisation de toutes les données collectées. Si l’on considère le problème de collecte de données comme un problème d’optimisation de la série de matrices représentant les données collectées à des instants particuliers, notre premier objectif est de proposer de nouvelles heuristiques permettant de collecter une partie des données uniquement et de reconstruire les données manquantes (matrix completion) à partir de celles collectées avec un minimum d’erreurs. Les propriétés de dispersion et de corrélation spatio-temporelle des données dans les réseaux de capteurs sans fil devraient permettre de réaliser cette optimisation / adaptation du processus de collecte des données de façon efficace (c’est-à-dire, avec un fort taux de compression possible). Par ailleurs, dans le cas ou une connaissance a priori est disponible sur le processus de mesure (ex. ensemble de valeurs possibles), le taux de compression atteignable pourrait être encore plus important tout en maintenant un taux d’erreur très faible.

Dans ce processus d’optimisation de la collecte des données captées, le taux d’erreur maximum à atteindre pourra même être adapté à la qualité des données visées par le processus de collecte. Toujours dans un esprit de qualification des données, les propriétés de dispersion et de corrélation spatio-temporelle des données dans les réseaux de capteurs, peuvent également permettre de détecter des anomalies (erreurs ou défauts dans le processus mesure) et ainsi minimiser leur impact voir même permettre de les corriger. Notre objectif ici sera donc d’aller encore plus loin en proposant de nouvelles heuristiques permettant de résoudre le problème conjoint d’optimisation / adaptation du processus de collecte des données tout en permettant la détection des anomalies et leurs corrections.

 Transformer les données/évènements en traces

L’objectif ici sera, sur la base des données (ou évènements) brutes collectées à large échelle à travers des réseaux d’objets connectés, de proposer des solutions au problème de gestion de grandes masses de données issues de ces réseaux afin de pouvoir produire des traces. On s’intéressera plus précisément à la structuration de ces données en tenant compte de la qualité des données contextualisées.

La gestion de ces grandes masses de données engendre de nombreux verrous scientifiques qui restent à lever. Parmi ceux-ci, nous nous intéressons à trois d’entre eux, lesquels sont complémentaires :

1) Pour le premier verrou, l’objectif sera de proposer des modèles permettant de représenter le processus de collecte de données dans ce contexte où les différentes sources de données utilisent des infrastructures de communications qui sont hétérogènes. Les paramètres de qualité de l’information (notamment de précision, complétude, coût, validité temporelle), constitueront les contraintes principales à prendre en considération ici. Par ailleurs, la qualité d’un ensemble de données dépend du matériel utilisé pour obtenir ces données, il est indispensable de fournir les moyens d’archiver les informations concernant les moyens d’acquisition ainsi que leurs processus d’obtention (métadonnées, norme ISO 19100).

2) Pour le second verrou, la structuration de grandes masses de données devient complexe dès que les données, les sources de données et les formats de stockage deviennent hétérogènes. Il semble raisonnable dans un premier temps de modéliser séparément les données homogènes pour par la suite fournir les moyens de les mettre en relation (sémantique). Le paradigme de modèle pivot est adapté lorsque les domaines des données sont suffisamment proches pour qu’ils partagent des propriétés. Si l’on considère que le recouvrement des domaines des données est faible alors les modèles pivot ne sont plus adaptés. Il est alors nécessaire de définir de nouveaux paradigmes pour mettre en relation ces données. Les travaux autour des bases de connaissance et des linked data sont une des pistes à explorer (projet Datalift).

3) Concernant le troisième verrou, lequel est transverse aux deux premiers, la qualité d’une donnée dépend de son usage futur et du point de vue que l’on porte sur elle (micro/macroscopique) ce qui fait référence à des problèmes d’échelle (spatiale et temporelle) et de granularité. En effet, suivant le point de vue employé, les étendues spatiales et temporelles vont modifier notre vision voire la pertinence d’un jeu de données. Ainsi, le troisième verrou sera transversal aux deux premiers. L’indicateur dit de « qualité » doit alors être contextualisé pour donner du sens lors de l’usage des données.

Ce travail nécessitant des compétences en liaison des données (Linked Data) et contextualsation, une collaboration avec un collègue de l’équipe « Modèles et connaissances » (Cyril Faucher) est prévue.

 Recommandation sur la base des connaissances captées

Les applications des réseaux de capteurs aujourd’hui ne sont plus spécifiques à une application ou un usage spécifique – c’est-à-dire, cas d’une multitude de capteurs, plutôt hétérogènes, associés à un seul mode de collecte de données (applications de surveillances, principalement). Aujourd’hui, on parle de communautés connectées avec des operateurs de services et des usagers autour de cas d’usages qui peuvent être divers (mobilité urbaine durable, efficacité énergétique dans les quartiers, supervision de risque environnementaux, ...). Dans ce cadre, il est nécessaire à la fois de collecter les données et les transformer en connaissances mais également de prendre en compte les contraintes des operateurs de services (autorité de mobilité, gestionnaire de parc immobiliers, sécurité civile, ...) et les souhaits/besoins des usagers dans un processus de recommandation permettant d’adapter constamment le système et sa dynamique (réseaux de transport, les bâtiments et les réseaux d’énergies associés, services de secours, ... ).

Le système de recommandation à base de données de capteurs, que nous préconisons de mettre en place pour adapter constamment le système et sa dynamique (Smart City, ici) aux contraintes des operateurs de services et aux souhaits des usagers se basera sur un ensemble d’outils de simulation et d’aide à la décision. Plus précisément :

4) L’outil de simulation visera à aider un utilisateur, aussi bien usager qu’operateur de service, agissant sur le système à une échelle localisée (échelle de l’usager) ou globalisée (échelle de l’operateur de service), dans son objectif d’analyse et d’évaluation des impacts des actions qu’il entreprend (objectifs vs contraintes).

5) L’outil de prise de décision basé sur le simulateur précédent devra permettre, en se basant sur des informations géographiques et temporelles, d’évaluer des scénarii d’adaptation du système tout en tenant compte des contraintes et des objectifs établis par les usagers d’une part et les operateurs de services d’autre part. Divers mode de scénarisation adaptative devront être pris en compte ici : scénarios connus à priori, classes de scénarios connues à priori, scénarios non-connus à priori.

6) L’outil d’adaptation des réseaux de capteurs et d’actionneurs communicants sans fil pour, respectivement, mieux récolter les données nécessaires sur le système ainsi que d’agir le plus finement que nécessaire sur celui-ci pour l’adapter. Ainsi, un calibrage adaptatif de ces capteurs et actionneurs afin qu’ils puissent remonter l’information à une granularité suffisante à la prise de décision est l’objectif de ce dernier outils.

Ce travail nécessitant des compétences en modélisation des données spatio-temporelles ainsi que les outils de raisonnements associés, une collaboration avec un collègue de l’équipe « Modèles et connaissances » (Alain Bouju) est prévue.

 Protection des données captées

Avec ses avantages potentiels, l’Internet des objets (IoT) a aussi des défis importants à relever. Un des plus importants aujourd’hui est lié à la protection des données issues de ces réseaux. On ne peut aujourd’hui s’intéresser à ce type de technologies sans prendre en compte ce défi. En effet, celui-ci est autant un frein et une limite qui empêche le développement et la croissance ces technologies afférentes à l’IoT.

Dans ce contexte, notre objectif est de définir de nouvelles approches pour la protection de la vie privée et la protection de l’accès aux données personnelles.

Les utilisateurs sont aujourd’hui encouragés à partager un maximum d’informations / données afin d’accéder à des services numériques à valeur ajoutée. Cependant, ces utilisateurs partageant les mesures collectées au sein de leur environnement, risquent d’exposer leurs informations privées corrélées avec ces mesures ainsi que le marquage associé à celles-ci (temps, localisation, qualité, ...). Ceci peut mener à divulguer des informations sensibles comme les lieux d’intérêt pour chaque utilisateur. L’approche usuelle pour éviter cela est de perturber l’information collectée avant sa transmission vers les plateformes de collecte. Cependant, le fait qu’une information soit perturbée peut lui faire perdre de son utilité et donc de réduire l’efficacité des services numériques à valeur ajoutée auxquels l’utilisateur souhaite accéder. Pour palier cela, nous proposons de travailler sur la mise en place d’un modèle de trade-off adaptatif qui permet la minimisation au maximum la fuite des informations privées tout en maintenant le respect des conditions de qualité de données exigés par les services numériques à valeur ajoutée auxquels l’utilisateur souhaite accéder. Le but sera alors de formuler cet équilibre entre ces deux objectifs antagoniste en un problème d’optimisation multi-objectifs et de proposer les heuristiques permettant sa résolution.

Afin de généraliser l’approche précédente et éviter toute brèche de sécurité pour les usagers en protégeant leurs données personnelles et de vie privée, nous nous proposons d’enrichir l’approche précédente par une base de connaissances regroupant les règles exprimant la politique de sécurité et de protection de la vie privée à appliquer. Des mécanismes de raisonnement sémantique pour la détection des attaques sur la vie privée ainsi que la préconisation de solution de défense (degré d’offuscation à appliquer aux données, entre autre) seront mis en œuvre.

Du contenu à la recommandation

 Gestion des ressources

L’écosystème numérique engendré par la production massive des données rend complexe l’organisation, la sélection, la qualité et l’usage de ces données par les utilisateurs. Les recherches ont montré que la volonté affichée par les utilisateurs est de disposer d’environnements leur permettant d’avoir une meilleure gestion (organisation et sélection) de leurs données numériques. Ils souhaitent travailler dans un environnement cohérent, avec des informations fiables malgré la multiplicité des sources de données et leurs hétérogénéités.

Ces données doivent également être pertinentes par rapport à leurs contextes d’utilisation et adaptées à leurs profils. Dans ce contexte, nos travaux visent essentiellement à mieux gérer l’interactivité avec les utilisateurs en adaptant le déroulement du scénario aux profils et au contexte. Nous facilitons ainsi la mise à disposition de contenus numériques en accompagnant l’utilisateur en lui offrant des modalités d’interactions avec le système, et en validant les connaissances acquises.

Or, cette adaptation n’est pas suffisante et nous devons aussi traiter de l’adaptation et de la sélection des contenus. Pour cela nous avons adopté l’hypothèse que l’utilisateur constitue son propre référentiel de données numériques. Nous souhaitons faciliter l’organisation de ce référentiel en prenant en compte les relations que cet utilisateur entretient avec d’autres utilisateurs (réseau social). Ces relations font parties des métriques pour qualifier la pertinence des éléments de ce référentiel au même titre que l’activité qu’il mène. Définir le cadre de l’activité que mène l’utilisateur revient à nous mettre dans un contexte de scénarisation d’activités personnelles dans un environnement collaboratif.

Ainsi, notre objectif est de permettre à un utilisateur, avec un certain profil, de disposer de la meilleure ressource pour réaliser son activité courante. Cela revient à sélectionner la meilleure ressource et à adapter son usage aux caractéristiques de l’utilisateur.

Pour atteindre cet objectif, nous avons identifié trois verrous scientifiques : modélisation des interactions et complétion des données du profil ; modélisation d’une ressource numérique orientée vers l’adaptation ; mécanismes de sélection adaptative de ressources numériques.

7) Le modèle de l’utilisateur est un élément essentiel dans un système interactif et adaptatif. Il permet de caractériser chaque utilisateur à travers un profil afin de proposer une exécution personnalisée. Notre objectif est de fournir une application de gestion adaptative et consolidée (cohérente et pertinente) de ressources numériques. Dans ce type d’application, les interactions de l’utilisateur avec le système et les ressources numériques représentent une part importante de son modèle de fonctionnement. Définir le modèle de l’utilisateur n’est pas suffisant, il faut que les données qu’il contient soient pertinentes et à jour. Pour permettre au système de disposer de toutes ces informations, il existe deux méthodes principales : collecte explicite et collecte implicite des données. La seconde nécessite la mise en place d’un système à base de traces. Ces traces seront ensuite analysées pour mieux compléter le profil utilisateur.

8) Le modèle conceptuel de production d’une ressource numérique consiste d’abord à transformer les données en informations. Ensuite, ces informations sont stockées sur un support sous forme de document numérique. Enfin, le document, associé à des métadonnées d’usage, constitue une ressource numérique. Pour adapter les traitements aux données, une ressource numérique adaptative doit contenir des mécanismes lui permettant de communiquer avec d’autres services (internes ou externes) et d’autres ressources numériques. Il faut définir un modèle capable de modifier sa configuration en fonction des caractéristiques de l’utilisateur et des caractéristiques de son activité.

9) La sélection d’une ressource pour une activité doit se faire à partir du profil de l’utilisateur, des caractéristiques de la situation et des données du réseau social. La pertinence n’est donc pas seulement la correspondance des mots-clés avec les champs de métadonnées, mais dépend également de la valeur d’une ressource pour un besoin d’usage. Il faut donc utiliser des méthodes de recherches d’information avec pondération des critères.

 Recommandation

L’objectif d’un système de recommandation est ainsi de fournir à l’utilisateur des objets pertinents selon ses préférences. Le système de recommandation réduit le temps de recherche de l’utilisateur et lui suggère des objets auxquels il n’aurait pas fait attention. L’essor du Web et la richesse en termes d’information ont notamment créé le besoin et contribué à la mise en place de ces systèmes. Ces derniers permettent notamment d’exploiter les préférences des autres pour prédire le comportement d’un individu donné. On parle alors de recommandation sociale.

La première étape pour une recommandation pertinente est la collecte d’information sur les intérêts et les préférences des utilisateurs. Ces informations sont extraites des actions observables par les systèmes qui ont une certaine relation avec ce que l’utilisateur cherche. Nous distinguons deux formes de collecte d’information : implicite et explicite.

Les deux formes de collecte ont des avantages et des inconvénients. La collecte explicite recueille des informations précises sur ce qu’on veut savoir mais elle contient le biais de la déclaration et une interrogation trop fréquente peu agacer l’utilisateur. Par contre, dans la collecte implicite, toutes les informations sont collectées automatiquement mais ces informations ne sont pas forcement fiables parce qu’un utilisateur peut acheter un objet qui ne le satisfera pas après.

Notre objectif est de définir des techniques de recommandation multicritères en se basant sur les informations de profil de l’utilisateur, les informations collectées sur l’usage de la ressource, les métadonnées de la ressource, la prise en compte des informations de contexte. Pour réaliser cet objectif nous devons définir des métriques capables de prendre en compte les différentes sources de données utilisées pour organiser les différentes données colletées. Un second verrou concerne l’estimation de la qualité de la donnée collectée. En effet, en plus d’observer la trace de l’usage de la ressource, il convient d’obtenir, de la part de l’utilisateur, sa satisfaction. Enfin un troisième verrou porte sur l’interrogation et l’organisation de l’information qui sera multidimensionnelle et avec des hiérarchies différentes.

Du processus métier à sa gestion agile et interactive

 Orchestration, pilotage des processus métiers

Le pilotage d’un système consiste à : i) organiser, en amont, les actions à mettre en place pour atteindre un objectif, éventuellement en optimisant un critère prédéfini ; ii) puis à prendre les décisions nécessaires, en cours d’exécution, pour réaliser les actions planifiées en fonction des possibilités du système. Pour réaliser ces deux objectifs, il faut déterminer, à un niveau stratégique, les objectifs à atteindre sur un horizon de temps plus important et, si nécessaire, modifier le système. En dernier lieu, il faut mener une analyse du système pour détecter les situations de blocages éventuels.

Plusieurs problématiques se posent : déterminer le planning prévisionnel ; définir le modèle du système ; définir un modèle formel pour l’analyse et des mécanismes d’analyse ; établir les relations entre le prévisionnel et l’exécution en temps-réel. Répondre à ces questions permet de déterminer l’architecture du pilote du système.
Les applications interactives sont devenues de plus en plus complexes au fil du temps en intégrant des volumes croissants de processus métiers et donnant accès à d’importants systèmes d’informations (SI) en terme de quantité et de variété de données. Les utilisateurs manipulant ces applications se retrouvent face à des multitudes de procédures pour exécuter ces processus métiers et d’accéder au SI. Ces procédures, qui peuvent être complexes et parfois redondantes, sont difficiles à appréhender et à contrôler, et potentiellement sources d’erreurs.

La problématique qu’on cherche à résoudre se place au niveau de l’amélioration de l’expérience utilisateur du point de vue de la navigation dans les applications métier de type ERP ; cependant les résultats attendus seront transposables à d’autres types d’application, comme par exemple les EIAH. En effet, les utilisateurs se retrouve de plus en plus face à des interfaces complexes donnant accès aux processus métiers de plusieurs manières différentes et parfois même qui ne sont pas toutes formellement prévues par le concepteur des applications elles-mêmes.

L’application, quand à elle, doit prendre en compte le comportement de l’utilisateur et l’état des ressources pour s’adapter au mieux à ses intérêts, ses besoins et ses capacités tout en respectant les contraintes et les objectifs fixés par le concepteur. De plus l’application doit tenir compte des interactions et des liens sociaux avec les autres utilisateurs. Par exemple, une application de formation en ligne doit tenir compte de l’état de l’apprenant, de sa vitesse de progression et de ses objectifs pédagogiques pour orienter la suite du scénario et l’amener à achever la formation d’après les critères définis par le formateur ou le concepteur du cours. Ainsi, le pilotage d’une application interactive nécessite de faire intervenir plusieurs logiques : celle du concepteur qui décrit la finalité de l’application et les règles pour pouvoir l’atteindre, celle du système qui décrit l’environnement d’exécution et les contraintes d’un point de vue système, celle de l’utilisateur qui définit la logique et les intérêts propres à chaque utilisateur et celle de l’expérience qui permet de prendre en compte les exécutions et choix passés de l’application.

Nos travaux actuels se placent au niveau de la logique de l’utilisateur. Ils proposent d’élaborer des mécanismes permettant de proposer une aide à l’utilisateur dans son utilisation de l’environnement. Notre proposition pour aider un apprenant à construire son parcours d’apprentissage est basée sur les deux étapes suivantes : analyser le parcours courant d’un utilisateur donné, et, corriger ou orienter ce parcours en cas de la détection d’un parcours menant à un échec.

Le parcours d’un utilisateur dans l’application peut-être apparenté à un processus enchaînant : des activités proposés par le système ou des tâches effectuées par l’utilisateur ou encore la navigation entre les états stables du système. Ainsi, la problématique ci-dessus peut se ramener à l’identification des processus des utilisateurs dans l’exécution de l’application et la reprise de processus en cas de détection d’une anomalie. Dans le cas des EIAH, lors de la découverte de parcours inadaptée par les mécanismes d’aide à l’apprentissage, le système notifiera l’apprenant ou le formateur sur cette trajectoire d’éventuel échec. Il pourra éventuellement intervenir automatiquement en sélectionnant et indiquant l’action ou l’enchaînement d’actions qui permettra à l’apprenant ou au formateur de reconfigurer les séquences d’activités pour se remettre sur processus menant à une réussite.

Pour atteindre cet objectif nous devons lever les verrous suivants :

10) Les traces fournissent une image des activités du système et sont d’ailleurs le point central de certains systèmes. Comprendre les traces permet de pouvoir récupérer des informations d’usages et de les analyser afin de visualiser les interactions des utilisateurs. Il est important de bien choisir les modèles de collecte et éventuellement de transformation des traces afin d’obtenir les informations pertinentes pour leur exploitation.

11) À partir des traces collectées ou transformées, le process mining (fouille de procédés) permet de reconstituer les processus des utilisateurs. Le domaine du process mining fournit des algorithmes et des outils qui exploitent les traces disponibles pour identifier les processus d’usage de l’application. Cependant, des travaux de recherche sont à mener sur l’élaboration d’algorithmes de reconnaissance et de comparaison de processus afin, d’une part, d’identifier automatiquement les différents processus présents et, d’autre part, de distinguer les processus nominaux des processus atypiques voire d’erreur. Ce travail peut aussi viser à élaborer des filtres automatisés selon la détection automatisée de certaines propriétés des processus trouvés. Il nécessite de considérer à la fois l’objectif de l’application (objectif pédagogique du concepteur du cours par exemple) et celui de l’apprenant (parcours personnel et personnalisé).

12) Le profil utilisateur permet de caractériser l’utilisateur et ses objectifs. Il représente les connaissances qu’on a sur un utilisateur donné. Ces connaissances peuvent être explicites ou implicites et en partie récupérées depuis les traces. Nous souhaitons d’une part une meilleure prise en compte du point de vue de l’utilisateur à travers la prise en compte de son profil, de ses préférences et de ses caractéristiques dans les processus de décision et de pilotage et, d’autre part, enrichir le point de vue de l’utilisateur et son propre parcours en fonction des profils et des parcours des autres utilisateurs et de ses interactions avec eux. Dans le contexte de nos travaux, le profil utilisateur, et en particulier la définition des ses objectifs personnels et pédagogiques, permettra de d’affiner l’analyse des processus utilisateurs et de rendre plus pertinente la reprise de processus proposée à l’utilisateur.

13) Un système de recommandation permet de suggérer, à un utilisateur donné, des items proches de ses intérêts en se basant sur la similarité de son profil avec celui d’autres utilisateurs. Nous souhaitons adapter ce principe général dans le cadre des parcours d’apprentissage. En effet, nous souhaitons recommander l’activité suivante selon le parcours (processus) courant de l’apprenant, son objectif final et l’expérience des autres apprenants.

 Fouille de processus/boucle de pertinence

La fouille de processus est une discipline de recherche relativement jeune qui se trouve entre l’intelligence artificielle et la fouille de données, d’une part, et la modélisation ainsi que l’analyse de données d’autre part. L’idée principale de la fouille de processus est de découvrir, de surveiller et d’améliorer les processus réels par l’extraction de connaissances à partir les logs d’exécution (les traces) générées lors des processus antérieurs et des exécutions précédentes de l’application.

Les techniques de fouille de processus sont capables d’extraire des connaissances à partir des traces d’exécution. L’information extraite est alors représentée à l’aide des modèles de processus. Ces techniques offrent de nouveaux moyens pour découvrir, surveiller et améliorer les processus dans les différents domaines d’application.
Le process mining regroupe des techniques de gestion de processus métier basées sur la journalisation des événements et l’analyse des traces d’activité. Le principe de base est d’extraire des connaissances à partir des informations enregistrées. Le process mining vise à améliorer cette extraction en fournissant des mécanismes et des outils pour identifier les structures des processus, de contrôle, des données, organisationnelles et sociales à partir des différentes traces.

Le process mining peut notamment aider à identifier les usages et améliorer l’expérience utilisateur. Comme application, on peut citer l’analyse du parcours des apprenants dans un environnement personnel d’apprentissage ou l’optimisation des processus métiers dans systèmes d’information gérés par des environnements de type ERP (Enterprise Resource Planning : progiciel de gestion intégré).

Les verrous portent sur la mise en place d’un SBT (Système à Base de Trace) adéquat pour la collecte et l’analyse de ces données, mise en œuvre d’outils d’analyse de traces et d’analyse du scénario, l’intégration de mécanismes d’aide à la décision pour améliorer l’expérience utilisateur en suggérant des parcours adaptés dans les processus métiers et l’optimisation des processus métiers à partir des traces collectées.

Membres de l’équipe :

Permanents :

Baudoux Marie-Hélène MCF
Champagnat Ronan MCF-HDR Resp. d’équipe
Estraillier Pascal PR
Ghamri-Doudane Yacine PR
Morcos Jacques MCF
Rabah Mourad MCF
Raveneau Patrice MCF

Doctorants et post-doctorants :

Aouini Zied Doctorant
Aroua Sabrine Doctorant
Ben Messaoud Rim Doctorante
Bizid Imen (doctorante en collaboration avec l’équipe Ingénierie des Connaissances)
Ho Hoang Nam ATER
Khan Junaid Doctorant
Leblay Joffrey Doctorant
Luong Duc Hung Doctorant
Sawadogo Daouda ATER
Sghaeir Nouha ATER
Suire Cyrille Doctorant
Tamani Nouredine Post-Doctorant
Zompras Dimitrios Post-Doctorant

Voir aussi

publie le vendredi 9 octobre 2020