Chapitre 9 : Problèmes à résoudre

 

L’auteur d’une thèse n’a jamais l’impression d’avoir achevé sa recherche. Ce travail n’échappe pas à la règle. Nous allons maintenant indiquer quels aspects nous paraissent pouvoir prolonger ce travail tant d’un point de vue scientifique que technologique.

 

9.1 La genèse des connaissances

Dans une certaine mesure, nous avons fait abstraction de la manière dont les connaissances étaient construites. Nous avons envisagé comment perfectionner des connaissances existantes, mais pas comment créer les connaissances premières relatives à un domaine particulier. Cette question est pourtant d’une importance cruciale si l’on désire comprendre correctement l’intelligence humaine.

 

9.1.1 Le module logique

Les aspects systématiques des capacités logiques humaines, que l’on peut notamment relever au cours des conversations spontanées et qui permettent d’expliquer simplement les performances constatées en résolution de problème, semblent indiquer qu’elles ne sont pas le fruit d’un apprentissage (voir à ce sujet [DES 98] qui indique les conditions dans lesquelles un apprentissage indifférent est possible, et le lien qui peut alors être fait avec le caractère inné ou acquis d’une capacité cognitive donnée). Mais même si le module logique est inné[1], il est bien clair que les connaissances logiques (ou au moins une grande partie d’entre elles) sont apprises. La question se pose alors de savoir comment se créent les premières règles logiques. Par ailleurs, et même si nous avons tracé des pistes d’évolution possibles pour les règles logiques, la dynamique d’évolution des règles en fonction de leur modalité est une question restant à régler.

 

9.1.1.1 La construction des connaissances

La construction des règles improbables et indésirables semble intuitivement pouvoir s’expliquer par l’expérience. Des recherches en laboratoire peuvent même être envisagées afin de découvrir sous quelles conditions ces règles apparaissent. La construction des règles paradoxales semble plus problématique. Une règle logique n’est pas la limite d’une règle d’improbabilité. Nous avons proposé un mécanisme d’apprentissage d’une nouvelle règle à partir de règles anciennes. Mais comment expliquer la création des premières règles ?

Nous avons évoqué lors du chapitre 8 une règle générale de non-ubiquité, exprimant l’idée qu’un objet ne peut se trouver simultanément en deux endroits différents :

 

[[X est en Y, X est en Z, Y ¹ Z], []] Þ Paradoxe

 

Bien que nous ayons la capacité de la remettre en cause (c’est d’ailleurs l’origine du concept d’ubiquité), nous ne le faisons pas dans les situations pratiques que nous rencontrons. Cette règle semble suffisamment générale pour que nous l’appliquions dans des situations très différentes comme les enquêtes criminelles (notion d’alibi)  et les résolutions de jeux logiques (un disque n’est pas sur deux pitons à la fois dans la tour de Hanoï).

Des règles de ce type évoquent deux questions :

 

· Existe-t-il des règles paradoxales universelles, et si oui, comment ces règles sont-elles construites ? La règle précédente est une règle générale, et elle est vraisemblablement partagée par tous. Si on accepte l’existence de telles règles, il faut encore répondre à la question de savoir si elles sont innées ou acquises, et dans ce dernier cas comment.

· L’expérience permet-elle la création de règles paradoxales ? Compte tenu du modèle, cela semble a priori exclu, puisque les règles paradoxales ne sont pas des cas limite des règles d’improbabilité. Cependant, un jeune enfant ignore par exemple la règle de la non-ubiquité (‘va voir là-bas si j’y suis’). Plus généralement, les travaux de Piaget, s’ils sont replacés dans le contexte de notre modélisation, semblent indiquer que les règles paradoxales s’apprennent par étapes dans les premières années de la vie (comme par exemple la conservation de l’eau quand on le verse d’un verre large dans un verre étroit [PIA 47]).

 

Nous sommes ici en présence d’une contradiction, puisque les règles paradoxales semblent apprises par l’expérience alors qu’aucun mécanisme ne peut expliquer la transition justifiée de l’expérience vers la logique. Afin de sortir de ce paradoxe, peut-être convient-il d’accepter le fait que ces transitions existent, et qu’elles ne sont pas logiquement justifiées.

La création d’une règle paradoxale peut-être envisagée comme un processus actif. Dans un premier temps, l’expérience du sujet l’amène à une règle d’improbabilité rendant compte de cette expérience. Puis, quand l’expérience devient suffisante, la modalité de la règle peut passer d’improbable à paradoxale. Nous avons indiqué que les règles paradoxales n’étaient pas des cas limite des règles improbables, parce que les mécanismes mis en œuvre autour d’elles sont qualitativement différents. Mais cela n’interdit pas d’imaginer une transformation de la modalité des règles. Si les traitements applicables dépendent de la modalité, et que les transitions d’une modalité vers l’autre sont possibles, il n’y a plus ici de contradiction. On notera enfin que cette démarche est celle qui est appliquée dans les sciences expérimentales.

Explorer les mécanismes d’apprentissage des règles paraît indispensable pour compléter le modèle. L’apprentissage par le biais de l’expérience semble être envisageable, et demanderait confirmation. Afin de mener cette étude, une étape intermédiaire peut se révéler intéressante : l’étude de la dynamique de l’évolution des connaissances.

 

9.1.1.2 La dynamique de l’évolution des connaissances

Le processus d’acquisition initial des connaissances logiques n’est peut-être pas qualitativement différent du processus d’acquisition ultérieur de ces mêmes connaissances. Certes, la compilation logique des connaissances n’est possible que si l’on dispose déjà de connaissances. Mais ce mécanisme n’est peut-être pas le premier responsable de la création des règles. Il n’est pas absurde de le considérer comme un moyen supplémentaire, et plus rapide, de bâtir de nouvelles connaissances. Le principe de parcimonie nous pousse même à penser que s’il existe un processus d’acquisition initial, il n’a aucune raison de disparaître avec l’expérience.

L’étude de la dynamique de l’évolution des connaissances (i.e. comment s’effectue les modifications sur les règles) peut alors permettre de mieux comprendre l’acquisition initiale. Deux modalités peuvent être traitées avec une certaine facilité :

 

· La modalité improbable est basée sur un rapport entre le nombre de situations présentant une caractéristique particulière et le nombre de situations de contexte similaire rencontrées par le sujet. Des expériences en laboratoire peuvent être construites afin de mesurer cet effet. A titre d’exemple, on pourrait présenter au sujet une série de situations (des figures géométriques de forme variable et de couleur bleue), et lui demander de signaler quand quelque chose lui paraît anormal dans la situation présentée (couleur rouge). En faisant varier le nombre de situations normales présentées avant la présentation de la première exception, on peut obtenir des indications quant au nombre d’expériences nécessaires à la création d’une règle. Des expériences permettant de mesurer la valeur de l’improbabilité a priori sont même envisageables, en demandant par exemple au sujet d’exprimer a posteriori la probabilité d’apparition a priori du symbole que l’on vient de lui montrer.

· Les valeurs numériques de la modalité indésirable sont plus difficiles à définir. Par contre, il semble possible de classer des situations en fonction de leur indésirabilité. Des expériences pourraient donc être menées afin de déterminer quelle hiérarchie se dégage entre différentes situations indésirables, en fonction du contexte. Des jeux économiques peuvent ainsi être envisagés où, en faisant varier les conditions, on cherche à mesurer le pourcentage de sujets prenant une décision d’achat. Une autre étude pourrait être de mesurer l’effet d’une situation d’inconfort sur le comportement de sujets placés en situation de résolution de problème. Les objectifs d’un problème s’exprimant sous formes de règles d’indésirabilité, il serait intéressant de noter à partir de quel degré d’inconfort le sujet interrompt la résolution pour remédier à la situation inconfortable. Enfin, une mesure de l’évolution de la performance d’un sujet en fonction du temps permettrait de mesurer à quel rythme il s’habitue à une situation indésirable : l’habitude à une situation inconfortable réduit la valeur d’information conversationnelle de cette situation. Selon notre modèle, la performance du sujet doit s’améliorer dans de telles conditions. Cependant, cette dernière expérience est sans doute difficile à mener car les effets de fatigue (due à l’inconfort) et d’apprentissage de la tâche risquent de modifier également la performance.

 

L’étude de la dynamique de la modalité paradoxale paraît plus difficile, car aucun mécanisme d’apprentissage ne paraît suffisamment établi pour pouvoir monter des expériences. Si on accepte l’idée de la transition de la modalité improbable vers la modalité paradoxale, on peut alors construire des expériences permettant de mesurer cet effet. Ainsi, on peut reprendre l’expérience proposée pour les situations improbables, récompenser le sujet s’il réussit, et l’éliminer du jeu au premier échec. Dans cette situation, on peut espérer que le sujet attendra d’être sûr de sa réponse avant de la fournir. Reste que pour cette modalité, un travail de recherche est sans doute encore nécessaire afin de préciser quels mécanismes peuvent le mieux expliquer l’apprentissage des règles.

 

9.1.2 L’opérateur

L’analyse de cette étude fait apparaître un déséquilibre entre les deux parties de notre modélisation. Le module logique est nettement plus détaillé que les opérateurs, qui apparaissent comme des boîtes noires sur lesquelles nous avons seulement réussi à définir quelques contraintes. Ainsi, le module logique a pu être réutilisé quand nous avons changé d’application, alors que l’opérateur à du être redéveloppé dans chaque cas. Cela n’a rien d’étonnant, puisque le module logique est général, alors que les opérateurs sont spécifiques aux tâches qu’ils permettent de résoudre.

La spécificité des opérateurs rend difficile le développement d’un modèle permettant d’en rendre compte. Cependant, l’étude de l’apprentissage des opérateurs peut éventuellement nous donner des indications supplémentaires sur les contraintes qui pèsent sur eux. Là encore, on serait tenté dans un premier temps de séparer la construction initiale d’un opérateur et l’apprentissage ayant lieu  au cours des résolutions. Un problème s’oppose pourtant à cette séparation. Il est en effet difficile de décider si un sujet est effectivement novice sur un problème donné. Ainsi, sur la tour de Hanoï, il est bien clair que même si la définition des coups légaux est inconnue des sujets novices, ils ont déjà résolu des problèmes impliquant des empilements. En outre, les contraintes choisies renforcent la familiarité avec le problème, en obligeant les sujets à empiler en posant les disques les plus gros le plus bas possible. Cela est conforme à l’expérience que chacun de nous peut avoir de la stabilité d’un empilement.

L’influence de l’expérience sur des problèmes dits nouveau pour le sujet considéré est d’ailleurs confirmée par les études menées sur les problèmes isomorphes de la tour de Hanoï, abordés au chapitre 6, où le changement de l’apparence de l’opérateur suffit à perturber la résolution, parfois de manière spectaculaire. La perception de l’espace problème, ainsi que des opérations légales, peut également poser problème. Ainsi, apprendre à jouer aux échecs sans apprendre au préalable les déplacements légaux des pièces et en se contentant d’une confirmation où d’une infirmation de la légalité des mouvements envisagés semble extrêmement difficile. Il semble donc que l’apprentissage d’un nouveau domaine s’appuie toujours sur des connaissances initiales venues d’autres domaines.

Construire des expériences permettant d’examiner la découverte d’un nouvel opérateur reste cependant possible. Certain des isomorphes de la tour de Hanoï sont des bons candidats pour cette tâche, puisque la difficulté avec laquelle ils sont abordés par les novices semble montrer que ces derniers ne possèdent initialement pas les éléments leurs permettant de débuter leur recherche.

L’optimisation des opérateurs par le biais des préférences est un deuxième problème à résoudre. Deux questions se posent à ce propos :

 

· Dans quelles conditions s’effectuent les changements de préférences pour une situation donnée ? Un certain nombre d’hypothèses peuvent être émises à ce propos (confirmation par le succès, modification par l’échec, modification au moment des productions contre-factuelle, modifications aléatoires,…), ce qui appelle un travail expérimental afin d’effectuer une sélection parmi celles-ci.

· L’opérateur porte-t-il une valeur de «confiance» ? Notre intuition est qu’avec l’expérience du domaine se développe une forme «d’autonomie» de l’opérateur qui, par les préférences, devient capable de résoudre partiellement ou même totalement un problème connu. Ainsi, un sujet expert en résolution de la tour de Hanoï (ce que devient rapidement toute personne l’utilisant dans ses recherches) est capable de résoudre le problème sans faire appel à la réflexion, et bien entendu sans erreurs. Mais cette compétence se trouve détruite par le changement du piton de départ. Le sujet ne ralentit pas sa résolution mais commet alors des erreurs (sans le réaliser nécessairement au moment où il les commet). Là encore un travail de recherche paraît nécessaire pour confirmer ou invalider cette intuition.

 

9.2 Applications envisageables

Mieux comprendre le fonctionnement du monde qui nous entoure peut apparaître intéressant en soi, et pourrait constituer une justification suffisante de la poursuite des travaux que nous avons entrepris. Mais notre recherche peut déboucher sur des progrès technologiques importants. Nous allons maintenant, en guise de perspectives, examiner quelles applications rendrait envisageables la résolution des problèmes que nous venons d’évoquer.

 

9.2.1 Résolution automatique de problèmes

Le modèle que nous avons développé est un modèle du comportement de sujets humains en situation de résolution de problème. Les capacités de résolution sur un domaine encore jamais abordé sont médiocres. Cependant, la capacité d’apprendre des domaines nouveaux est présente. On pourrait donc être tenté de vouloir développer une application de résolution automatique de problèmes.

A l’heure actuelle, le développement d’un opérateur est une tâche difficile. Il faut en effet modéliser l’espace-problème, puis définir les opérations légalement réalisables sur cet espace-problème. Les développements actuellement envisageables ne seraient en rien portables. Chaque nouveau domaine demanderait un nouveau développement.

Par ailleurs, une fois ce développement effectué, le reste du modèle devient inutile ! En effet, un ordinateur, contrairement à un humain, est capable d’explorer la totalité de l’espace problème, pour peu qu’on lui en laisse le temps. Les seuls domaines d’applications envisageables pour un tel système sont des domaines où la taille de l’espace de recherche est trop importante pour pouvoir effectuer une recherche exhaustive.

Pourtant, si les questions posées au paragraphe 9.1.2 étaient résolues, il deviendrait possible de développer une application générique de résolution de problème, capable d’apprendre un espace-problème et un opérateur associé. L’application réalisée deviendrait alors entièrement portable. La performance d’un tel système serait médiocre lors des premières résolutions, mais elle progresserait avec l’expérience. En outre, l’expertise de l’application serait ensuite disponible, ce qui permettrait de la transmettre à des sujets humains.

Enfin, une telle application pourrait faire abstraction des limites de l’appareil cognitif humain. La profondeur de recherche pourrait ainsi être grandement augmentée, ce qui permettrait d’obtenir des solveurs artificiels plus performants que les sujets humains.

Dans l’état actuel du modèle, il est déjà possible de réaliser des applications spécifiques ayant un intérêt. Nous ignorons les mécanismes permettant de créer un opérateur à partir de rien. Cependant, si l’opérateur est fourni, il est possible de perfectionner celui-ci de manière automatique par l’optimisation des préférences. Nous ne connaissons pas les mécanismes de perfectionnement des préférences pour les sujets humains, mais ce problème n’est pas bloquant. Pour réaliser une telle application, il suffit en effet de choisir les mécanismes les plus efficaces, en ignorant leur plausibilité psychologique.

L’application ainsi obtenue développerait alors un comportement expert après entraînement. Sur un problème typique du domaine, les préférences et l’exploration seraient suffisants pour trouver la solution et une procédure de déblocage serait disponible pour les problèmes moins usuels.

 

9.2.2 Systèmes critiques

L’application initialement prévue pour notre recherche était la construction de systèmes critiques. Comme nous l’avons vu au chapitre 8, cet objectif n’a pu être réalisé de manière satisfaisante, par le fait de contraintes temporelles. Les développements ont en effet été entrepris trop tôt, à un moment où notre modèle ne comprenait pas de module de calcul. Notre expérience nous amène à penser qu’il est encore trop tôt pour pouvoir appliquer efficacement cette recherche en EIAO. Les problèmes à résoudre sont en effet trop nombreux pour permettre un développement aisé de tels systèmes.

Cependant, une fois apportées les réponses aux questions posées au paragraphe 9.1, il devient possible de concevoir une nouvelle forme de système critique. Découvrir la cause d’une mauvaise résolution est une tâche ardue. Dans de nombreux cas, les causes possibles d’une résolution défectueuse seront multiples, bien qu’il soit sans doute possible de déterminer à quelle classe appartient une erreur (erreur logique, opérateur incomplet, erreur de préférence…), comme nous le proposons dans [AUR 98b].

Il n’est toutefois pas indispensable de pouvoir déterminer le pourquoi des erreurs d’un sujet humain pour les corriger. L’idée consiste à ne pas développer un système tuteur, qui cherche à comprendre le pourquoi d’une résolution, mais plutôt un système pair, qui cherche à en comprendre le comment.

Le système critique se présente alors sous la forme d’un étudiant artificiel, qui cherche à résoudre en même temps que l’apprenant le problème posé. Les interventions du critique ne visent pas alors à expliquer le domaine (qui est considéré connu par l’apprenant), mais à discuter la qualité de la solution. Le nombre d’interventions du critique est dans ce scénario un paramètre à régler qui peut varier au cours du temps. Un double écueil est à éviter. Si le critique intervient trop fréquemment, l’apprenant aura l’impression de suivre les instructions du système, et risque de développer un comportement passif vis à vis du problème. Mais si le critique intervient trop peu, il ne joue plus son rôle.

L’idéal serait que le pair artificiel soit en permanence légèrement plus performant que l’apprenant. Pour cela, il faut établir une hiérarchie dans les fautes possibles des plus graves (violation de consigne) aux plus anodines (différence de préférence). Ensuite, il suffit de maintenir à un niveau constant le rapport entre le nombre d’interventions du critique et le nombre d’actions de l’apprenant. Ainsi, quand l’apprenant commet un grand nombre d’erreurs, seules les plus graves lui sont signalées. Puis, quand les erreurs se font plus rares du fait des progrès de l’apprenant, les problèmes d’optimisation peuvent être traités.

L’avantage d’un tel scénario est qu’il permet de supprimer complètement le modèle de l’élève. La mission du système critique n’est plus de comprendre quelles fautes commet l’apprenant pour les lui signaler, mais plutôt de lui fournir un exemple de «bon élève» l’accompagnant dans son apprentissage.

Bien que cela ne nous paraisse pas la voie à suivre, il nous paraît possible de construire un modèle de l'élève à partir de notre modélisation. On pourrait ainsi catégoriser les aprenants en fonctions des difficultés qu'ils rencontrent. La granularité de cette classification resterait à définir, mais comporterait au moins quatre classes d'élèves : ceux ayant des difficultés d'ordre pragmatique, ceux ayant des difficultés d'ordre calculatoire, ceux ayant des difficultés dans les deux domaines, et ceux n'ayant pas de difficulté du tout. Reste que les difficultés présentées au paragraphe 3.2 ne sont pas entièrement levée par notre modélisation. Un travail de recherche serait sans doute nécessaire pour invalider ou confirmer notre opinion quant à la difficulté d'une telle tâche.

Une dernière difficulté semble subsister concernant la construction d'un système pair, à savoir que le système critique risque de vouloir corriger une résolution qui serait meilleure que la sienne. Mais si un apprenant devient meilleur qu’un système critique, il n’a plus besoin de ce système, et le contrat de l’application est dans ce cas déjà rempli.

Quels écueils nous interdisent-ils de réaliser dès aujourd’hui un tel système ? Le point de blocage le plus important réside dans le développement des connaissances spécifiques à la résolution du problème visé, et plus particulièrement le développement de l’opérateur. Comme pour la résolution automatique de problème, les temps de développement de l’opérateur sont en effet très long. Mais au contraire d’une application de résolution de problème, ce temps de résolution peut-être justifié si l’application doit profiter à un grand nombre de sujets. Ainsi, un système pair de résolution de problème trigonométrique pourrait être dès aujourd’hui envisagé, compte tenu de la relative simplicité de l’opérateur et du grand nombre d’utilisateurs potentiels de cette application.

Enfin, si le développement d’applications génériques de résolution de problème, capables d’apprendre un espace-problème et un opérateur associé, est un jour couronné de succès, l’expertise développée par un tel système pourra alors directement être employée pour de tels systèmes pairs, ce qui permettrait alors de remplacer le temps (humain) de développement d’un opérateur par un temps (informatique) d’apprentissage de la résolution des problèmes du domaine.

 

 

 

précédent

 



Psychosonique Yogathérapie Psychanalyse & Psychothérapie Dynamique des groupes Eléments Personnels

 

© Copyright Jean-Bernard AURIOL

C.V. de Jean-Bernard Auriol

dernière mise à jour le

25 Janvier 2002

 

 



[1]    Nous ne prétendons pas que le module logique est inné. Nous indiquons seulement que ses caractéristiques systématiques semblent plaider en faveur de cette hypothèse.