Chapitre 2 : Modèles en résolution de problème

 

Avant de nous intéresser à la modélisation de la résolution de problème, nous nous devons d’indiquer ce que nous appelons «problème». Richard E. Mayer, dans [MAY 83], considère qu’un problème est constitué de données, d’objectifs et d’obstacles. Le problème est donc dans un état initial, mais il est désirable qu’il soit dans un autre état et il n’y a pas de moyen direct et évident d’effectuer cette transformation. Dans [REI 65], Reitman distingue quatre types de problèmes en fonction de comment sont spécifiés les états initiaux et finaux[1].

 Greeno, dans [GRE 78a], propose une partition en trois classes de problèmes. Les problèmes d’induction de structure sont des problèmes où l’on donne un ensemble d’instances et où l’objectif est de découvrir une règle s’appliquant à ces instances. Les problèmes de transformation sont des problèmes où l’objectif est de passer d’un état initial à un état final par une succession d’opérations. Enfin, les problèmes d’arrangement sont des problèmes où tous les éléments sont donnés initialement, et où leur réorganisation constitue la solution du problème. Greeno remarque cependant que tous les problèmes ne peuvent pas être classés dans un de ces trois types.

Kurt VanLehn, dans [VAN 89], présente la distinction faite entre les problèmes bien définis («well-defined») et mal définis («ill-defined»). Un problème bien défini est un problème où il existe une définition explicite de l’objectif en fonction de la description du problème. La tour de Hanoï est un exemple de problème bien défini. Dessiner un beau dessin est un exemple de problème mal défini. Peu d’auteurs se sont intéressés aux problèmes mal définis. De fait, le spectre des problèmes mal définis est large, allant de l’écriture d’une fugue pour piano, étudié dans [REI 65] jusqu’au contrôle aérien, où l’objectif est d’éviter des collisions entre avions, étudié dans [NIE 98]. Nous notons ici une différence qualitative entre les deux exemples que nous venons de proposer. Dans le premier cas, l’auteur de la fugue déterminera quand sa tâche est terminée en fonction de critères relatifs à cette tâche. Dans le second cas, la tâche ne s’arrête jamais.

Dans le cadre de notre étude, nous ne nous intéresserons qu’aux problèmes bien définis. Pour nous, résoudre un problème consiste à effectuer des opérations de transformation permettant de passer d’un état initial à un état final. Cela nécessite au minimum de pouvoir se représenter l’état courant du problème ainsi que l’état final, ou but, et d’être capable d’effectuer des transformations.

Avant d’aborder la présentation des différentes modélisations en résolution de problème, nous allons nous intéresser entre la distinction fréquemment rencontrée dans la littérature entre les connaissances déclaratives et procédurales.

 

2.1 Distinction entre savoir et savoir-faire

De nombreuses théories de l’apprentissage et de la cognition font la différence entre les connaissances procédurales et déclaratives, comme [AND 82], [AND 87], [KEI 89] ou [SUN 95]. La thèse défendue par ces auteurs est que les sujets placés en situation de résolution de problème adoptent une attitude descendante[2]. Initialement, un sujet va utiliser une grande quantité de connaissance déclarative pour résoudre une tâche, puis va, grâce à l’entraînement, développer des connaissances procédurales spécifiques à la tâche qu’il résout. Cette transition du déclaratif vers le procédural permettrait d’expliquer les progrès constatés dans la performance des sujets testés.

D’autres auteurs, comme [BER 88] ou [LEW 92] remettent en cause cette attitude descendante et démontrent que l’acquisition des savoir-faire («skills») peut s’effectuer sans une grande quantité de connaissances déclaratives préalables. Dans [STA 89], il est même établi que l’apprentissage peut être ascendant, des savoir-faire vers les connaissances déclaratives. En utilisant une tâche de décision dynamique, les auteurs démontrent que le développement des connaissances déclaratives ne précède pas mais suit celui des connaissances procédurales. On notera enfin que ces derniers auteurs, s’ils n’acceptent pas le principe d’un apprentissage strictement descendant, ne remettent pas en cause cette distinction entre connaissances déclaratives et procédurales.

 

2.2 Modélisations en résolution de problème

De nombreux auteurs se sont intéressés à la modélisation du comportement humain en situation de résolution de problème. Nous commencerons cette étude de la littérature par un exemple historique : le système GPS développé par Ernst et Newell [ERN 69] [NEW 72b], qui se voulait un résolveur universel de problème.

Parce qu’ils offrent une séparation entre les connaissances et les mécanismes qui les utilisent, les systèmes à base de règles, ou systèmes experts, sont apparus comme un excellent outil de modélisation. En outre, les systèmes à base de règles ont été utilisés en EIAO (dont l’exemple historique le plus connu est le tuteur GUIDON [CLA 79] [CLA 82] [CLA 87] basé sur le système MYCIN [SHO 76] consacré au diagnostic des infections bactériennes) qui constitue une des applications naturelles de la recherche en résolution de problème. Nous consacrons la deuxième partie de ce paragraphe à l’étude des systèmes à base de règle.

Cependant, d’autres formalismes ont été proposés. Le plus célèbre d’entre eux est celui des modèles mentaux proposé par Johnson-Laird et Byrne. L’originalité de ce modèle, que nous présenterons dans la troisième partie de ce paragraphe, est de ne postuler aucune capacité logique chez les sujets humains. Bien que Johnson-Laird et Byrne ne se positionnent pas par rapport à ce point, on peut considérer que les modèles mentaux et les systèmes à base de règles sont incompatibles. En effet, Johnson-Laird et Byrne prétendent que les humains ne disposent pas du modus ponens, qui est à la base des modélisations à base de règles[3].

Enfin, nous présenterons dans la quatrième partie de ce paragraphe le modèle de Richard, Poitrenaud et Tijus. Ce modèle est basé sur un ensemble de contraintes hiérarchisées capable de se restructurer au cours d’une résolution de problème. L’originalité de la démarche réside dans le fait que l’apprentissage en cours de résolution peut s’expliquer par les mêmes mécanismes que ceux permettant d’expliquer la résolution elle-même.

 

2.2.1 GPS

GPS introduit en 1957 par Newell, Shaw et Simon [NEW 57] (et dont une présentation complète est proposée en 1969 par Ernst et Newell [ERN 69]), se veut une modélisation générale des capacités de résolution de problème des sujets humains. GPS, développé en IPL-V [NEW 61], ainsi qu’un programme similaire développé par Quinlan et Hunt [QUI 68] ont été appliqués à un grand nombre de tâches afin de démontrer la généralité de l’approche (problème cryptarithmétique, transformations de formules logiques, hobbits et orcs, jarres d’eau, intégration symbolique…).

GPS est basé sur l’analyse des moyens et des fins («means-end analysis»). Bien que GPS ne soit plus utilisé aujourd’hui, nous avons choisi de l’introduire ici, compte tenu de son lien direct avec notre problématique. GPS doit son nom de ‘General Problem Solver’ au fait qu’il fut le premier programme de résolution de problème à proposer une séparation nette entre des mécanismes généraux et indépendants du domaine de résolution de problème et des connaissances spécifiques au domaine du problème traité.

GPS opère sur des problèmes qui peuvent s’exprimer en termes d’objets et d’opérateurs. Un opérateur est une entité applicable à certains objets afin d’en produire de nouveaux. Les objets peuvent être caractérisés par les traits (features) qu’ils possèdent et par les différences qui peuvent être observées entre des paires d’objets. Les différences entre objets ont eu une importance primordiale dans GPS car elles permettent d’implanter la stratégie d’analyse des moyens et des fins.

L’analyse des moyens et des fins est une stratégie de planification qui consiste à comparer l’état courant du problème avec l’état final (ou but), et à choisir alors parmi les opérateurs applicables un de ceux qui vont permettre de réduire cette différence. Afin d’effectuer cela, GPS poursuit l’algorithme suivant :

 

· Etablir la liste des différences entre l’état courant du problème et l’état final, puis ordonner ces différences en fonction de leur priorité (par le biais d’une liste de priorités fournie à GPS). Si aucune différence n’existe entre l’état courant et l’état but, l’algorithme se termine. L’ordre des différences est basé sur la difficulté à les éliminer. GPS acceptera ainsi d’introduire de nouvelles différences à condition que celles-ci soient moins difficiles à éliminer (et donc moins prioritaires) que celle qu’il cherche à faire disparaître.

· Sélectionner un opérateur permettant de réduire ces différences, en utilisant une liste (elle aussi fournie à GPS) de connections entre les différences potentielles et les opérateurs qui permettent de les résoudre[4].

· Si les conditions d’application de l’opérateur sont vérifiées, cet opérateur est appliqué, et l’algorithme de résolution est relancé. Dans le cas contraire, GPS prend comme sous-problème de rendre l’opérateur applicable, et recommence le processus de recherche avec ce nouveau sous but (la poursuite du but courant étant reprise une fois le sous but atteint). On pourrait donc considérer que GPS fonctionne en profondeur d’abord, puisque le but principal n’est à nouveau envisagé que quand le ou les sous-buts qu’il a générés sont atteints. Cependant si à un moment de la résolution d’un sous-but, GPS considère que la résolution de ce sous-but devient plus difficile que la résolution du but principal, il abandonnera cette voie de recherche pour en choisir une autre qu'il considérera a priori plus facile. Il pourra éventuellement reprendre cette partie de la recherche s’il se retrouve plus tard bloqué dans la résolution. GPS suit donc une heuristique de résolution qui consiste à effectuer de la recherche en profondeur d’abord tant que la difficulté de la résolution n’augmente pas.

 

On notera que le but de rendre applicable un opérateur à un objet consiste à éliminer les différences entre l’objet courant et l’objet permettant l’application de l’opérateur. Le sous problème consistant à rendre un opérateur applicable s’exprime donc bien dans le même formalisme que celui du problème initial.

Un des succès de GPS est qu’il arrive à prédire correctement le niveau de difficulté d’un état du problème. Egan et Greeno [EGA 74] montrent qu’il y a une corrélation forte entre la difficulté de l’état du problème (mesurée par la fréquence d’apparition de choix non optimaux) et le nombre de sous-buts qui doivent être considérés avant qu’un mouvement puisse être sélectionné (ce qui correspond au niveau de difficulté prédit par GPS). Cependant, comme le note Greeno [GRE 78b] (p. 247) sur le problème de la tour de Hanoï, alors que GPS s’appuie uniquement sur un arbre de but construit en considérant les disques par ordre de taille, les sujets humains considèrent apparemment certains buts du type de ceux utilisés par GPS, mais aussi explorent en avançant à partir de la position courante pour voir si une suite donnée de mouvements paraît possible. De la même manière, Greeno [GRE 74] démontre que sur le problème des orcs et des hobbits, l’organisation dans le problème est orientée vers l’avant, contrairement à la stratégie de GPS, et qu’en outre, les sujets organisent leur recherche en séquences d’opérations plutôt qu’en opérations individuelles. Une étude de Thomas [THO 74] confirme ce second point.

Ainsi, la comparaison du comportement de GPS et de celui de sujets humains semble indiquer que les humains ne résolvent pas les problèmes à la manière de GPS, alors que pour certains problèmes GPS prédit correctement la difficulté des états du problème. La modélisation que nous proposons dans ce document permet d’expliquer cette apparente contradiction, en expliquant pourquoi un état nécessitant un plus grand nombre de sous-buts augmentera la probabilité de voir apparaître un coup non optimal, alors que la résolution s’effectue vers l’avant (en partant de l’état courant) et en considérant des suites d’actions (plutôt que des actions individuelles), comme nous le verrons à la fin du paragraphe 6.2.

 

2.2.2 Les systèmes à base de règles

Les systèmes à base de règles constituent la base de la majorité des modélisations cognitives existantes en résolution de problème. Nous présentons ici les modélisations les plus importantes de la littérature, après avoir introduit le formalisme commun à l’ensemble de ses modélisations. Nous présentons ensuite deux modélisations cognitives se voulant universelles (au sens où elles prétendent modéliser par les mêmes principes l’ensemble des capacités cognitives de haut niveau), nommément ACT-R et SOAR.

Dans ACT-R, les connaissances déclaratives sont représentées de manière explicite sous la forme d’un réseau d’activation. Les connaissances procédurales sont représentées à partir de règles de production. L’apprentissage se fait par généralisation, spécialisation et regroupement de règles de production.

SOAR prend comme postulat que l’ensemble des activités cognitives humaines de haut niveau peuvent être vues comme des résolutions de problème. Les connaissances déclaratives et procédurales ne sont pas distinguées, des règles de production spécifiques étant postulées pour tenir lieu de connaissance déclarative. SOAR ne dispose pas de mécanisme pour régler les conflits en cas de déclenchement simultané de plusieurs règles de production.

Le fonctionnement de SOAR est constitué de cycles. Chaque cycle comprend une phase d’élaboration où l’ensemble des règles de production pouvant se déclencher le font, puis une phase de décision où les résultats des règles de production ayant déclenché dans la phase précédente sont utilisés pour construire un nouvel objet (espace-problème, état ou opérateur). Un mécanisme de sortie d’impasse permet de résoudre les problèmes rencontrés dans la phase de décision. Ce mécanisme de sortie d’impasse est l’unique lieu d’apprentissage dans SOAR.

Avant de présenter dans le détail chacune de ces modélisations, nous allons maintenant introduire le formalisme qu’ils partagent.

 

2.2.2.1 Le formalisme

Les systèmes de production furent introduits au début des années 70 [WAT 70]. L’utilisation des systèmes de production s’est alors développée en psychologie cognitive, à la suite d’une série de publications ayant attiré l’attention des chercheurs en psychologie cognitive [HUN 74] [NEW 72a]. Ces systèmes se sont montrés adaptés pour simuler les stratégies de résolution de problème [KLA 81], l’apprentissage par l’exploration ainsi que les changements de stratégie en cours de résolution [ANZ 79] [NGU 85]. Une revue des premières modélisations cognitives basées sur les systèmes de production peut être trouvée dans [KLA 87].

L’hypothèse fondatrice de l’utilisation des systèmes de production en psychologie cognitive est que la cognition humaine est basée sur un ensemble de paires condition-action appelées règles de production (ou, plus simplement, productions). Un exemple de production peut-être :

 

Condition                                        X père de Y

                                                         Y père de Z

Action                                        X grand-père de Z

 

Le fonctionnement d’une règle de production est de produire la partie action (qui consiste ici à placer l’information X grand-père de Z en mémoire de travail) si la partie condition est remplie. On considère que la partie condition est remplie si l’ensemble des informations qu’elle contient sont toutes présentes en mémoire de travail.

Les systèmes de production rappellent les théories béhavioristes [WAT 13]. En particulier, une règle de production est très proche d’un lien stimulus-réponse [AND 76]. Selon l’expression d’Anderson, on peut même concevoir les systèmes de production comme des théories cognitives en stimulus-réponse, malgré la contradiction dans la connotation de ces termes ([AND 83], p. 6).

Les règles de production sont parfois présentées sous la forme :

 

SI (conditions) ALORS (actions)

 

Cette notation peut faire croire à tort que les systèmes de production constituent une implantation de la logique. Les systèmes de production n’implantent en fait que le modus ponens. Le modus tollens est lui absent de tel système. En outre, les systèmes de production ont besoin de faits (éléments apparaissant dans la partie condition des règles et connus pour vrai) pour fonctionner. De l’ensemble des règles :

 

SI A alors B

SI A alors non B

 

on déduit :

 

non A

 

mais cette déduction ne peut pas être effectuée par un système à base de règle.

Enfin, les systèmes de production sont des calculateurs universels. Ils sont en effet capable d’implanter une machine de Turing, et ce de manière quasi immédiate. On peut en fait considérer une machine de Turing comme un système de production très simplifié. Ceci donne aux systèmes de productions la capacité d’effectuer n’importe quelle tâche que peut réaliser un ordinateur, à condition de leur fournir le bon jeu de productions.[5]

Nous sommes maintenant en mesure de présenter nos deux exemples de systèmes de production (ACT-R et SOAR), encore utilisés aujourd’hui, qui se veulent des modélisations cognitives générales.

 

2.2.2.2 ACT-R

ACT-R est un système développé par John R. Anderson. ACT-R est la dernière version d’une longue série de travaux commençant avec le système HAM (pour Human Associative Memory, qui est une théorie sur la mémoire déclarative) [AND 73], se poursuivant par ACTE [AND 76] et ACT-* (qui se lit ACT-star) [AND 83]. Considérant que la cognition est rationnelle [AND 90] (i.e. qu’elle maximise la réalisation des buts en minimisant les coûts de traitements), Anderson révise sa théorie et produit finalement ACT-R [AND 93] (où le R signifie Rational).  L’ensemble des modèles ACT (pour Adaptative Control of Thought) ont pour architecture des systèmes de production. La série ACT a encore aujourd’hui un grand succès en tant que modélisation cognitive, car elle permet d’exprimer une large gamme de phénomènes (comme l’acquisition et le transfert de connaissances déclaratives et procédurales [JOH 98] ou même la fatigue [JON 98]).

ACT-R effectue la distinction entre les connaissances déclaratives et procédurales. Les connaissances déclaratives peuvent être décomposées en un ensemble de «chunks» (qui s’appellaient unité cognitive dans le modèle ACT-*), où chaque chunk est constitué d’un nombre limité d’éléments (approximativement trois) ayant chacun une relation particulière avec le chunk (en d’autres termes, les chunks sont constitués d’éléments typés). Les éléments d’un chunk sont eux-mêmes des chunks. Les structures complexes sont donc représentées par des hiérarchies de chunks.

Les connaissances procédurales sont représentées à l’aide de règles de production. Ces règles sont spécifiques à des buts données (i.e. chaque règle contient une description du but qu’elle permet d’atteindre dans sa partie condition), mais elles contiennent des variables afin de les rendre utilisables dans plus d’une situation. La partie condition d’une règle est constituée de chunks (permettant ainsi l’interaction entre les connaissances déclaratives et procédurales).

Les buts sont gérés par une pile de buts. Le dernier but rentré est en sommet de pile, et il constitue toujours une source d’activation. Les autres sources d’activations sont les éléments du contexte sur lesquels porte l’attention. Le rôle des sources d’activation est de permettre le déclenchement des règles. Plus les chunks qui constituent une règle auront un niveau d’activation élevé, et plus le déclenchement de cette règle sera rapide. Ce point est d’une importance capitale dans ACT-R. En effet, les règles sont évaluées en parallèle et ACT-R stoppe l’évaluation des règles n’ayant pas encore déclenché quand le gain attendu des déclenchements à venir paraît insuffisant.

L’utilité des productions candidates est évaluée en fonction de l’expression :

 

PG - C

 

P désigne la probabilité estimée que la production permette d’atteindre le but poursuivi, G désigne la valeur du but et C désigne le coût estimé du chemin à parcourrir jusqu’au but (C est la somme du coût de la production considérée et du coût estimé du chemin restant à parcourir jusqu’au but si cette production est sélectionnée).

 

 

2.2.2.3 SOAR

Le système SOAR [LAI 87], développé par Newell et ses collègues, est proposé comme une théorie unifiée de la cognition [NEW 90] [ROS 91], capable de rendre compte d’un grand nombre de phénomènes expérimentaux (langage naturel, résolution de problèmes simples, apprentissage, temps de réaction…). Sa capacité à reproduire la relation entre expérience et performance (connue sous le nom de ‘power law of learning’, et qui exprime l’idée que la performance est proportionnelle à une puissance du nombre d’essais) [SNO 26] [NEV 81] [NEW 81] fut même considérée comme le plus grand succès de cette théorie. Nous ne discuterons pas ici l’ambition de Newell et de ses collègues de développer une théorie unifiée de la cognition puisqu’elle est en dehors du cadre de notre étude (le lecteur intéressé trouvera dans l’article de Cooper et Shallice [COO 95] une revue des critiques adressées à ce sujet à Newell et ses collègues, et dans [NEW 92] une réponse à certaines de ces critiques), mais nous nous intéresserons à SOAR en tant que modélisation plausible de la résolution de problème par des sujets humains. SOAR est particulièrement intéressant dans cette optique, car son architecture est celle d’un résolveur de problème (chaque tâche cognitive est alors vue comme une résolution de problème, ce qui selon les auteurs confie au système son statut de théorie unifiée de la cognition).

SOAR est un système de production développé pour supporter une approche symbolique explicite en résolution de problème. Dans cette approche, connue sous le nom de modèle computationnel de l’espace-problème (Problem-Space Computational Model ou PSCM), un état initial est transformé en état final par l’application d’une série d’opérateurs. L’ensemble des états et des opérateurs applicables à un problème donné constitue son espace-problème.

Toute résolution au sein de SOAR s’effectue de manière cyclique. Chaque cycle est séparé en deux phases :

 

· La phase d’élaboration où toutes les connaissances à long terme (représentées sous forme de règles de production) sont appliquées à la représentation courante de la tâche qui est conservée en mémoire de travail.

· La phase de décision où les résultats de la phase d’élaboration sont utilisés pour sélectionner un objet ou construire un sous-but. Chaque cycle se termine donc par la sélection d’un objet (espace-problème, état ou opérateur) ou par la génération d’un sous-but si le but courant ne peut pas être directement atteint. On pourrait s’étonner de voir que SOAR peut déterminer un espace-problème à l’issue d’un cycle. Il convient de garder à l’esprit que la résolution de problème est considérée comme le principe de fonctionnement unique de la cognition. La reconnaissance d’un problème présenté est donc traitée comme un problème à résoudre et la solution de ce problème est constituée par la sélection de l’espace-problème adéquat.

 

La phase d’élaboration est elle-même cyclique : à chaque cycle, toutes les règles de production dont les conditions sont vérifiées sont déclenchées. Comme le déclenchement d’une règle de production ajoute des éléments en mémoire de travail, ce déclenchement peut entraîner de nouveaux déclenchements au cycle suivant. Quand un cycle se termine sans que de nouvelles règles se soient déclenchées, SOAR est dit ‘tranquille’ (quiescent) et la phase d’élaboration se termine. Une des particularités de SOAR réside dans le fait que toutes les règles de production qui peuvent se déclencher le font. Il n’y a pas de résolution de conflit entre règles de production concurrente dans SOAR, contrairement aux systèmes de production traditionnels.

La phase d’élaboration a deux objectifs principaux. D’une part, elle permet de compléter la description d’objets déjà partiellement décrits dans la mémoire de travail. D’autre part, elle permet de créer des préférences[6]. Dans SOAR, une préférence est un objet qui spécifie l’importance (relative ou absolue) d’éléments de la mémoire de travail (généralement d’espaces-problèmes,  d’états ou d’opérateurs).

La phase de décision consiste alors à sélectionner l’objet suivant à partir des préférences fournies par la phase d’élaboration. Si les préférences ne permettent pas de déterminer un unique objet, le système est en impasse. Une impasse est une situation où les connaissances immédiates de SOAR ne lui permettent pas de résoudre le problème courant. Trois types d’impasses peuvent être rencontrés :

 

·Tie impasse’ : SOAR n’arrive pas à choisir entre plusieurs objets.

·No-change impasse’ : aucun objet n’est proposé à l’issue de l’élaboration.

·Constraint-failure impasse’ : SOAR détecte un conflit entre des contraintes pesant sur un objet candidat (quand les préférences indiquent par exemple que l’objet est de priorité absolue, et qu’il est en même temps interdit).

 

En situation d’impasse SOAR réagit en créant un sous-but permettant de résoudre cette impasse. La résolution de problème est alors appliquée à ce sous-but comme elle a été appliquée au but, et le sous-but est traité jusqu’à ce que SOAR considère l’impasse résolue.

La résolution des impasses est le lieu unique de l’apprentissage dans SOAR. Quand un élément de la mémoire de travail généré par une règle de production au cours de la poursuite d’un sous-but est lié à un but de niveau plus élevé, SOAR détermine quels éléments du contexte du but de niveau plus élevé ont indirectement conduit à cette génération.

Une nouvelle règle de production est alors créée, avec en condition les éléments du contexte du but et en conclusion l’élément généré dans le contexte du sous-but. Dans des situations futures similaires à la situation d’impasse ayant entraîné la création du sous-but, la nouvelle règle de production pourra se déclencher, court-circuitant ainsi la génération du sous-but. Les nouvelles règles ainsi créées sont appelées des ‘chunk’, et le mécanisme de génération est appelé ‘chunking’. Afin de rendre ce mécanisme plus compréhensible, nous l’illustrons par un exemple formel :

 

[contexte : but]

  Condition                                        Conclusion

        A                                    préférence relative : B

        C                                    préférence relative : D                     conflit : B, D

        E                                                      F                                       impasse

 

[contexte : sous-but]

  Condition                                        Conclusion

    B, D, F                                préférence absolue : B                     sortie d’impasse

 

A l’issue de la phase d’élaboration, SOAR se retrouve en situation de tie-impasse entre B et D. SOAR analyse alors quels éléments du contexte initial ont amené la création des objets B, D et F, et remplace dans la partie condition de la production ayant autorisé la sortie d’impasse  les objets B, D et F par leurs antécédents respectifs (A, C et E). SOAR crée alors le chunk :

 

Si (A, C, E) Alors (préférence absolue : B)

 

qui est alors mémorisé en tant que nouvelle production. Lors des futures occurrences de la même situation, la nouvelle règle ainsi créée déclenchera, ce qui évitera l’impasse précédemment rencontrée.

 

2.2.2.4 Critique des systèmes à base de règles

Un certain nombre de critiques ont été émises sur les systèmes à base de règles. Ainsi, comme le montre Grumbach, les descriptions fonctionnelles du type condition action ne permettent que les actions prévues dans les règles [GRU 89]. Il est bien évidemment possible de proposer des mécanismes d’apprentissage (comme dans SOAR) permettant de répondre à cette critique, et on peut également postuler des mécanismes permettant un apprentissage ‘descriptif’ de nouvelles règles (au sens d’une description de procédure, comme une recette de cuisine par exemple), puis de les traduire en tant que règles de production. De fait, comme nous allons le voir maintenant, il n’est jamais nécessaire de sortir du formalisme des règles de production pour répondre à une quelconque critique, sous la seule hypothèse que la cognition soit «calculable»[7]. Le modèle que nous allons présenter au cours de la deuxième partie aurait par exemple pu être implanté à partir d’un système de production.

Les systèmes de production souffrent à notre sens d’une ambiguïté. Leur statut de calculateur universel leur permet en effet d’implanter n’importe quelle modélisation cognitive. Mais dans ces conditions, le pouvoir prédictif porté par les systèmes de production est nul. S’il est possible de les utiliser comme un langage afin d’exprimer une théorie, ils ne peuvent en aucune manière être considérés comme étant la base de cette théorie.

Dans chacun des exemples que nous venons de présenter, la théorie est portée sur les restrictions appliquées aux règles et sur l’organisation du modèle par rapport au système de production. La séparation entre élaboration et décision dans SOAR ou la mémoire déclarative de la série ACT constituent les fondements de ces modélisations, mais l’hypothèse des systèmes de production n’est réfutable dans aucune de ces théories. Postuler que le système cognitif humain est construit sur une machine de Turing ou sur un système de production sont, dans une certaine mesure, des hypothèses équivalentes.

Il pourrait cependant paraître possible de construire des modélisations cognitives à partir d’un système de production, à condition d’en limiter sa portée. Si l’on considère que les systèmes de production sont la base des savoir-faire, et que l’on propose des mécanismes d’accompagnement (comme le font chacune des trois modélisations que nous venons de présenter), il devient possible de présenter une théorie effectuant des prédictions. Mais faire cela revient simplement à repousser le problème. Les systèmes de production restent des calculateurs universels, même à un niveau local. Au niveau où l’on décide de les utiliser, le fait de postuler leur existence ne permet pas d’émettre de nouvelles hypothèses.

Les systèmes de production permettent toutefois de représenter de manière simple à la fois les connaissances associatives et les procédures, ce qui est sans doute à l’origine de leur succès. En introduisant dans la partie condition des règles le but poursuivi (comme le fait Anderson par exemple), on obtient même une apparente explication d’un problème difficile, à savoir pourquoi un sujet décide d’effectuer une action qui satisfait son but courant. Ainsi, la production :

 

SI A but et B réalise A ALORS faire B

 

permet apparemment d’expliquer pourquoi l’action B est entreprise quand le but A est poursuivi. Il devient alors possible, à partir de règles de production de proposer des mécanismes de calcul de sous-but, basés sur la même forme. Mais une telle règle n’exprime rien d’autre que la stratégie suivante : «si je désire faire quelque chose et que je peux le faire, alors je le fais».

Rien dans ce type de modélisation ne permet d’expliquer le statut du but. Il joue ici le rôle d’une simple information présente en mémoire de travail, éventuellement accompagnée d’un «marqueur» indiquant qu’il est un but. La question de savoir pourquoi le sujet décide initialement de poursuivre ce but n’est ainsi jamais réglée. En outre, ce type de modélisation ne permet pas d’expliquer le comportement d’un novice qui, dans une certaine mesure, n’anticipera pas les conséquences de ses actes. S’il est acceptable de considérer qu’une personne ayant déjà effectué une action pourra savoir avant de l’effectuer quelles en seront les conséquences, il est beaucoup plus difficile de l’admettre pour un sujet débutant.

Placer un but en partie condition d’une règle masque, en effet, le travail d’anticipation que peut être amené à effectuer un sujet dans une situation mal connue. Comme le note Richard : «ce qui est difficile pour un novice, c’est probablement de savoir ce que le dispositif permet de réaliser en fait d’actions qui soient à la fois réalisables à l’aide des commandes disponibles et envisageables comme des objectifs possibles, comme sous-buts qu’il puisse se donner dans une tâche complexe» [RIC 83].

Cependant, retirer le but de la partie action des règles pose un nouveau problème, qui est d’expliquer pourquoi la production permettant de satisfaire le but sera exécutée plutôt qu’une autre. En effet, une production doit se déclencher pour que sa partie action devienne visible. La seule solution réside alors dans le déclenchement de toutes les règles candidates, puis dans la sélection des bonnes conclusions par un procédé qui reste encore à déterminer. Une telle modélisation pose alors un problème d’encombrement de la mémoire de travail qui devra à la fois permettre de stocker la grande quantité de données déposées par les productions et d’effectuer les traitements nécessaires au choix de l’action à entreprendre[8].

En conclusion, les systèmes de production, de par leur capacité à être des calculateurs universels, ne peuvent pas à eux seuls constituer une théorie réfutable de la cognition humaine. Si leur comportement peut rappeler le comportement de sujets experts dans un domaine particulier, il apparaît éloigné du comportement novice[9]. Des hypothèses supplémentaires semblent nécessaires pour expliquer de tels comportements, et celles proposées dans les deux grandes théories actuelles ne paraissent pas appropriées (les hypothèses émises dans la famille ACT ne sont simplement pas compatibles avec le comportement des novices, et celles émises dans SOAR réclament une capacité gigantesque en terme de mémoire de travail).

 

2.2.3 Les modèles mentaux

En opposition à la logique naturelle, dont une version extrême est proposée par Inhelder et Piaget (‘Reasoning is nothing more than the propositional calculus itself’) [INH 58] (p. 305), le psychologue britannique Johnson-Laird introduit la théorie des modèles mentaux ([JOH 80], [JOH 83], [JOH 84], [JOH 91]). Selon Johnson-Laird, les humains ne disposent pas de mécanismes logiques. Partant du constat que les humains font des erreurs sur les tâches de raisonnement, il propose une vision alternative des apparentes capacités logiques humaines : les modèles mentaux.

Le point de départ de cette théorie est que les humains sont capables de modéliser les situations qu’ils rencontrent dans leur vie quotidienne. A l’appui de cette idée, Johnson-Laird cite le livre de Craik [CRA 43], selon lequel les humains sont des calculateurs d’information (processors of information). Selon Johnson-Laird, «la base psychologique de la compréhension consiste pour vous dans le fait de disposer d’un ‘modèle de fonctionnement’ du phénomène dans votre esprit[10]». La principale originalité du travail de Johnson-Laird réside dans le fait qu’il étend cette notion de modélisation à des tâches considérées avant lui comme de nature syntaxique. Selon Johnson-Laird, la totalité des capacités humaines de déduction s’explique par des modèles mentaux.

 

2.2.3.1 Le formalisme

Selon la théorie des modèles mentaux, un sujet humain effectue une tâche d’inférence en trois étapes :

 

· Compréhension : le sujet utilise sa connaissance du langage, ainsi que ses connaissances générales, afin de comprendre les prémisses de la tâche de déduction qui lui est proposée. Il construit donc un modèle interne de l’état de choses (states of affair) que les prémisses décrivent.

· Proposition de conclusion : le sujet essaie de trouver une conclusion qui n’est pas explicitement donnée par les prémisses. S’il ne découvre pas de conclusion de ce type dans le modèle construit, le sujet affirme qu’aucune conclusion ne peut être déduite des prémisses.

· Réfutation : le sujet cherche alors un modèle alternatif des prémisses où les conclusions seraient fausses (i.e. un contre-exemple). Si cette recherche échoue, le sujet considère la conclusion déterminée à l’étape précédente comme valide. Si cette recherche réussit, le sujet cherche une nouvelle conclusion valable dans l’ensemble des modèles déjà construits, puis relance en cas de succès la procédure de réfutation, afin de déterminer un nouveau contre-exemple.

 

En résumé, une conclusion sera valide pour un sujet si elle est vraie dans toutes les situations (compatibles avec les prémisses) qu’il sera capable de construire. Selon les défenseurs de la théorie des modèles mentaux, les erreurs peuvent être causées soit par l’incapacité du sujet à découvrir une conclusion, du fait d’un mauvais choix de modèle initial, soit par l’incapacité du sujet à trouver un modèle alternatif (bloquant la réfutation de la conclusion proposée) du fait, par exemple, des limitations de la mémoire de travail. En s’appuyant sur cette modélisation, les auteurs prédisent avec succès les difficultés relatives d’un ensemble de tâches d’inférence, et en déduisent une confirmation de leur théorie.

Enfin, en affirmant que la déduction n’est pas particulière dans son utilisation des modèles mentaux, Johnson-Laird et Byrne [JOH 91] (p. 207) affirment que les autres modes de pensée (induction, analogie, résolution créative de problème, génération d’idées nouvelles) sont vraisemblablement basés, eux aussi, sur les modèles mentaux. A l’appui de cette affirmation, les auteurs citent un ensemble de travaux où les modèles mentaux sont appliqués à d’autres tâches (comme Bara et al. sur l’induction [BAR 84], [BAR 85]).

 

2.2.3.2 Critiques

Les modèles mentaux semblent expliquer correctement les performances des sujets humains sur des tâches simples de déduction. La comparaison entre les prédictions des modèles mentaux et celles de modèles basés sur des règles d’inférence semble trancher en faveur des premiers. En outre, les critiques émises par Johnson-Laird contre les logiques mentales peuvent sembler décisives (voir toutefois [BON 94] pour une réponse à ces critiques), et donc valider les modèles mentaux en tant qu’unique théorie compétitive. Cependant, cette modélisation n’emporte pas l’adhésion de l’ensemble des auteurs. Les critiques les plus souvent émises expriment le fait que cette théorie est vague [RIP 86],  incomplète [BRA 84] ou plus simplement ambiguë [RIC 90].

Ainsi, Braine et ses collègues [BRA 84] indiquent qu’aucune modélisation du raisonnement propositionnel basée sur les modèles mentaux n’a encore été proposée. Johnson-Laird et Byrne [JOH 91] répondent à cette critique en proposant une modélisation qui réussit à prédire les difficultés relatives de différents types de déduction (modus ponens plus simple que le modus tollens par exemple). Cependant, ces auteurs ne proposent pas de procédure systématique pour la construction des modèles mentaux. Ils n’expliquent pas non plus pourquoi certains sujets réussissent à construire l’ensemble des modèles nécessaires à une déduction, et pourquoi d’autres échouent. De ce point de vue, la théorie reste vague.

De fait, les défenseurs de la théorie des modèles mentaux fournissent à leurs détracteurs des arguments pour les contredire. Ils critiquent en effet la position de Henle [HEL 78] qui déclare ‘Je n’ai jamais rencontré d’erreurs pouvant être attribuées sans ambiguïté à un raisonnement erroné[11]’. Ils reprochent à cette position de rendre irréfutable la théorie de la logique naturelle, puisqu’il sera toujours possible de trouver dans le cadre de cette théorie une explication alternative à une erreur logique. Dans le même temps, les auteurs avouent ne pas savoir comment se déroule la recherche des contre-exemples dans le cadre de leur théorie ([JOH 91], pp. 213-214). Ainsi, qu’un sujet réussisse ou échoue sur une tâche de déduction, sa performance sera compatible avec les modèles mentaux[12].

Reste toutefois que la théorie des modèles mentaux semble prédire correctement la performance globale d’un groupe de sujet sur un ensemble de tâche de déduction. On peut alors se poser la question de savoir si la théorie des modèles mentaux modélise les capacités de déduction des sujets humains sur des tâches de difficulté variable ou si elle modélise plus simplement la difficulté des tâches proposées. Selon l’interprétation de Johnson-Laird, la difficulté d’une tâche de déduction est corrélée au nombre de modèles mentaux nécessaires à sa résolution. Mais comme un modèle mental est une interprétation possible des prémisses d’un problème, la théorie des modèles mentaux explique seulement le fait qu’une tâche de déduction sera plus difficile à résoudre si ses prémisses acceptent plusieurs interprétations. Ainsi, le problème :

 

· B est à droite de A

· C est à gauche de B

· D est devant C

· E est devant B

· Quelle est la relation entre D et E ?

 

nécessite deux modèles mentaux :

 

A         C         B                                             C         A         B

                                   D         E                                             D                     E

 

mais n’entraîne qu’une conclusion (D est à gauche de E). Selon la théorie des modèles mentaux, ce problème sera donc plus difficile à résoudre que le problème :

 

· A est à droite de B

· C est à gauche de B

· D est devant C

· E est devant A

· Quelle est la relation entre D et E ?

 

qui ne nécessite qu’un seul modèle mental :

 

                                                           C         B         A

                                                           D                     E

 

Johnson-Laird et Byrne estiment que dans le cas des règles d’inférences, le second problème sera plus difficile à résoudre que le premier, car le nombre de règles d’inférences à appliquer dans le second cas est plus élevé que dans le premier. Ils tirent des résultats de leur expérimentation (46 % de réponses correctes sur le premier problème et 70 % sur le second) une validation des modèles mentaux.

Comme le remarque van der Henst [HEN 98], Johnson-Laird et Byrne prétendent qu’une prémisse inutile dans un problème d’inférence spatiale aura une influence dans le cas des modèles mentaux, mais n’en aura aucune dans le cas des règles d’inférences. Van der Henst réfute cette analyse, car il remarque que cette hypothèse ignore le second principe de pertinence de Sperber et Wilson [SPE 89], selon lequel tout énoncé véhicule la présomption de sa propre pertinence. Les sujets s’attendant à ce que la prémisse inutile (B est à droite de A) du premier problème soit pertinente pour la résolution de ce problème, ils vont chercher à effectuer des inférences à partir d’elle. Ce travail entraînera des efforts inutiles, et perturbera donc la résolution. On voit donc que la théorie de la pertinence permet de proposer une explication alternative à celle de Johnson-Laird et Byrne des résultats obtenus.

Notre position n’est pas de rejeter en bloc la théorie des modèles mentaux. Cependant, si nous acceptons l’idée que les humains peuvent représenter des situations de manière analogique[13], nous n’acceptons pas la thèse selon laquelle cette forme de représentation est la seule possible. Par ailleurs, la théorie des modèles mentaux n’explique pas de manière convaincante comment s’effectue la sélection de l’information la plus parcimonieuse, ni comment se déroule la procédure de réfutation. Ces deux mécanismes étant à la base de cette théorie, nous la considérons au minimum comme incomplète. Compléter cette théorie nécessite au moins d’expliquer comment fonctionne la détection de l’incompatibilité entre l’hypothèse retenue et le modèle qui la réfute.

Nous noterons enfin que la théorie des modèles mentaux peut éventuellement permettre d’expliquer comment un sujet résout un problème de déduction, mais qu’elle est incapable d’expliquer pourquoi ce sujet décide de le résoudre. Cette théorie fait en effet l’impasse sur la représentation que se fait le sujet de la question qui lui est posée, c’est-à-dire du but qu’il poursuit. Dans une situation de résolution de problème complexe, il devient nécessaire d’expliquer comment s’effectue la représentation des objectifs et sous-objectifs, afin de pouvoir expliquer comment le sujet planifie la résolution.

 

2.2.4 Le modèle des contraintes

Richard, Poitrenaud et Tijus introduisent en 1993 un modèle général de résolution de problème, basé sur l’élimination de conceptions erronées («misconceptions») [RIC 93]. Le modèle opère sur des règles orientées vers le but, et sur un ensemble de règles de contrainte, de la forme :

 

SI (état ou but) ALORS NE PAS FAIRE (action)

 

Les contraintes peuvent être soit explicites (issues des instructions du problème à résoudre), soit implicites (mauvaises compréhensions des coups légaux). Une hiérarchie définit l’importance des contraintes. A un instant donné, la représentation du problème qu’a le sujet peut donc être décrite par un ensemble ordonné de contraintes. La hiérarchie qui pèse sur les contraintes autorise une procédure de sortie d’impasse simple : la contrainte de moindre importance est temporairement ignorée en cas d’impasse.

Les auteurs proposent comme mécanisme d’apprentissage possible la suppression définitive d’une contrainte quand sa suppression temporaire a permit d’effectuer un coup qui s’est révélé légal. L’élimination des conceptions incompatibles avec la résolution du problème est selon les auteurs un point central pour la notion de restructuration du problème. Ils y voient un mécanisme rendant compte du fait que les résolutions humaines évoluent du général vers le fonctionnel puis vers le  spécifique, comme le propose Duncker [DUN 45] dans la tradition Gestaltiste, qui veut que la résolution s’appuie sur la restructuration ou la réorganisation du problème (voir [MAY 83], chapitre 3 pour une revue bibliographique de la tradition Gestaltiste).

Le modèle des contraintes a été utilisé pour modéliser la résolution de problèmes de déplacement (tour de Hanoï, missionnaires et cannibales…). Sur des protocoles de résolution de la tour de Hanoï, après avoir identifié les événements critiques (pauses d’au moins trente secondes dans la résolution, retours en arrière et coups illégaux) permettant de dire que le sujet est en situation d’impasse [RIC 82], les auteurs découpent les protocoles en épisodes (ensemble de coups délimités par un ou plusieurs événements critiques) [RIC 88] et déduisent de cette analyse l’ensemble des contraintes permettant de rendre compte de ces protocoles.

 

2.2.4.1 Le formalisme

Les contraintes sont présentées sous la forme de «matrices de filtrage» où les colonnes représentent les états et où les lignes représentent les mouvements. Une valeur booléenne indique si le mouvement envisagé peut-être effectué dans l’état considéré pour la contrainte visée. La valeur 1 indique que la contrainte s’applique (mouvement interdit). La valeur 0 indique que la contrainte ne s’applique pas (mouvement autorisé). La matrice de filtrage globale est obtenue en faisant la somme des matrices pour l’ensemble des contraintes existantes.

Les auteurs distinguent ensuite les contraintes statiques, qui sont liées aux propriétés structurelles permanentes des états dans l’espace-problème (et notamment qui ne dépendent pas du chemin parcouru pour atteindre ces états), des contraintes dynamiques, qui dépendent du passé de la résolution en cours.

Enfin, les buts sont exprimés sous forme de contraintes. Chaque action satisfaisant le but sera autorisée (valeur 0), et chaque action ne le satisfaisant pas sera interdite (valeur 1). Les buts sont organisés sous forme d’une pile dont seul le sommet est accessible. Quand un nouveau sous-but est calculé, il est stocké en sommet de pile. Quand un sous-but est atteint, il est ôté de la pile, et le sous-but suivant devient le nouveau sommet. Le mécanisme de calcul de sous-but est un système de production, basé sur des règles générales comme «Si le but courant possède un prérequis qui n’est pas satisfait, alors prendre comme but courant ce prérequis».

 

Le processus de résolution peut se décomposer en trois étapes :

 

· Première étape : on choisit une action autorisée par les contraintes. Les buts étant exprimés sous forme de contraintes, une action autorisée à cette étape est nécessairement une action satisfaisant le but courant. Si plusieurs actions sont autorisées, on en choisit une au hasard. Si l’action choisie est légale, elle est effectuée et le sous-but suivant stocké en mémoire de travail devient le nouveau but courant. S’il n’existe pas de mouvement légal autorisé, les règles de production de but sont activées. Si un nouveau but est produit, le processus est relancé avec comme nouveau but courant le but qui vient d’être calculé. Si aucun but n’a pu être produit, le processus de résolution passe à la deuxième étape.

· Deuxième étape : les contraintes relatives aux buts sont temporairement ignorées. Dans cette étape, il suffit qu’un coup soit autorisé par les contraintes, et reconnu comme légal, pour qu’il soit exécuté. Là encore, si plusieurs coups sont autorisés, l’un d’entre eux est choisi au hasard. Si aucun mouvement n’est possible à ce stade, le processus de résolution rentre dans la troisième étape qui est en charge de la gestion des impasses.

· Troisième étape : afin de sortir d’une impasse, la contrainte la moins importante est temporairement supprimée. Le processus de résolution est alors relancé à la première étape. Cette boucle est répétée jusqu’à ce qu’une action soit rendue possible. La dernière contrainte à avoir été temporairement supprimée avant qu’au moins un mouvement ne devienne légal est supprimée de manière définitive. En effet, il apparaît alors que la contrainte que l’on supprime n’était pas adaptée à la situation.

 

2.2.4.2 Critiques

La théorie des contraintes apporte un éclairage original sur la résolution de problème, en expliquant notamment comment peuvent apparaître des violations de consigne, et en proposant un mécanisme d’apprentissage par la résolution. Cependant, nous objecterons quelques critiques. La première d’entre elles porte sur le postulat de l’existence d’une pile de buts. Nous discuterons la plausibilité d’un tel postulat au paragraphe 6.3.2[14].

Comme les auteurs le remarquent en conclusion de leur article ([RIC 93], p. 528), plusieurs mécanismes sont postulés sans être décrits. La traduction de l’énoncé en terme de contraintes n’est en particulier pas abordée. Ce point est pourtant crucial, car une traduction plus difficile constitue la seule explication plausible quant à la difficulté plus importante de problèmes isomorphes à la tour de Hanoï, comme la cérémonie du thé proposée par Hayes et Simon [HAY 74] (dont nous proposons ici une traduction) :

 

  Dans les auberges de certains villages himalayens est pratiquée une cérémonie du thé particulièrement raffinée. Cette cérémonie implique un hôte et exactement deux invités, jamais plus ni moins. Une fois ses invités arrivés et installés à sa table, l’hôte leur rend cinq services. Ces services sont classés dans l’ordre de noblesse que les Himalayens leurs attribuent : (1) entretenir le feu, (2) attiser les flammes, (3) passer les gâteaux de riz, (4) verser le thé et (5) réciter de la poésie. Au cours de la cérémonie, n’importe lequel des membres présents peut demander à un convive «Honorable personne, pourrais-je remplir pour vous cette tâche ardue ?».

  Toutefois, un convive ne peut demander à un autre convive que la tâche la moins noble de celles que celui-ci remplit. De plus, si un convive remplit déjà une tâche, il ne peut alors pas demander une tâche moins noble que la moins noble des tâches qu’il remplit déjà. La coutume nécessite qu’à la fin de la cérémonie du thé, toutes les tâches aient été transférées de l’hôte vers le plus âgé des invités. Comment cela peut-il être accompli ?

 

Le lecteur se convaincra que ce problème est un isomorphe de la tour de Hanoï à cinq disques, où les trois convives jouent le rôle des pitons et où les cinq tâches jouent le rôle des disques. Ce problème est nettement plus difficile à résoudre que la tour de Hanoï, mais le modèle des contraintes ne prévoit a priori pas de différence entre les deux problèmes, puisque le même jeu de contraintes pèse sur les deux. La seule manière d’expliquer cette différence de difficulté réside donc dans la différence de traduction en terme de contraintes des deux énoncés. Clément et Richard étudient d’ailleurs les différences de comportement des sujets sur des isomorphes de la tour de Hanoï [CLE 97]. Ils défendent la thèse selon laquelle les différences de difficulté sont dues à la perception qu’aura le sujet des opérations de transformation légales. Si l’opération est perçue comme un couple (E1, E2) où E1 est l’état du problème avant la transformation et E2 l’état après, la résolution sera plus facile que si l’opération est perçue comme un processus.

Un changement de taille est ainsi perçu comme un processus par les sujets adultes, qui ajoutent alors une contrainte supplémentaire dans la définition des opérations légales : si un objet passe d’une taille à une autre, il passera nécessairement par des tailles intermédiaires (il grossira ou diminuera de manière continue pour passer d’une taille à l’autre). Par le biais d’un calcul de pertinence de contrainte, les auteurs montrent que cette contrainte supplémentaire (qui dans le cadre de la tour de Hanoï traditionnelle interdirait de faire passer un disque du piton A au piton C si un disque plus petit se trouve sur B) apparaît dans le comportement de certains des sujets considérant les opérations comme des processus, mais n’apparaît pas chez ceux qui les considèrent comme des changements d’états[15].

Par ailleurs, Richard, Poitrenaud et Tijus ne font pas de différence entre les contraintes explicites proposées par l’énoncé et les contraintes implicites que le sujet rajoute. Cette position présente l’avantage de la parcimonie, mais ne permet pas d’expliquer pourquoi les sujets sont capables d’énoncer les contraintes explicites, alors qu’ils ne sont pas capables d’énoncer (au moins certaines) des contraintes implicites[16].

Enfin, les auteurs postulent des mécanismes généraux de calcul de sous-buts qu’ils ne justifient pas (car ce n’est pas l’objet de leur article). Cependant, ces mécanismes de calcul, basés sur un ensemble de règles de production, ne sont pas homogènes avec le reste de leur représentation, bien qu’ils jouent un rôle central dans la résolution.

Selon nous, le modèle des contraintes apporte un éclairage novateur sur la résolution de problème, en permettant notamment de résoudre le difficile problème des violations de consignes, mais n’aborde pas suffisamment les mécanismes de traduction et de gestion de buts. De tels mécanismes de supervision sont pourtant nécessaires si l’on désire expliquer correctement le comportement des sujets humains en situation de résolution de problème, et l’ajout de tels mécanismes permettrait sans doute d’augmenter le pourcentage de coups correctement prévus (61 %).

 

2.3 Les savoir-faire

La modélisation des connaissances procédurales fut pour nous une source de difficulté. La modélisation que nous avons retenue est basée sur des opérateurs partiellement réversibles, et utilisant un système de préférence que nous présenterons au chapitre 5. Cependant, cette partie de notre modélisation étant la moins aboutie, nous envisageons ici des alternatives à notre modélisation. Nous commençons cette étude par la présentation du système SIERRA, développé par Kurt VanLehn, qui constitue une modélisation spécifique des connaissances procédurales, à partir d’une analyse des conditions d’apprentissage de telles connaissances. Nous examinons ensuite tour à tour si (et si oui, comment) les modèles mentaux et les contraintes peuvent être utilisés afin de modéliser ces capacités.

 

2.3.1  SIERRA

SIERRA est une modélisation basée sur un système de production développé par Kurt VanLehn [VAN 90], à partir d’une théorie  appelée ‘Repair Theory’ (développée par Brown et VanLehn) [BRO 80] qui expliquait comment peuvent apparaître des ‘bugs’ au cours d’une résolution de problème dont la procédure serait incomplètement connue. Par la suite VanLehn développa une théorie de l’apprentissage (‘STEP’), permettant une modélisation intégrée de l’acquisition des procédures correctes et erronées [VAN 83a] [VAN 83b]. Les théories Repair et STEP se sont par la suite confondues au sein de la même théorie : SIERRA. L’objectif principal de VanLehn est de développer une théorie générative de l’acquisition des connaissances procédurales, d’une manière similaire aux théories génératives de la syntaxe proposées par Chomsky [CHO 65].

Afin de se consacrer sur des savoir-faire ne faisant pas intervenir de sémantique, les auteurs s’intéressèrent pour leur modélisation aux procédures arithmétiques élémentaires, telles que la soustraction. Des études préparatoires, comme [VAN 80] ou [VAN 86], avaient en effet montré que la plupart des élèves de classe élémentaire ne disposaient que d’une conception vague de la sémantique sous-jacente aux algorithmes de soustraction.

SIERRA est un système séquentiel (serial system), une classe de langage qui comprend les systèmes de production séquentiels et les langages de programmation impératifs. SIERRA dispose d’un système de variables qui peuvent contenir des nombres ou des pointeurs vers la situation (dans une opération de soustraction, la colonne en cours de traitement sera représentée par un pointeur vers la situation), et d’une pile de but pour contrôler le déroulement de la procédure. Trois types de buts existent dans SIERRA :

 

· Les buts ET (AND) qui exécutent tous leurs sous-buts.

· Les buts OU (OR) qui exécutent un seul de leurs sous-buts.

· Les buts POURCHAQUE (FOREACH) exécutent tous leurs sous-buts pour chacun des objets d’un ensemble donné d’objets.

 

En résumé, on peut considérer que la représentation des connaissances procédurales dans SIERRA se fait à partir d’un langage de programmation permettant de développer des routines (le rôle d’une routine étant de dérouler un sous-but). La syntaxe de ces routines est celle d’un système de production.

Nous ne rentrerons pas plus avant dans la description du travail de VanLehn, car l’utilisation qu’il fait de son système n’entre pas dans le cadre de notre étude : il cherche à déterminer quelles sont les conditions idéales d’apprentissage d’une procédure, et à démontrer comment cet apprentissage influe sur la procédure effectivement mémorisée (le lecteur intéressé trouvera dans [PIR 91] une analyse des points que nous n’abordons pas ici, accompagnée d’une succincte comparaison entre SIERRA, SOAR et ACT-*). Nous nous bornerons à constater que ces résultats ne sont pas décisifs, puisque sa théorie ne permet d’expliquer que 28 des 75 bugs «observés»[17], et génère 26 bugs non observés.

Or, la représentation choisie par VanLehn avait pour objectif de permettre une explication de l’apparition des bugs dans les procédures apprises par les sujets humains. Les résultats qu’il présente allant plutôt dans le sens d’une invalidation de sa théorie, la représentation adoptée perd de son intérêt. De fait cette représentation permet de programmer une procédure de soustraction avec un grain permettant des perturbations. Le programme écrit correspond au comportement «correct» à adopter devant une soustraction (tel qu’il est enseigné aux jeunes américains), mais la représentation interne, qui pose un grand nombre d’hypothèses, ne permet pas d’expliquer les déviations observées.

Nous rejetons donc la représentation des connaissances procédurales de VanLehn, dont aucun des éléments ne nous paraît justifié. Nous avons déjà critiqué au paragraphe 2.2.2.4 l’utilisation des systèmes de production pour modéliser le comportement humain. Nous verrons au cours du paragraphe 6.3.2 les problèmes posés par l’utilisation d’une pile de but, et nous proposerons au cours des chapitres 4 et 6 que les buts ne s’expriment pas en terme de situations à atteindre, mais en terme de situations indésirables à éviter.

Plus généralement, nous rejetons la représentation des connaissances procédurales par tout modèle à base de règles de production. Nous allons maintenant examiner si les deux autres formalismes que nous avons présentés (les modèles mentaux et les contraintes) peuvent être utilisés dans l’optique d’une modélisation des connaissances procédurales.

 

2.3.2 Les modèles mentaux

Bien que Johnson-Laird et Byrne utilisent les modèles mentaux pour des tâches qui n’ont apparemment pas de lien avec les connaissances procédurales, on peut se demander s’il est possible de restreindre leur théorie afin de les modéliser[18].

Afin de réaliser une telle modélisation, il convient de modifier la sémantique des modèles mentaux. Un modèle mental ne sera plus une représentation statique compatible avec les prémisses du problème, mais une représentation de l’état du problème susceptible d’évoluer. Deux évolutions différentes du même modèle mental deviennent alors deux modèles mentaux différents.

Si l’on vérifie alors la cohérence entre les modèles mentaux résultants et le but poursuivi (ce qui revient à ne plus chercher ce qui est commun à l’ensemble des modèles, mais ce qui les différencie), on obtient l’ébauche d’un résolveur de problème.

Cependant, il conviendrait encore de définir comment un modèle mental est initialement construit, comment il peut évoluer, et comment s’effectue la vérification de la cohérence entre les modèles résultants et le but poursuivit. En outre, l’intérêt principal des modèles mentaux (maintenir plusieurs modèle afin de déterminer leurs points communs) est perdu ici, puisque les points communs ne sont plus pertinents dans ce cadre.

 

2.3.3 Les contraintes

Comme nous l’avons déjà indiqué, la modélisation à base de contraintes peut être discutée sur l’aspect de la gestion et de la génération des buts, et ne distingue par ailleurs pas les contraintes que les sujets peuvent expliciter de celles qu’ils n’explicitent pas. Par ailleurs, les points forts de cette théorie (expliquer l’apparition de coups illégaux, restriction du nombre de coups légaux par le biais de contraintes supplémentaires) peuvent être considérés comme des explications des erreurs des capacités procédurales des sujets.

Transformer la théorie des contraintes pour en faire une théorie des capacités opératoires des sujets (plutôt qu’une théorie du comportement du sujet humain en situation de résolution de problème) ne demande en outre que la suppression des hypothèses que nous avons remises en cause (suppression du système à base de règle pour la gestion des buts, et éventuellement distinction entre les contraintes explicitables et non explicitables[19]).

La représentation des connaissances procédurales que nous avons choisie pour notre modèlisation est une modélisation à base d’opérateur, plus simple que celle à base de contraintes [20] , mais si nous avions à modéliser plus finement le comportement de nos opérateurs, c’est vers une modélisation à base de contrainte que nous nous orienterons.

 

 

 

précédent

 



Psychosonique Yogathérapie Psychanalyse & Psychothérapie Dynamique des groupes Eléments Personnels

 

© Copyright Jean-Bernard AURIOL

C.V. de Jean-Bernard Auriol

dernière mise à jour le

25 Janvier 2002

 

 

 



[1]    Les états initiaux et finaux pouvant être chacun bien ou mal définis, Reitman considère les 4 classes : (bien définit, bien définit), (bien définit, mal définit), (mal définit, bien définit) et (mal définit, mal définit).

[2]    Le terme descendant signifie ici des connaissances déclaratives vers les connaissances procédurales. Il convient de ne pas confondre avec le sens utilisé au cours du chapitre 1, où le terme résolution descendante signifiait résolution par découpage du problème en sous-problèmes.

[3]    On pourrait discuter de l’existence ou non du modus ponens dans les systèmes de production. Johnson-Laird et Byrne rejettent cependant les manipulations syntaxiques qui sont le cœur des systèmes de production.

[4]    L’idée de GPS est donc de chercher d’abord les différences entre l’état actuel et l’état final (end) puis de chercher un moyen (mean) de résoudre ces différences ; d’où le nom de means-ends analysis.

[5]    Cela peut paraître contradictoire avec le fait que les règles de productions ne sont pas des règles logiques. Il est possible, en donnant le bon jeu de règles, de construire un solveur logique d’ordre 0 à partir d’un système de production. Mais une production ne constitue toutefois pas une implication logique.

[6]    Nous utilisons également dans notre modélisation le terme de ‘préférence’ (cf. chapitre 5). Cette notion n’a pas de point commun avec les préférences à la SOAR. Nous avons toutefois décidé d’adopter ce terme car c’est celui qui nous paraît le plus approprié pour désigner la notion que nous introduisons.

[7]    Plus précisément que le système cognitif humain, ou pour le moins la partie qui en est modélisée, n’effectue que des opérations calculables…

[8]    Le fonctionnement d’ACT-R résout ce problème de l’encombrement mémoire en évaluant les règles en parallèle et en interrompant cette évaluation quand le résultat attendu des productions déjà évaluées paraît satisfaisant. Cependant, ACT-R limite sa recherche en introduisant le but des règles dans la partie Action, et il utilise pour effectuer cette évaluation la probabilité que la règle considérée permette d’atteindre le but poursuivit. En cela, le comportement d’ACT-R paraît très éloigné du comportement d’un novice.

[9]    Nous ne prétendons pas ici que la cognition humaine n’est pas calculable. Nous présentons simplement le fait que les mécanismes élémentaires de fonctionnement des systèmes de production semblent éloignés des mécanismes élémentaires des sujets novices. L’hypothèse selon laquelle le moteur Prolog est à la base de la cognition humaine nous conduirait à émettre les mêmes objections.

[10]  The psychological core of understanding, I shall assume, consists in your having a ‘working model’ of the phenomenon in your mind.

[11]  ‘I have never found errors which could unambiguously be attributed to faulty reasonning’.

[12]  Ce qui dans un premier temps pourrait apparaître comme un point fort de la théorie. Le problème vient du fait que la théorie des modèles mentaux n’explique pas pourquoi les sujets vont réussir ou échouer.

[13]  Au sens où la représentation mentale utilisée est analogue à ce qui est représenté.

[14] Sans rentrer dans les détails, une pile de but pose trois problèmes : l’encombrement de la mémoire de travail, la difficulté d’effectuer des courts-circuits au sein de la pile et la difficulté de mémoriser la planification d’une résolution sur l’autre.

[15]  Ce dernier point est d’ailleurs un autre des points forts de leur modèle.

[16] Les contraintes liées à des heuristiques générales de résolution de problème, comme ‘ne pas défaire ce qui vient d’être fait’ sont des contraintes implicites qui peuvent être verbalisées par les sujets («Je reviens en arrière»). Mais les interprétations abusives des consignes («Ne pas sauter un piton») sont des contraintes implicites qui ne sont jamais verbalisées par les sujets.

[17]  Ces bugs sont en fait déterminés par un autre programme de VanLehn : debuggy. Il ne s’agit donc pas d’observations directes puisque ce sont les conséquences des bugs déterminés par debuggy qui sont observés.

[18]  L’analyse menée ici n’est pas une critique d’une quelconque position défendue par Johnson-Laird et Byrne qui ne se sont jamais posés la question de savoir si leur modèle pourrait être modifié pour être utilisé à une autre fin.

[19]  Les connaissances explicitables ne nous semblent pas être des connaissances procédurales, mais des connaissances logiques (cf. chapitre 4).

[20]  Comme nous l’indiquerons au cours du chapitre 5, les opérateurs sont pour nous des boîtes noires respectant quelques principes simples. Modéliser ces opérateurs à partir des contraintes semblent cependant possible. Notament, la génération d’une situation rendant une action possible serait assurée par la même matrice de contraintes que celle permettant le calcul des coups jouables dans une situation, en lisant simplement cette matrice dans l’autre sens.