LES NOUVELLES TECHNOLOGIES,
MOYEN DE REPENSER LA FORMATION DES ENSEIGNANTS

Monique Linard
Professeur en Sciences de l'Éducation, Paris X - Nanterre
 

   En quoi les Nouvelles Technologies de l'Information et de la Communication (NTIC) peuvent-elles être considérées comme des moyens privilégiés de comprendre l'intelligence humaine et de repenser la formation en général et celle des enseignants en particulier ?

   Partant du constat que l'ordinateur est à l'origine d'une mutation profonde à la fois de la conception de l'intelligence humaine (modèles cognitivistes) et des pratiques sociales de production des choses et de gestion des individus, on voudrait en montrer deux conséquences contradictoires :

  • c'est en raison des choix épistémologiques et pratiques qu'elles matérialisent que les NTIC offrent des outils et des modèles exceptionnels pour renouveler la pensée et l'action dans le domaine de la formation ;

  • c'est en raison de ces mêmes choix qu'elles rencontrent leurs limites et apportent par la négative d'autres enseignements aussi utiles à la formation.

   On analysera d'abord les présupposés sur lesquels se fondent les modélisations cognitivistes de l'intelligence et de la connaissance inspirées des principes de l'ordinateur classique. Puis, à partir d'une comparaison avec les caractéristiques de l'action et de l'intelligence humaine naturelles, on s'efforcera de tirer les leçons de l'expérience et d'avancer des propositions d'orientation pour la formation en général et celle des enseignants en particulier.

1 - LE MODÈLE COGNITIVISTE DES CHOIX ÉPISTÉMOLOGIQUES ET PRATIQUES BIEN PRÉCIS

   Les nouvelles technologies dérivées de l'informatique sont d'abord des technologies intellectuelles et les machines qui nous entourent, d'abord des machines à représenter. Elles ne traitent plus la matière ni l'énergie, mais l'information symbolique sous ses diverses formes pour divers objectifs  [1].

   En s'attaquant à la représentation et au traitement général des connaissances, les NTIC informatiques nous entraînent dans une révolution épistémologique et culturelle autant que socio-économique. Elles ne défient pas seulement l'éducation et la formation sur leur terrain traditionnel : contenus des connaissances, développement intellectuel et intégration professionnelle des individus. En tant que techniques cognitives universelles, elles modifient profondément le contexte et la situation même de la formation, la confrontant à des mutations sociales profondes de finalités, d'objectifs et de méthodes.

   En formation pourtant, les pratiques actuelles des NTIC dépassent rarement la simple instrumentation ou l'illusion du tout-technologique. Quand elles le font, elles sont le plus souvent conçues comme une ingénierie de la connaissance inspirée du modèle cognitiviste. Ce modèle assimile la connaissance humaine (communication et apprentissage compris) à la représentation et au traitement automatiques de l'information par l'ordinateur (dans son architecture classique : interfaces d'entrée, processeur, mémoires de données et de programmes, interfaces de sortie). Le modèle a évolué de façon considérable en trois décennies, passant du formalisme calculatoire strictement logico-mathématique hérité de l'automate numérique conçu par A. Turing et amélioré par J. Von Neumann aux formalismes symboliques actuels, beaucoup plus ouverts et diversifiés dans leurs définitions, leurs objets et leurs modalités  [2].

   Toutefois, au plan épistémologique, le cognitivisme actuel, en Intelligence Artificielle (IA) comme en psychologie cognitive, continue de systématiser deux choix conceptuels bien précis quant à la définition de l'intelligence et de la connaissance en général : le formalisme et le rationalisme. Et ces choix ont des incidences directes sur les problèmes de formation qui nous concernent.

   Le formalisme logico-symbolique est un choix technique de représentation du réel lié à la conception même de l'ordinateur classique. Des symboles, en effet, l'ordinateur ne peut traiter, en raison de sa constitution purement physique, que les formes (les signifiants dénotatifs) à l'exclusion des contenus (les signifiés associés ou signifiants connotatifs). Ce mode logico-abstrait de représentation a été associé, dès l'origine, à un type exclusivement calculatoire  [3] de traitement des symboles.

   Le présupposé au fondement du principe d'abstraction logique est que l'on peut, sans conséquence dommageable pour la pertinence du traitement, manipuler syntaxiquement les seules formes des symboles indépendamment des réseaux associés de significations qui les relient à leur support matériel et à leurs usagers. Autrement dit, on traite les symboles comme des formes algébriques vides et autosuffisantes : purs signifiants différentiels codés, dont la composante sémantique (les signifiés) n'est constituée que des quelques relations internes indispensables avec les autres signifiants du programme.

   Les symboles formels se trouvent donc coupés par définition de la plupart de leurs dimensions de réalité : entre autres des conditions empiriques externes de genèse et de production par les acteurs humains en situation particulière, qui leur donnent sens à partir de leurs intentions et de leurs actions. Ainsi réduits et formalisés, ils peuvent accéder au général et devenir universels.

   Mais ce principe d'abstraction qui fonde la puissance et l'efficacité du formalisme logico-symbolique, se paie d'un prix élevé qui marque aussi ses limites. Ces limites sont liées au réductionnisme radical qui a dû être pratiqué sur la connaissance humaine naturelle afin de la rendre suffisamment définissable, cohérente et prévisible, autrement dit suffisamment rationnelle, pour être totalement calculable.

   Le rationalisme fonctionnel opératoire est un choix de niveau philosophique et/ou épistémologique. Il porte sur la conception même que l'on se fait de l'action sur le réel en général et vient compléter de façon cohérente le formalisme logique. Pour la psychologie cognitive actuelle, en effet, il y a bien un sujet de la connaissance, mais cette connaissance se ramène pour l'essentiel à la résolution de problèmes finalisée. Dans ce cadre :
« ( ...) le sujet de la psychologie cognitive a une tâche avec des enjeux, il se donne des objectifs, prend des décisions, en contrôle l'exécution, évalue le résultat de ses actions et modifie en conséquence ses représentations. » (Richard, Bonnet, Ghiglione, 1990, p. XVI).

   Ainsi restreinte à une action raisonnée finalisée par une tâche, la connaissance peut recevoir une description exhaustive, définie strictement en termes d'opérations : aisément formalisable, donc aisément calculable... Formalisme logique et rationalisme fonctionnel s'y étayent réciproquement.

   Cette double conception de la connaissance comme traitement logico-formel d'informations et comme résolution rationnelle de problèmes se réfère aux modèles cybernétiques, informationnels et systémiques développés, depuis les années cinquante, par les pionniers de la théorie des automates et de l'intelligence artificielle aux États-Unis. Elle a donné des modèles cognitivistes généraux, pertinents et efficaces, dont l'extrême puissance et la capacité évolutive ne cessent de faire leurs preuves dans tous les domaines.

   Grâce à l'évolution parallèle rapide des conceptions, des langages et des objectifs, la modélisation de l'intelligence est devenue infiniment riche et diverse. Elle parvient actuellement, en IA et en psychologie cognitive, à simuler  [4] ou à décrire de façon satisfaisante le fonctionnement d'une intelligence abstraite idéale, appliquée à toutes sortes de tâches à différents niveaux de traitement : physique (sélection et reconnaissance de signaux perceptifs), sémantique (identification des objets) et pragmatique (interprétation et prise de décision par rapport à la tâche à accomplir). De même, a-t-on beaucoup progressé dans la description théorique et pratique des diverses fonctions cognitives d'appréhension, mémorisation, raisonnement, décision d'action, évaluation et contrôle de l'information, qui concourent à la connaissance (Richard, 1990 ; Richard, Bonnet, Ghiglione, 1990 ; Caverni, Bastien, Mendelsohn, Tiberghien, 1988 ; Hoc, 1987).

   En trois décennies, l'intelligence cognitive a donc atteint un niveau remarquable d'élaboration. Elle est actuellement présentée comme un système à mémoire dynamique complexe de processus, activités et stratégies de représentation et de traitement, organisé en fonctions interactives, orienté par des objectifs finalisés et auto-régulé par retour d'information des effets sur les sources (feedback cybernétique) (Le Moigne, 1990).

   Mais le présupposé épistémologique sous-jacent à l'édifice cognitiviste n'en fait pas moins question. Poser avec Hegel que tout ce qui est rationnel est réel, n'est pas un mince présupposé ni une prise de position innocente, surtout en ce qui concerne les conduites humaines ! Toujours contreprouvé et toujours récurrent depuis les origines mêmes de la pensée et de la philosophie (Aristote contre Platon, déjà...), l'idéalisme conceptuel abstrait fonde généralement ses théories sur l'évacuation des contraintes et des contradictions propres au monde physique, au corps vivant et à la subjectivité individuelle. Toujours lourd de conséquences plus ou moins désastreuses dès qu'il a prétendu régenter les hommes, cet idéalisme n'a pas cessé, au cours de l'histoire occidentale, de re-apparaître comme fondement des démarches de connaissance, et en particulier de la position rationaliste.

2. L'INTELLIGENCE ARTIFICIELLE : UNE RAISONNEUSE IDÉALE

   Dans de telles perspectives, en quoi les modèles logico-formels rendent-ils correctement compte du fonctionnement de l'intelligence naturelle et en quoi sont-ils insuffisants ?

   Ils en rendent correctement compte en ce qu'ils ont trouvé avec l'ordinateur un modèle théorique et pratique universel qui permet d'explorer très loin les fondements et le fonctionnement de la connaissance rationnelle. Ils sont insuffisants en ce qu'ils sont encore essentiellement fondés sur une conception algébrique de l'univers, radicalement abstraite et décontextualisée, alors que l'intelligence naturelle ne l'est pas.

   Sous sa forme actuelle, le cognitivisme qui en dérive opère, en effet, sur la réalité de l'intelligence humaine deux réductions radicales.

  • Il réduit le sujet cognitif à un automate rationalo-fonctionnel compétent, agent d'opérations et de procédures rigoureuses, circonscrites aux seules connaissances et aux seuls objectifs instrumentaux de la tâche à accomplir. Point d'acteur individuel différencié, ni d'incompétence, ni de contexte perturbant pour cette tâche, ni de signification autre que directement instrumentale ; point d'analyse des positions et des conditions de production des protagonistes ni de détermination sociale dans la programmation des opérations : seulement l'exécution correcte des instructions requises par l'atteinte de buts pré-définis.

  • Il formalise cette représentation strictement rationnelle de façon strictement utilitaire, quelle que soit par ailleurs la modalité de représentation informatique utilisée (algorithmique, propositionnelle, par réseaux sémantiques, cadres prototypiques ou scénarios). Point d'acteur individualisé ni de corps, donc point de ces apparentes inutilités que sont la sensation, l'émotion, le sentiment, le désir, la peur, les conflits. Mais aussi, en conséquence, point de sens individuel ni d'histoire personnelle, point de besoins ni de projet autonome évolutif inscrit dans un espace-temps physique et psychique en interaction polémico-contractuelle avec d'autres acteurs sociaux.

   Ainsi définie, la connaissance cognitiviste relève essentiellement du modèle de l'ingénieur. Elle est le produit d'une intelligence pratico-gestionnaire de type néo-rationaliste, homogène et compétente, extrêmement efficace dans certains domaines, mais radicalement tronquée, abstraite, a-personnelle.

   Dans le traitement exclusivement formel des symboles qui représentent ses connaissances, le sujet tout-cognitif réussit fort bien. Mais il le fait au prix considérable de sa propre disparition en tant que sujet ; du moins, si l'on accepte de définir le sujet comme instance différenciée de production de formes symboliques qui leur donne un sens en leur associant les « contenus » appropriés, à partir de son inscription dans une réalité différente.

   Sans acteur ni sujet, docile et entièrement dédiée aux finalités qu'on lui assigne, l'intelligence cognitiviste est donc une raisonneuse incomparable en ce que rien d'étranger à sa logique ne vient perturber son exercice. Mais elle n'est que cela. Et c'est une raisonneuse myope, purement locale. Intelligence en apesanteur, asservie à la tâche du moment et fragile devant l'imprévu, elle est aussi squelettique qu'irréelle par rapport à son original humain : parfaitement rationnelle et totalement insensée !

   Une telle intelligence a toute sa pertinence dans le champ inerte de la gestion d'information et de la production d'objets industriels. Elle devient hautement discutable quand elle se pose en norme pour la formation humaine.

   En outre, la sémiologie a beaucoup à dire de ce modèle.

3. REGARDS SÉMIOLOGIQUES SUR LE FORMALISME LOGIQUE EN GÉNÉRAL

   Selon la théorie sémiologique (C.S. Peirce, 1938-78 ; R. Barthes, 1964 ; U. Eco, 1968), les « contenus » d'un signifiant symbolique (de premier niveau de dénotation) ne sont, finalement, que des « interprétants » ou autres signifiants associés (de connotations) qui relient le premier à d'autres aspects pertinents de sa signification, établis par l'usage. Mais ces interprétants sont déterminants. Ils plongent chaque signifiant dans un réseau dense de relations multiples qui le définissent précisément en l'« interprétant » sous d'autres aspects : ses diverses formes matérielles, ses contextes, ses traductions dans d'autres codes, ses conditions pratiques, subjectives individuelles et sociales objectives, de signification et de production par des acteurs en situation et en relation... Les interprétants contribuent ainsi à deux dimensions essentielles du symbolisme humain : le sens connotatif multidimensionnel à sémiogenèse évolutive, sensible au contexte, et le cadre adaptatif mais relativement stable de référence.

   La sémiologie peut donc fournir une explication théorique aux limites du logicisme formel classique. Elle montre qu'en coupant le symbole de ses réseaux d'interprétants et de sens associés, ce type de formalisme se donne des moyens épurés et homogènes de calcul en se débarrassant d'importantes sources d'erreurs, d'incertitudes et de perturbations. Mais il y perd aussi du coup la seule méta-instance de référence qui donne sens (sensation, direction et signification) et principe organisateur à ses traitements. Avec la référence, disparaît donc aussi une grande part de sa validité empirique par rapport au symbole humain.

4. L'INTELLIGENCE HUMAINE : UNE INTELLIGENCE D'ACTEUR-SUJET

   Au contraire, chacun le sait bien par expérience, l'intelligence humaine (connaissance et action) est toujours l'activité intentionnelle de « quelqu'un », en situation, « pour quelque chose ». Son raisonnement ne se tient jamais dans un isolat logique. Il est toujours le produit incertain d'un acteur intentionnel en situation qui cherche à passer d'un état d'incompétence à un état de compétence à partir d'un projet individualisé dans un environnement fluctuant. Contrairement à, la logique formelle, la logique naturelle fonde sa solidité sur l'approximation, l'hétérogénéité des critères et l'erreur redressée. Ses raisonnements sont toujours des éco-raisonnements, plongés dans un contexte « métalogique » d'interprétants qui leur donne sens (sensorialité, signification et direction) et finalité. Autrement dit, elle est toujours participante d'un réseau de pensée d'un autre niveau qu'elle-même qui la détermine et la transforme en permanence.

   Cette propriété de l'intelligence naturelle est liée au fait que, à la différence de l'intelligence purement cognitive du cognitivisme, elle est d'abord l'activité motivée d'acteurs-sujets multidimensionnels, extérieurs au système symbolique qu'ils utilisent, de systèmes vivants auto-organisés et auto-finalisés en devenir, évoluant dans un milieu précis. Elle naît et se développe dans des corps biologiques dépendants de leur environnement pour leur survie, situés et identifiés dans un espace-temps physique topologique et des interactions psycho-affectives et socio-relationnelles. Ses raisonnements sont contraints, bien en deçà et au-delà de l'impératif logique, par le besoin, le désir et une signification symbolique à quadruple source bio-psycho-socio-éthique.

   Loin d'être unifiée et unidimensionnelle (rationnelle-opératoire-utilitaire), l'intelligence humaine est donc une organisation écologique complexe dans l'espace-temps, à plusieurs niveaux enchevêtrés interactifs (Hofstadter, 1985 ; Morin, 1986). Elle doit s'autodéterminer et s'accomplir dans la tension d'impératifs plus ou moins contradictoires de survie biologique, d'interdépendance psychologique, de compétition sociale, de quête conflictuelle d'objets et de valeurs de tous ordres. Elle a toujours des amonts, des avals et des entours déterminants qui sont pour elle autant d'interprétants. Or c'est précisément ce qui manque à l'intelligence formelle de la machine.

5. L'UNE PENSE, L'AUTRE PAS

   Autrement dit l'intelligence artificielle des automates symboliques, sur ses deux pattes logico-physiques ne marche pas du tout du même pas que l'intelligence naturelle des hommes, sur ses quatre pattes bio-psycho-socio-éthiques. Toutes deux raisonnent certes, mais pas de la même façon.

   La première (l'intelligence logique) raisonne immédiatement et parfaitement, mais dans un vide sanitaire. La seconde (la naturelle) raisonne immédiatement et imparfaitement, parce qu'elle est plongée dans un milieu opaque et contradictoire de pensée constitué par la médiation d'un corps et d'un psychisme. Si l'intelligence est autant une mise en oeuvre en vue d'un objectif qu'une accumulation de connaissances, l'une se contente d'appliquer des règles prédéfinies par ailleurs, l'autre doit les élaborer par elle-même en fonction de contextes, buts et règles d'équilibre qui lui sont propres.

   C'est cette pensée-contexte qui donne aux formes symboliques et aux raisonnements de base qui constituent la connaissance, les méta-niveaux de référence et les cadres généraux d'orientation que la seule logique est incapable de se donner en les reliant à d'autres niveaux hétérogènes de sens dérivés de l'action sur le réel (Bateson, 1972 ; Watzlawick, Helmick-Beavin, Don Jackson, 1972 ; Hofstadter, 1985)  [5].

   On comprend mieux alors, pourquoi les NTIC classiques, dérivées d'une conception logico-formelle et pratico-rationnelle de la connaissance, s'avèrent des outils aussi remarquablement efficaces en gestion et en production industrielle que limités pour la médiatisation de l'apprentissage humain. C'est qu'en fait elles ont longtemps matérialisé des conceptions extrêmement réduites (unidimensionnelles, télégraphiques et logiques) de l'information, de la connaissance et de la communication  [6].

   En revanche, de nombreux usages actuels de l'informatique démontrent un point à l'évidence : que ce soient les pratiques thérapeutiques ou semi-thérapeutiques auprès d'apprenants en difficultés de tous ordres (Plantard, 1987, 1989), la riche expérience autour du LOGO de S. Papert qui voulait faire de l'ordinateur un « crayon pour penser avec » (Linard, 1986), les nouveaux outils d'hypertexte et de mondes virtuels qui modifient profondément les modes d'appréhension cognitive (Lévy, 1991). Les limites des technologies ne sont pas dues à des impossibilités techniques mais à des raisons épistémologiques (de déficit d'analyse dans les modèles et les théories qui les fondent) et socio-pratiques (d'illusion techniciste dans les usages qui en sont faits).

6. LEÇONS POSITIVES ET NÉGATIVES

   Mais alors, en quoi des machines qui raisonnent et ne pensent pas peuvent-elles aider les hommes à apprendre à penser ? La question est particulièrement aiguë dans le domaine de la formation. Elle peut recevoir une réponse positive, mais seulement à des conditions bien précises.

   Les NTIC sont non seulement des auxiliaires tout-puissants de faire (et de transfaire et transfert : Sibony, 1989) mais aussi des outils d'intelligence qui concrétisent un regard particulier sur le monde. À partir du moment où on veut bien les considérer comme tels, alors s'ouvre un ensemble remarquable de pistes pour la formation à tous niveaux.

   Quelque soit le modèle intellectuel qui les fondent, en effet, les NTIC matérialisent dans leurs matériels et dans leurs logiciels des choix épistémologiques et pratiques : ces choix sont observables, expérimentables et manipulables dans leurs effets, validables et comparables. En tant que micro-mondes objectivant une conception et une stratégie d'action particulières, elles offrent des outils d'exploration et de formation utilisables à des niveaux très divers (ludique, instrumental, professionnel, expérimental ou réflexif), selon une visée aussi bien intellectuelle que pratique, subjective qu'objective, individuelle que collective. Même sous leur forme cognitiviste la plus étroite, le seul fait de leur constant renouvellement en fait des médiatiseurs d'apprentissage de plus en plus remarquables dont la pédagogie peut tirer de nombreux enseignements.

   Les NTIC ont, entre autres, la propriété, peu exploitée en formation, de faciliter par les voies les plus diverses, un accès directement opératoire aux activités cognitives générales de représentation, de raisonnement et de transformation du réel  [7]. Cette propriété est due au mélange vu plus haut, et qui n'a pas que des inconvénients, d'instrumentation fonctionnelle et de modélisation rationnelle des tâches traitées comme des résolutions de problème.

   S'ajoutent à cela les qualités, souvent relevées, propres au traitement informatique : totale objectivité et disponibilité sans limites dans la présentation des connaissances et des problèmes, rigueur implacable quant à l'application des règles et impartialité garantie quant aux sanctions dépourvues de toute notion de culpabilité, convivialité, docilité et souplesse croissante d'accès par concrétisation et rapprochement du geste mental spontané de l'usager (systèmes Windows, navigation hypertexte ou virtuelle), interactivité qui retourne immédiatement les effets des actions sur leurs causes, diversification des modes de représentation et de traitement (formalisme symbolique et algorithmique classique, langages par objets, réseaux sémantiques, schémas et prototypes, scénarios, hypertexes, réseaux neuronaux, espaces virtuels...).

7. UNE LEÇON D'ÉPISTÉMOLOGIE

   La première leçon que la formation en général peut tirer de l'histoire des modélisations de l'intelligence par les NTIC, l'intelligence artificielle (IA) et la psychologie cognitive est que, en ces domaines, le réductionnisme formel s'est constamment avéré insuffisant. Son histoire, comme celle de la linguistique (du signe isolé à la syntaxe, puis à la sémantique, puis à la pragmatique), se ramène pour l'essentiel à celle des corrections visant à re-intégrer une à une les dimensions évacuées au départ. En IA, le passage en trente ans des pures démonstrations de théorèmes mathématiques au pragmatisme réaliste des systèmes-experts et des mondes virtuels en passant par les jeux d'échecs et la traduction automatique, montre tout le chemin parcouru : d'une conception purement mathématique du calcul à son élargissement aux innombrables connaissances pragmatiques « de bon sens » et aux intuitions analogiques qui concourent au pilotage de l'action quotidienne.

   Cette première leçon épistémologique n'a toujours pas été comprise ni en formation des enseignants ni en formation initiale. Pourtant, quoi de plus proche des « modèles-élèves » tout-cognitifs de l'EAO (Enseignement Assisté par Ordinateur) que « l'élève-modèle » tout-scolaire des programmes nationaux et des stages officiels de formation ? Et quoi de plus semblable que leur commun échec, au-delà de tous les discours, à généraliser des formules universelles de connaissance valables pour tous les individus ?

   Tous deux ne sont-ils pas en fait des avatars du rêve toujours renaissant de « l'homme unidimensionnel » dénoncé par H. Marcuse ? Que ce soit le « sujet cognitif » tout-rationnel du cognitivisme, le « sujet épistémique » tout-opératoire de Jean Piaget, le « locuteur idéal » tout-syntaxique de Noam Chomsky, « l'individu moyen » tout-numérique des statisticiens ou « l'agent calculateur » tout-intérêt des modèles économiques libéraux, toutes ces réductions contemporaines au mythe de l'unité ont connu à la fois et l'essor et le déclin des grandes fictions explicatives totalisantes des phénomènes.

   Utiles et fécondes au départ, elles se sont toutes révélées, à l'usage, aussi limitées que coûteuses par les impasses auxquelles les a menées, pour commodité théorique, l'évacuation de dimensions par ailleurs essentielles.

8. UNE AUTRE LEÇON SUR QU'EST-CE QU'APPRENDRE ?

   En fait, l'histoire de l'intelligence artificielle et du modèle cognitiviste qui a longtemps été son seul fondement, démontre autant par ses échecs que par ses réussites, que l'intelligence et l'apprentissage sont des activités hypercomplexes, beaucoup plus hétérogènes qu'on ne le pensait au départ.

   Apprendre en général (pour les machines et les hommes) peut se définir actuellement comme la compétence évolutive d'un organisme ou d'un système organisé, doué de mémoire, qui se structure en interaction avec son environnement. À partir des traces mémorisées de l'expérience passée, il s'agit de maintenir et corriger, au-delà des obstacles, une activité par rapport à un objectif final. Même pour une machine, c'est donc un processus évolutif, une activité à processus multiples en interaction dans le temps.

   Mais pour un homme, apprendre implique bien davantage. Il lui faut d'abord avoir décidé d'apprendre et s'en être donné les moyens. Ainsi que le montrent la psychologie non cognitive (génétique, sociale, psychanalytique), la sociologie et la sémiotique narrative (Greimas), apprendre (au-delà du conditionnement), c'est d'abord devenir un sujet social compétent. C'est d'abord, en amont, s'être situé en tant qu'identité distincte dans un espace et un temps cognitif de type psycho-relationnel. C'est avoir pu décider d'apprendre en s'en donnant à soi-même des raisons dans un projet qui va piloter l'action selon sa logique propre. C'est, en fonction de l'expérience passée, s'être représenté soi et le monde dans un futur désirable et cohérent et avoir anticipé les situations à venir par rapport à des buts globaux très lointains. C'est aussi pouvoir, sans se sentir menacé, modifier constamment ses structures et ses projets selon les effets de son action sur le réel.

   Apprendre est donc d'abord une visée intentionnelle subjective d'acteur qui implique tout l'apprenant et pas seulement un ensemble d'opérations logiques structurées de l'extérieur. Les représentations mentales, projets, décisions, actions et évaluations des sujets-acteurs se forment à partir de la totalité de leur expérience, corporelle, psychique et sociale, et pas seulement conceptuelle (George, 1983).

   Dans un tel cadre, la logique de l'apprentissage n'est réductible ni à une logique de l'information, ni à une logique fonctionnelle, ni à une logique de l'exposé rationnel des contenus, ainsi qu'ont pu le constater à leurs dépens l'intelligence artificielle et les technologies éducatives. Elle se rapproche plutôt de celle de la communication sociale. C'est la logique conflictuelle d'un acteur-sujet en situation fluctuante d'appropriation qui se construit en construisant ses connaissances dans une dynamique souvent contradictoire entre dépendance et autonomie, finalités conscientes et inconscientes, aspirations individuelles et contraintes sociales. Toutes ces préconditions aux conditions d'apprendre et ces méta-fonctions dépassent de loin les fonctionnalités cognitives de premier niveau traitées par les pédagogies par objectifs, les systèmes experts de l'intelligence artificielle ou les méthodes d'ingénierie pédagogique qui inspirent les formations médiatisées.

9. UNE LEÇON DE COMPLEXITÉ ET DE DIVERSITÉ HUMAINE

   La seconde leçon (qui découle de la première) donnée par l'histoire des NTIC et de l'intelligence artificielle est que, contrairement au rêve de la toute-puissance techniciste, il n'existe pas d'effets cognitifs automatiques « en soi » ni de prescription universelle de la médiatisation technique.

   En formation, en particulier, rien ne s'obtient à tout coup à partir des seules machines : tout dépend de l'interaction entre caractéristiques des machines et caractéristiques des situations et des acteurs. Contrairement à l'enseignant en chair et en os qui peut se bercer d'illusions en jouant le jeu de l'élève à sa place, l'intermédiaire technologique n'est qu'une potentialité inerte qui doit absolument être actualisée par son usager. Or elle ne l'est efficacement que si, loin de chercher à se débarrasser de la complexité de l'apprentissage, elle la respecte en tenant compte de l'état des quatre dimensions, bio-psycho-socio-éthique, qui concourent à définir les caractères et les besoins de l'acteur-sujet, seul metteur en oeuvre des matériaux proposés.

   On notera cependant, qu'avec leur point de vue centré sur la tâche, les modélisations de la psychologie cognitive analysées plus haut ont beaucoup à apporter à la didactique et à la pédagogie de l'apprentissage en général : concepts de processus, de fonctions et de stratégies cognitives et de niveaux de traitement de l'information (signalétique, sémantique, sémantico-pragmatique) ; différences entre l'espace-tâche (de la tâche résolue) et l'espace-problème (de la tâche à résoudre) ; différences entre stratégie du débutant (pas à pas analytique prudent et répétitif) et de l'expert (paquets synthétiques de raisonnement logique et intuitif analogique liés à des situations prototypiques extraites de l'expérience), rapports entre structures de la mémoire, fonctions cognitives, contrôle en amont et en aval de l'action et modes de traitements...

   Mais avant de planter les apprenants devant leur machine à raisonner, comme on les plantait autrefois devant leur manuel, l'échec de toutes les généralisations à grande échelle montre qu'il vaut mieux commencer par les reconnaître dans leur complexité et leurs différences d'acteurs-sujets.

   La prise en compte des quatre dimensions interactives de la connaissance humaine, permet de déduire un ensemble de propriétés psycho-cognitives décisives propres qui ont la représentation mentale comme fondement commun. On propose de retenir les suivantes (Linard, 1990) :

  • genèse corporelle et filiation bio-psychologique de nos modes de représentation cognitives et affectives (Freud, Piaget, Wallon, Bruner) ;

  • dimension sociale de ces représentations : valeurs et attitudes (Moscovici), habitudes de vie (Bourdieu), dynamique de la relation de vicariance (Bandura), de tutelle (Vygotsky, Bruner) et du conflit socio-cognitif au cours des apprentissages (Ferret-Clermont, Doise et Mugny) ;

  • autonomie et dépendance : à la fois processus et produits de systèmes complexes, dépendant de leur environnement mais douées de capacités auto-organisatrices dynamiques, les représentations sont individualisées dans leur fonctionnement et largement imprévisibles dans leurs résultats (Varela, 1989 ; Adan, 1979, 1986) ;

  • pluridimensionnalité et incomplétude : la représentation et l'intelligence humaine étant des systèmes auto-référents, elles sont soumises à leurs lois de limitation. Elles ne peuvent traduire le réel que de façon approximative et incomplète (Hofstadter, 1985). La connaissance humaine est une connaissance fragmentée et radicalement conflictuelle par ses origines polysensorielles (Lawler, 1985) et par son origine pulsionnelle (Freud).

10. À PROBLÈMES DIFFÉRENTS, TRAITEMENTS DIFFÉRENTS

   Ces propriétés générales de la représentation et de l'intelligence humaines permettent de faire une distinction importante entre les difficultés les plus courantes de l'apprentissage des connaissances : celles qui se situent « en amont » de l'apprentissage proprement dit (qui ont trait au désir et aux moyens d'apprendre), et les autres.

   On peut ainsi discerner une échelle de niveaux différents d'interventions complémentaires entre médiation humaine et médiatisation technologique.

   L'échelle peut constituer à elle seule un programme de formation pour les enseignants et les formateurs !

   Tous en interaction, ces niveaux de difficultés ont été déjà largement repérés par les méthodes de remédiation cognitive (PEI de Feuerstein ; Gestes mentaux de La Garanderie ; Ateliers de Raisonnement logique de Higelé...).

  • Difficultés psycho- et socio-affectives individuelles d'investissement initial de la tâche et inhibitions conscientes et inconscientes des méta-fonctions « en amont » de l'acte d'apprendre (troubles de mobilisation énergétique, de confiance en ses capacités, de la tolérance à la frustration, de l'orientation intentionnelle et de la persévérance, de la capacité à imaginer et projeter, décider, agir et s'auto-corriger par comparaison entre effets attendus et effets obtenus, absence de désir de relations avec autrui) ;

  • difficultés psychosociologiques et culturelles liées au manque de soutien et de repères socio-cognitifs, à l'absence d'espoir d'avenir donné par le milieu familial et l'environnement social ainsi qu'aux conflits entre les diverses valeurs, gratifications et contraintes dont ils sont porteurs (confrontation avec d'autres cultures et habitus de classe ou situations de rupture, absence de suivi formel des tâches, d'espoir en une place socialement reconnue, d'attentes et d'aspirations, de confiance dans les gains de l'effort, de l'aide, de la compétition ou de la collaboration...) ;

  • difficultés proprement cognitives de structuration et de fonctionnement des savoir-faire mentaux liées aux caractères spécifiques des divers types de savoirs en usage (théoriques, pratiques, procéduraux : Malglaive, 1990), de disciplines (scientifiques, littéraires...), d'activités (concrètes, abstraites...), d'opérations cognitives (trier, classer, évoquer mentalement, conceptualiser, trouver des relations, généraliser, faire des hypothèses, les vérifier et les modifier, résoudre un problème, théoriser, critiquer, inventer des solutions nouvelles...).

   De ces divers niveaux de difficultés découlent plusieurs niveaux possibles d'intervention pour la médiation et la médiatisation de l'acte d'apprendre  [8].

Niveau préalable de levée des handicaps et des inhibitions du sujet apprenant, qu'ils soient sensori-moteurs, psychoaffectifs ou sociologiques, par instauration de liens de confiance et de valeur (entre soi et l'autre). Les approches thérapeutiques et semi-thérapeutiques par l'audiovisuel (vidéoscopie et vidéoreportage) et l'informatique (logiciels spéciaux pour handicapés, jeux vidéo et progiciels ludiques ou professionnels conviviaux divers) impliquent toutes un alliage délicat de liberté d'action des apprenants, de présence bienveillante et d'accompagnement socio-affectif et cognitif qui offre l'exemple le plus abouti de l'intégration entre médiatisation technique et médiation humaine (Goldenberg, 1979 ; Linard et Prax, 1984 ; Plantard, 1992).

Niveau élémentaire de (re)structuration du fonctionnement cognitif du sujet par développement des relations conceptuelles entre causes et effets, action et résultats, fins, moyens et buts, passé et futur. La conception et les pratiques pédagogiques de LOGO et les nombreuses méthodes d'éducabilité et de remédiation cognitive du type PEI, Gestion Mentale ARL, Tanagra... ont fait la preuve qu'elles peuvent développer effectivement, chez certains, des savoir-faire mentaux jusque-là hypothétiques  [9].

   Ces méthodes ont en commun de créer des conditions de groupes d'apprentissage où la tâche se présente sous la forme d'activités fortement structurées entraînant une explicitation, une confrontation et une évaluation collective des stratégies mises en oeuvre par chacun et une collaboration entre pairs avec pilotage prégnant de l'enseignant. Dans ce cas, l'interaction sociale du groupe joue un rôle médiateur essentiel à l'occasion de la médiatisation technologique de l'activité cognitive.

Niveau académique de la transmission-appropriation des connaissances par systématisation des activités d'abstraction et conceptualisation par information magistrale, travaux dirigés d'application et de recherche et médiatisations techniques diverses pour des groupes d'individus travaillant par paires ou chacun pour soi. Les deux niveaux précédents de difficultés « en amont sont supposés dépassés et la logique de l'exposé de l'expert n'est pas trop éloignée de celle de l'appropriation des débutants.

   Dans ce cas, les NTIC peuvent être utilisées pour médiatiser directement, l'apprentissage des connaissances avec une médiation pédagogique centrée davantage sur trois degrés différents d'appropriation intellectuelle :

  • l'acquisition classique de connaissances précises par rapport à un concept, un problème ou une tâche,
  • la prise de conscience réflexive du contexte et du cadre de référence de ces connaissances,
  • la capacité réflexive générale, le repérage théorique et l'analyse critique qui donnent une perspective unifiée aux niveaux précédents.

   On remarquera que ces trois degrés correspondent approximativement aux trois niveaux emboîtés, vus plus haut, de la communication chez G. Bateson. L'approche comparative de technologies et de logiciels de références différents sur des thèmes comparables, avec travaux en petits groupes et discussion collective, peut servir de départ à une véritable formation épistémologique  [10]. La cybernétique, la théorie de l'information, la systémique, les grandes querelles philosophiques sur la représentation, toujours d'actualité en IA, amènent tout naturellement à pousser loin les interrogations.

   Qu'est-ce-que le réel ? Qu'est ce que l'intelligence ? Qu'est-ce que la rationalité ? Qu'est-ce qu'apprendre ? Qu'est-ce qui sépare l'homme et la machine, l'intelligence artificielle de l'intelligence naturelle ? Quelles théories et quels modèles sous-tendent tel ou tel logiciel ? Pourquoi ? Quels en sont les avantages et les inconvénients, les possibilités et les limites ? Quelles évolutions peut-on observer dans le temps et quelles alternatives ? Qu'est-ce qu'une théorie, un modèle, une simulation, une validation par cohérence interne et par épreuve de réalité ? Quels rapports avec l'expérience pratique et l'expérimentation sur le terrain ?...

   Dans tous les cas, les NTIC enseignent aussi que le besoin de contact social et de guidance n'est jamais éliminé par la qualité de conception et de réalisation des produits techniques. Les problèmes bien connus d'abandon, propres aux publics de l'enseignement à distance, ne sont pas réglés par davantage d'outils multimédias mais par plus de présence sociale : corrections individualisées, groupes de rencontre, rendez-vous téléphoniques, courrier électronique...

   Trente ans d'échecs relatifs en technologie éducative démontrent qu'on ne peut plus réduire la médiation humaine (échange et négociation plus ou moins conflictuelles de relations, de significations, de savoirs et de pouvoirs entre sujets qui se définissent dans une situation sociale en interaction réciproque) à la médiatisation technique (transcodage, manipulation et transfert formel d'informations-objet en vue de tâches et d'objectifs déterminés).

   La formation des enseignants a de nombreuses conséquences à tirer de l'existence de cet « amont » subjectif de la connaissance humaine, socle psychophysique de pensée, irréductible à la seule rationalité logique. La découverte n'a rien d'original en sciences humaines. Mais il est intéressant qu'elle ait été paradoxalement remise en évidence par les difficultés persistantes des NTIC, de la psychologie cognitive et de l'intelligence artificielle à s'émanciper des conséquences de leur rationalisme d'origine.

   Le constat trouve une confirmation supplémentaire, socio-économique, dans l'exigence de « nouvelles compétences » professionnelles, récemment exprimées dans un rapport international par des entreprises européennes  [11].

   Ces compétences d'ordre psycho-relationnelles, non strictement cognitives (capacités d'initiative, de collaboration, d'adaptation, de relations humaines...) seraient avec l'auto-apprentissage, indispensables à l'exploitation optimale des investissements technologiques toujours plus coûteux engagés par les entreprises dans le cadre de la concurrence internationale et de la dé-taylorisation générale des modes de production (voir aussi Ph. Delmas, 1991).

   Un mixte réfléchi de médiation humaine et de médiatisation technique devient ainsi une réponse indispensable aux exigences de la vie professionnelle. Fondée sur la prise en compte d'acteurs-sujets saisis dans toutes leurs dimensions, cette réponse semble être la seule capable de faire face aux nouvelles contraintes socio-économiques et à la mobilisation totale suscitées par la mutation technologique contemporaine. Il est frappant que ce soit le secteur industriel, pressé par des impératifs de rentabilité, qui formule le premier cette exigence de manière explicite, même si l'exigence n'est pas sans ambiguïté.

   Les NTIC offrent partout l'occasion de repenser les principes, les méthodes et les objectifs du partage des connaissances. En formation, elles devraient être des moyens privilégiés, selon C. Solomon, de « ... ré-éduquer les éducateurs à développer des modèles du possible. » (o.c., 1986, p. 175). Mais, comme chacun sait, la décision de saisir l'occasion ne dépend pas des technologies.

Paru dans L'intégration de l'informatique dans l'enseignement et la formation des enseignants ; actes du colloque des 28-29-30 janvier 1992 au CREPS de Châtenay-Malabry, édités par Georges-Louis Baron et Jacques Baudé ; coédition INRP-EPI, 1992, p. 26-44.

RÉFÉRENCES BIBLIOGRAPHIQUES

Andler D. « Progrès en situation d'incertitude », Le Débat, 47, novembre-décembre 1987, p. 5-25.

Atlan H. Entre le cristal et la fumée : essai sur l'organisation du vivant, Paris, Seuil, 1979.
À tort et à raison, inter-critique de la science et du mythe, Paris, Seuil, 1986.

Bajoit G. Pour une sociologie relationnelle, Paris, PUF, 1992.

Barthes R. « Éléments de sémiologie », revue Communications, n° 4, Paris, Seuil, 1964.

Bateson G. Vers une écologie de l'esprit, 1972, trad. française, Paris, Seui1,1977, 1980, Tomes I et Il.

Bruner J.-S. Savoir faire, savoir dire : le développement de l'enfant, trad. française, Paris, PUF, 1983.
Car la culture donne forme à l'esprit : de la révolution cognitive à la révolution culturelle, trad. française, Paris, Eshel, 1991.

Caverni J.-P., Bastien C., Mendelsohn P., Tiberghien G. Psycholoige cognitive : modèles et méthodes, Presses Universitaires de Grenoble, Grenoble, 1988.

COLLOQUES DE BOBIGNY. Penser, apprendre, la cognition chez l'enfant, les troubles de l'apprentissage, la prise en charge, dir. Ph. Mazet et S. Lebovici, Paris, Eshel, 1988

Delmas Ph. Le Maître des Horloges, modernité de l'action publique, Paris, O. Jacob, 1991.

Dolle J.-M. Au-delà de Freud et Piaget, Privat, 1984.

Eco U. La structure absente, 1968, Trad. française, Paris, Mercure de France, 1972.

EUROTECNET. Developing people's ability to learn continuously, Report on European Conférence at Maastricht, November 1989.

George C. Apprendre par l'action, Paris PUF, 1983.

Greimas A.-J. Du sens : essais sémiotiques, Tomes I et II, Paris, Seuil, 1970, 1983
Sémiotique des passions : des états de choses aux états d'âme, Paris, Seuil, 1991.

Goldenberg P. Special technology for spécial children, Baltimore U.P., 1979.

Hoc J.-M. Psychologie cognitive de la planification, Presses Universitaires de Grenoble, 1987.

Hofstadter D. Gödel Escher, Bach : les brins d'une guirlande éternelle, trad. française, Paris, Inter-éditions, 1985.

Lawler R. Computer experience and cognitive development : a child's learning in a computer culture, Ellis Horwood, Chichester, 1985.

Le Moigne J.-L. La modélisation des systèmes complexes, Paris, Dunod, AFCET systèmes, 1990.

Levy P. La machine-univers, Paris, La Découverte, 1989.
Les technologies de l'intelligence, Paris, La Découverte,1990.
L'idéographie dynamique, Genève, Le concept moderne, 1991.

Linard M. « Apprendre et soigner avec LOGO ou le logique au secours du psychologique », Revue Française de Pédagogie n° 76, 5-16, juil/août/sept. 1986, Paris, INRP.
Des Machines et des Hommes, Paris, Éditions Universitaires, 1990

Linard M., Prax I. Image vidéo, image de soi ou Narcisse au travail, Paris, Dunod, 1984.

Malglaive G. Apprendre à des adultes, Paris, PUF, 1990.

Marcuse H. L'homme unidimensionnel, trad. française, Éd. de Minuit, 1968.

Morin E. La Méthode 3 : la connaissance de la connaissance, Paris, Seuil, 1986.

Nyhan B. : L'aptitude à l'autoformation, la compétence clé de la formation continue, Maastricht, EUROTECNET, Commission of the European Communities Human resources, Education, Training and Youth.

Papert S. Le Jaillissement de l'esprit, trad. française, Paris, Flammarion, 1981.

Pierce C.S. Écrits sur le signe, Seuil, 1978 (éd. originale : Collected papers, Harvard University Press, 1938).

Plantard P. « Logiciels de jeux à connotation éducative et thérapeutique », UNAPEI-SNAPEI, Actes du coloque de Lons le Saulnier, oct. 1987.
« McInstosh et prévention... ballade du micro-ordinateur dans les quartiers défavorisés ». GRISE, Rapport de recherche, juin 1989, 54 allée Jean Rostand, 45800 St Jean de Bray.

Richard J.-F. Les activités mentales : comprendre, raisonner, trouver des solutions, Paris, A. Colin, 1990.

Richard J.-F., Bonnet C., Ghiglione R. Traité de Psychologie Cognitive, Tome 2, Paris, Dunod, 1990

Sibony D. Entre dire et faire, Paris, Grasset, 1989.

Solomon C. Computer environnent for children, a reflection on theories of learning and Education, Cambridge, Mass., MIT Press, 1986.

Varela F. Connaître les sciences cognitives, Paris, Seuil, 1989.

Watzlawick P., Helmick-Beavin J., Don Jackson D. Une logique de la communication, trad. française, Seuil, 1972.

NOTES

[1] On ne traite pas ici des nouvelles architectures neuro-mimétiques ni des modèles en réseaux parallèles qui reposent le problème de tout autre manière mais qui commencent seulement à être opératoires actuellement. Cf. note 6 ci-dessous.

[2] Comparer la définition laconique strictement ingénieure de l'informatique comme « Science du traitement de l'information » (années soixante), avec les développements de la psychologie cognitive récente qui se définit comme « Étude des processus et mécanismes de traitement de l'information symbolique ». Dans ce cadre, « Les processus cognitifs sont faits de représentations et de traitements. (...) Les représentations sont des connaissances et des interprétations, les traitements sont des inférences et des jugements orientés vers des activités de compréhension ou vers des décisions d'action. (...) Les activités cognitives qui traitent des connaissances et des significations sont des activités finalisées par des tâches : elles font l'objet d'un contrôle conscient ou non, et sont d'une grande flexibilité ». (Richard, Bonnet, Ghiglione, 1990).

[3] Calculer au sens logique général, non nécessairement numérique, de : « Appliquer une suite d'opérations élémentaires choisies dans un certain répertoire fini » (Andler, 1987).

[4] Simuler : au sens de reproduire artificiellement soit les modes de fonctionnements soit les structures mêmes d'objets et de phénomènes cohérents, validables par comparaison avec l'observation empirique des phénomènes réels.

[5] Watzlawick (o.c. 1972 : 263-266) reprenant Bateson, propose une conception à trois niveaux emboîtés de la connaissance que nous pouvons extraire du monde :
- un savoir de niveau 1, ou savoir « des » choses, ou conscience sensible immédiate ;
- un savoir de niveau 2, ou méta-savoir de second degré à propos de, ou compréhension « sui » les choses de premier niveau (leur signification locale) ;
- un savoir de niveau 3, ou méta-savoir de troisième degré, vision unifiée, fondée sur un ensemble de prémisses générales extraites à force d'expérience des savoir de niveau 2 (signification globale).

[6] C'est en raison des limitations évidentes de la représentation logico-symbolique qu'on été conçues les architectures alternatives d'ordinateur plutôt inspirées de la biologie. Constituées de réseaux parallèles neuro-mimétiques, elles simulent de près le fonctionnement infra-symbolique des neurones de notre cerveau. Le traitement de l'information ne se fait plus à partir de représentation logico-symboliques, mais à partir de l'équilibre spontanément autorégulé des circulations pondérées d'impulsions entre neurones individuels, dotés chacun de leur règles d'entrée et de sortie. Mais alors apparaissent d'autres problèmes, à commencer précisément (absence d'un niveau symbolique supérieur pour contrôler et piloter le comportement spontané des réseaux qui ne connaissent d'autres lois que celles de leur équilibration interne.

[7] Cf. le succès quasi universel du traitement de texte auprès des apprenants en difficulté à qui il offre un magnifique instrument à effacer les « fautes » et démontrer sa compétence par un travail d'une propreté quasi professionnelle.

[8] On peut retrouver sous ces trois formes négatives de difficultés, une correspondance avec les trois composantes de la conscience chez J.-S. Bruner (1983 : p. 283, 284).
- la socialité : « être conscient, c'est d'abord être social » en interaction avec d'autres,
- l'instrumentalité : capacité non seulement de référer des relations entre moyens et buts présents mais de leur imposer ces relations par anticipation,
- la systématicité : capacité à extraire des relations entre évènements, chacun devenant moyen d'interprétation pour d'autres évènements et permettant d'aller « au-delà de l'information donnée » (J.-S. Bruner, 1983 : p. 283, 284).

[9] Pour C. Solomon, une pédagogie constructiviste, à la fois individuelle et collective, exploitant à fond les possibilités d'exploration et de structuration cognitive offerte par LOGO peut aider à développer les savoir-faire suivants : entraînement dédramatisé à l'auto-analyse et à l'auto-correction de sa propre démarche à partir du « déminage » (« debugging ») des erreurs objectives du programme que l'on vient d'écrire ; entraînement symbolique à la dénomination linguistique adéquate et à l'usage d'un « métalangage » à l'occasion des débats sur les noms de procédures dans le groupe de travail ; entraînement logico-pratique à l'analyse des tâches et à la décomposition des problèmes par les deux types descendants-déductif et ascendant-inductif de raisonnement logique ; familiarisation concrète à des « idées-force » conceptuelles complexes du type « constante et variable, boucle et récursion, instructions procédurales et déclaratives, structures emboîtées, expérimentation d'hypothèses ; recours à des forme métaphoriques anthropomorphes de pensée pour rendre des concepts abstrait plus sensibles (« tortue », « lutins », la machine comme « élève » à initier...) ; découverte sociale des différences spontanées considérables de « style cognitif' entre apprenants (C.S. Solomon, 1986).

[10] Les cinq modèles d'apprentissage matérialisés par les divers logiciels qui se sont succédés en trente ans pour le même ordinateur démontrent de façon probante l'importance des choix épistémologiques dans l'usage pratique des machines : depuis l'ordinateur machine-à-enseigner inspirée de l'enseignement programmé (drills and practice) et l'ordinateur socratique de la « découverte guidée » (PLATO), à l'ordinateur « outil intellectuel » éclectique (fans du Basic) ou constructiviste (LOGO piagétien) jusqu'à l'ordinateur carte cognitive ou visite guidée de l'hypertexte et des espaces virtuels (Lévy, 1991 ; Linard, 1990, p. 163 à 172).

[11] Rapport Eurotecnet sur le colloque européen : « Developing people's ability to Learn continuously », B. Nyhan, European Center for work and society - Maastricht, nov. 1989.

___________________
Association EPI