Syst?mes multimedia et enseignement assist? par ordinateur Jacques Vetois

L'"informatique scolaire nage en plein brouillard", titrait le journal Le Monde il y a trois ans (1), à propos de la commande de 150 000 nouveaux ordinateurs pour les lycées et les écoles. Alors qu'en 1985 au lancement du plan IPT (Informatique pour tous), le Ministère de l'Education Nationale avait prévu la livraison des machines, un plan de formation des maîtres ainsi que la fourniture d'un certain nombre de logiciels pédagogiques dont la réalisation était confiée au secteur privé, cinq années plus tard, on se contente de remplacer les machines obsolètes (MO5 et TO7 de Thomson) par des machines plus performantes (compatibles PC). Depuis la situation ne s'est guère éclaircie et la nouvelle majorité est étrangement muette sur ce sujet. Il est vrai que l'enthousiasme des enseignants les plus motivés est vite retombé devant la piètre qualité des logiciels d'EAO disponibles et les résultats peu significatifs des expériences menées avec le langage LOGO à l'école primaire dans les années 80. Il semble que le discrédit dans lequel est tombé l'EAO concerne avant tout l'Education Nationale. L'apparition récente de machines individuelles multimedia, capables d'accéder à des informations sur disque optique (CD-ROM, CDI) qui permettent le développement de nouvelles applications exploitant le texte, le son, et les images numériques fixes et animées, a relancé les travaux de recherche universitaire dans le domaine de l'EAO dont la finalité est orientée vers la formation permanente dans les entreprises. Des études ont montré qu'en 1991, 60% du marché des multimedia s'intégrait de près ou de loin dans des applications liées à la formation. Cet engouement est-il un effet de mode dû à la baisse de prix des matériels et à la généralisation des interfaces interactives sur les micro-ordinateurs. "Un effet Windows" en quelque sorte ? Il faut se rappeler que l'EAO tant décrié dans l'Education nationale était lié à l'interface en mode texte classique des micros de type PC.

Les précurseurs

Pourtant, le concept sous-jacent aux applications multimedia, l'hypertexte, est apparu dès les débuts de l'informatique lorsque Vannevar Bush, conseiller du Président Roosevelt, conçut en 1945 le système MEMEX (MEMory EXtender), sorte de gigantesque base de données textuelles et graphiques où chacun pouvait puiser des informations et stocker ses notes personnelles (2). MEMEX était loin des possibilités technologiques de l'époque et sans lien direct d'ailleurs avec les travaux sur les premières générations d'ordinateurs naissants. Ce n'est qu'à la fin des années 80 que le rêve put devenir réalité à des coûts raisonnables. Il n'est pas difficile d'imaginer les perspectives qui s'ouvrent aux chercheurs et aux enseignants. Comme le dit Théodore Nelson (3), l'inventeur du terme hypertexte : "... fournir à l'étudiant un environnement stimulant, lui laisser le choix de son objet d'étude, lui offrir une bonne variété de matériels intéressants... Il se trouvera motivé, intéressé à en faire un peu plus que dans le cadre de l'enseignement traditionnel". Les sceptiques souriront à ces "lendemains qui chantent" où la technologie (à venir) résoudra les problèmes que la pédagogie rencontre depuis des décennies. Que n'a-t-on pas écrit lors de l'introduction des premiers ordinateurs dans les lycées ? Néanmoins, le projet semble séduisant et les "Technologies de l'Intelligence", pour reprendre le titre d'un livre de Pierre Lévy (4), méritent un examen plus approfondi. L'état de l'art que nous allons entreprendre va nous montrer que beaucoup de problèmes restent à résoudre si l'on veut passer du prototype de laboratoire à une utilisation en situation de formation réelle, même dans le contexte "simplificateur" que représente la formation permanente dans les entreprises.
Le premier qui tenta d'implanter un hypertexte est Douglas Engelbart qui créa une base de données textuelles (System Augment appelé à l'origine NLS) utilisable dans un environnement réseau multi-utilisateur contenant plus de cent mille articles. Théodore Nelson ne vise ni plus ni moins qu'à concevoir une bibliothèque électronique donnant accès à toutes les oeuvres littéraires du monde entier reliées et chaînées entre elles par des liens multiples. Le projet Xanadu, tel est son nom, est planétaire et démesuré et bien dans le caractère visionnaire de T. Nelson.
Quelques rappels sur la notion d'hypertexte sont peut-être ici nécessaires. Les hypertextes diffèrent fondamentalement des bases de données classiques des systèmes informatiques par le mode d'accès à l'information. La mémoire humaine fonctionne par association d'idées. Dans un hypertexte, les informations sous forme de textes, graphiques, images numériques sont stockées dans des "noeuds" reliés entre eux par des liens multiples. Le "lecteur" doit avoir le sentiment qu'il peut "naviguer" librement dans l'information enregistrée sans contrainte excessive mais d'une façon organisée par l'auteur.
L'apport de ces pionniers auxquels on peut ajouter Jef Raskin, Franz Halasz et Andy Van Dam est d'avoir cru une telle démarche possible alors qu'elle était très difficile, voire impossible à réaliser avec la technique de l'époque. Aujourd'hui, il en est tout autrement : tout propriétaire d'un Macintosh peut, grâce au logiciel Hypercard fourni gratuitement avec la machine, jusqu'à une période récente, concevoir un logiciel hypertexte.

Les principaux systèmes Hypertexte existants (2)
ZOG/KMS (Knowledge Management System) (1975)
développement de projet collectif orienté vers l'édition électronique
commercialisé sur stations Sun et Apollo.
NoteCards (1985)
Outil de développement d'application hypermedia développé au Xerox Parc par Frank Halasz pour les stations de travail Xerox.
Intermedia ( 1985)
Outil d'organisation et présentation de cours créé à l'Université Brown. Il possède de nombreuses applications intégrées (éditeur de textes, éditeur graphique, lecteur d'images scannerisées...). Permet un travail collectif.
HyperTIES (1985) Université du Maryland
Outil d'enseignement interactif sur IBM PC.
Guide (1985)
Premier système multimedia conçu pour micro-ordinateur (IBM PC). Il possède un langage de programmation: LOGiiX.
Neptune (1986) Tektronix
destiné au développement de logiciels assisté par ordinateur (didavticiels).
Hypercard (1987) Apple
Le plus connu des outils de développement d'applications hypertexte et hypermedia. Il est parfaitement intégré à l'interface du Mac. Il comprend également un langage de programmation "orienté objet" : HyperTalk.
Toolbook (1990)
Outil du genre Hypercard sur IBM PC sous Windows.

Applications

Les hypermedia se sont introduits dans tous les domaines liés à l'informatique et à la manipulation de grandes quantités d'informations. En dehors de l'enseignement, citons les dictionnaires et les encyclopédies électroniques (Le Robert, Oxford English Dictionnary, Dynamical Medical Handbook), les catalogues de production (Apple), la documentation technique : les constructeurs informatiques (DEC, HP, Apple) et les sociétés de logiciels comme Microsoft tendant à remplacer de plus en plus les dizaines de volumes de documentation décrivant leur système par une application sur CD-ROM facile à mettre à jour et à faire évoluer et d'un moindre coût en petite série.
Dans le domaine qui nous préoccupe, les réalisations effectives sont souvent hybrides et couplent des approches multimedia avec des logiciels de simulation ou des systèmes "intelligents". Simul fournit un environnement d'enseignement en gestion d'entreprises (5), créé pour les besoins de l'Ecole supérieure de Commerce et d'Administration des entreprises d'Amiens. Il est composé de deux parties : l'une où l'étudiant est confronté à des études de cas sous forme de cours vidéo, l'autre où il assume les fonctions de chef d'entreprise sous la surveillance d'un "tuteur intelligent". Une boîte à outils (traitement de texte, tableur, base de données financières...) est à la disposition de l'étudiant.
L'enseignement des futurs médecins car l'imagerie (radiographie, échographie) y est très présente, est également un domaine riche en possibilités pour l'enseignement multimédia. F. Kollier et O. Bodenreider de la Faculté de médecine de Nancy mettent à la disposition des étudiants en médecine une "Petite Encyclopédie de Radio-Pneumologie" (6), qui comporte une partie tutorielle classique de rappels des bases anatomiques et radiologiques et une structure hypermédia qui permet de naviguer dans une base d'images radiologiques. Chaque vue est accompagnée d'un texte et donne accès à des photos du même phénomène pathologique ou de lésions qui sont généralement confondues avec le précédent.
Dans une formation à la CAO avec des logiciels de dessin professionnel, le recours à des hyperdocuments est une aide à l'apprenant pour réaliser des exercices ou des mini-projets. En milieu scolaire, un retour aux sources de l'hypertexte se concrétise par des banques de données textuelles comme aide à l'étude des textes littéraires pour les classes de terminale ou comme spécialisation en anglais technique pour celles de technicien supérieur.

De l'art de la navigation

Tout nouveau media possède un revers qu'il est parfois difficile de mettre en évidence à partir de tests menés sur des maquettes de l'application définitive par des gens motivés, sous le charme de la performance technologique. La première difficulté dans un Hypersystème est la simplicité même de déplacement dans cette structure. En effet qui dit navigation dit orientation. Comment s'orienter dans un graphe ayant plusieurs centaines de noeuds, chacun centré sur une information pas nécessairement pertinente pour le "lecteur" ? Le danger d'une disparition dans l'hyperespace, comme le souligne A.Moreira (7) d'une manière imagée, guette celui-ci, particulièrement le néophyte qui ne possède pas de points de repère dans la discipline concernée. Par contre, le chercheur chevronné accédera plus facilement à l'information qu'il cherche que dans un media classique. Un apprentissage de l'hypermedia est donc nécessaire. Il est vrai que les écoliers peinent beaucoup quand ils doivent recourir à l'usage d'un dictionnaire ou d'une encyclopédie.
Des réponses partielles à ce problème existent. Comme dans toute navigation, on peut utiliser des cartes et des boussoles. On propose donc au lecteur perdu des plans globaux de la base de données ou des cartes locales centrées sur le noeud où il est arrivé. Evidemment, cela peut ne pas suffire. Des techniques de filtrage permanent, ou par requête, peuvent limiter les recherches à un certain type d'information. Une aide visuelle, en associant à certaines propriétés des couleurs, des formes géométriques, voire des textures peut être d'un grand secours. L'aspect media (image fixe ou animée, sons) apporte alors une dimension supplémentaire au concept initial d'hypertexte. Il reste néanmoins que ce problème d'orientation n'est guère soluble par ces techniques quand le système possède un grand nombre de noeuds ou de liens de chaînage et que des changements fréquents sont apportés à leur arrangement.
A la difficulté de navigation s'ajoute le morcellement du savoir, inhérent à de telles organisations. Le lecteur risque alors de ne tirer qu'une connaissance superficielle du sujet traité, alliée à une image embrouillée de sa complexité. On peut y ajouter un autre phénomène remarqué par des chercheurs, celui de la surcharge intellectuelle où l'effort de concentration pour s'orienter diminue la capacité d'attention du sujet quant au fond de la question étudiée. Si cette remarque s'avère fondée, et je dois dire qu'elle recoupe les quelques expériences que j'ai menées avec des hyperdocuments, l'automatisation de la formation ne sera pas la panacée dont rêvent certains.

L'Hyper-écriture

La conception d'un hyperdocument demande la définition de l'ensemble des noeuds et des liens qui les relient. Selon les systèmes, la réalisation est plus ou moins simple. Par exemple, sous Hypercard, chaque noeud est une carte sur laquelle le concepteur peut, à l'aide d'une palette d'outils, afficher différents types d'information. Dans d'autres systèmes comme, NoteCards, Textnet, des types de noeuds prédéfinis existent. Il n'en reste pas moins que la création de chacun d'eux, la mise à jour de toutes les références, demandent un travail considérable qui ne peut être réalisé que par une équipe. Mais rapidement surgit la question de l'intégrité du réseau créé : existence de noeuds isolés, de liens sans destination...
Peut-on raisonnablement automatiser ce processus ? Dans de nombreuses applications, l'auteur se contente d'ajouter des "marques" ou des "commandes" au texte source, qui seront "compilées" pour générer automatiquement les liens et les noeuds. D'autres tentatives ont recours aux techniques de traitement du langage naturel, aux méthodes statistiques, voire à l'Intelligence Artificielle, pour construire tous les liens possibles à partir d'un corpus de textes donné. La création des liens doit refléter la sémantique des sources, et donc la structure profonde des connaissances exposées. Dans le cas d'applications d'EAO, c'est toute la démarche pédagogique qui sera inscrite dans les liens entre les blocs d'information : elle peut difficilement, dans l'état actuel de nos connaissances faire l'objet d'une génération automatique sans tomber dans la caricature.

Quel avenir pour la formation hypermédia ?

Deux grands courants de recherche se partagent ce que l'on peut appeler "l'informatique éducative" (8). L'un, assez ancien s'appuie sur l'Intelligence Artificielle pour imaginer des modèles d'apprentissage et de représentation des connaissances. Des tuteurs "intelligents", capables de s'adapter au profil des étudiants et d'analyser leurs réponses grâce à l'expertise des pédagogues et des didacticiens, existent dans les laboratoires mais leur expérimentation en classe est encore à faire. L'autre vient de la tradition de l'EAO, donc d'une vision plus "behavioriste et comportementale" de l'apprentissage et espère trouver dans les hypermedia un remède aux carences les plus importantes des logiciels éducatifs actuels, qui ont largement contribuées au discrédit de l'EAO.
Face à la montée des effectifs, l'EAO traîne derrière lui, depuis le début le soupçon de l'industrialisation de la formation confiée à des machines encadrées par quelques animateurs. Or, comme le montre Victor Scardigli (9), "l'innovation sociale peut naître autour de la technique et non par la technique", à condition qu'elle soit en phase avec le contexte socio-politique de la société globale. La technique seule ne recrée pas le social. Dans les années 80, on a introduit des ordinateurs dans les lycées et les écoles sans changer en quoi que ce soit l'organisation de l'enseignement et du système éducatif. A propos de l'audio-visuel et de son insertion à l'école, Jean Marie Albertini (10) souligne que "le système éducatif français veut d'abord faire des mass media un système pour diffuser plus aisément des auxiliaires à l'animation de la classe et non une manière de relativiser ou de changer son rôle... On alourdit les activités de l'enseignant et les coûts de fonctionnement du système sans accroître son efficacité". Cette remarque s'applique encore plus à l'informatique pédagogique qui demande aux professeurs même dans les disciplines scientifiques un fort investissement personnel. Aucun des acteurs dans l'Education Nationale, les enseignants mais aussi les parents et l'administration ne sont prêts sauf quelques minorités à changer les règles du jeu. Le conservatisme des enseignants et de l'administration est connu. On aurait pu penser que les parents poussent au changement. Dans leur majorité, ils ont bien accueilli l'entrée des machines dans les établissements. Mais veulent-ils bouleverser l'organisation scolaire ? Sûrement pas. Leur motivation profonde reste la réussite scolaire de leurs enfants au sens étroit du terme : obtenir de bons diplômes en franchissant toutes les barrières que la sélection dresse devant eux. L'école française n'est donc pas prête au changement, aucun des acteurs n'en ayant réellement la volonté. L'informatique pédagogique risque de prendre le même chemin que l'audiovisuel quelques années auparavant. Seuls quelques irréductibles tenteront de maintenir la flamme.
Un autre scénario est possible. La formation permanente et continue prend une place de plus en plus importante sur le plan social, alimentée par les nombreuses demandes de stages professionnels de reconversion ou de remise à niveau des chômeurs de toute catégorie. Les entreprises et les services sociaux sont disposés à commanditer des produits de formation qui diminueraient les coûts globaux de la prise en charge des stagiaires et des sociétés de service et des éditeurs prêts à prendre en charge leur réalisation s'ils sentent l'amorce d'un marché potentiel. Quant aux formés, n'ayant pas vraiment le choix, ils ne peuvent souvent qu'accepter ce qu'on leur offre, complétant par un travail personnel accru ce que des logiciels expérimentaux et des animateurs pleins de bonne volonté ne peuvent leur apporter. L'industrialisation de la formation, avec ses exigences de rentabilité rentre en contradiction avec l'idée de l'école telle que le corps enseignant la vit. Pour l'instant, les expériences menées avec les logiciels hypermédias restent souvent dans un cadre expérimental, du sur mesure en quelque sorte pour valider une démarche. Ce n'est qu'à l'étape de production à grande échelle qu'on peut espérer rentabiliser de tels travaux, donc faire naître de véritables standards.
Les logiciels éducatifs jusqu'à une date récente étaient l'oeuvre de pédagogues devenus informaticiens pour les besoins de la cause, comme les manuels scolaires sont écrits par des enseignants. Les logiciels hypermedia, de par leur complexité, ne peuvent être réalisés qu'au sein d'une équipe dans un laboratoire universitaire ou dans une société de services ou d'ingénierie. En formation initiale, en tous cas, l'accord des enseignants sera fondamental. Sans leur adhésion, tout changement est condamné à plus ou moins long terme. Mais comme je l'écrivais au début de cet article, l'échec de l'EAO provient avant tout de la mauvaise qualité des logiciels accompagnant les machines livrées et d'une informatisation se limitant à une opération visant à donner un coup de pouce aux industries informatiques françaises en difficulté (en particulier Thomson) sans démarche pédagogique préalable. Les potentialités des logiciels hypertexte et multimedia sont telles qu'une intégration de ceux-ci dans la formation initiale est possible et souhaitable. Non pour prendre la place des enseignants, mais pour leur apporter des outils qui facilitent leur travail. Leur coopération avec les chercheurs et les sociétés productrices sera alors indispensable.

Notes

  1. Philippe Bernard. L'informatique scolaire nage en plein brouillard. Le Monde 19/9/90.
  2. Lamine Abdat, Françoise Madaule. Hypertextes-Hypermédias-EAO (description, utilisation et problèmes posés). MASI, Institut Blaise Pascal 1993.
  3. rapporté dans 2.
  4. Pierre Lévy. Les Technologies de l'Intelligence La Découverte. Paris 1990.
  5. Guy Verger. Hypermedia et Apprentissage-Actes des premières journées scientifiques "Simul : un environnement multimédia d'enseignement en gestion d'entreprise". Université Paris VI INRP 1991.
  6. François Kohler et Olivier Bodenreide. Hypermédias et Apprentissage. "Hypermédias et médecine", Université Paris VI INRP 1991.
  7. Antonio Moreira. Hypermedia et Apprentissage. "Didactique et Hypermedia en situation de résolution de problèmes : principes de conception des didacticiels hypermedia".
  8. Georges-Louis Baron. "L'informatique en éducation". Revue française de Pédagogie N° 92 Paris 1990.
  9. Victor Scardigli. Les sens de la technique. PUF Paris.
  10. Jean Marie Albertini. La pédagogie n'est plus ce qu'elle sera. Le Seuil / Presses du CNRS Paris 1992.