retour au portail Algora
en bref
ressources multimédias
fenêtre sur cours
retour à l'accueilplan du site
 

   Rebonds

   Comprendre pour
      entreprendre


   Réglementation

   Compétences

   Economie & qualité
recherche
aide  
algora diffusion
aide  
(res)sources Repères Rebonds



Les systèmes de production et de gestion des contenus pédagogiques numériques :
vers une nouvelle approche
par Stéphane Crozat



Avertissement
Le travail présenté ici est une contribution de Stéphane Crozat, enseignant-chercheur à l'Université de Technologie de Compiègne (UTC).
Pour contacter Stéphane Crozat : stephane.crozat@utc.fr

Avant-propos par Adrien Ferro
Nous publions la contribution de Stéphane Crozat (note 1) pour une nouvelle approche de l'industrialisation des contenus pédagogiques numériques, qu'ils soient ou non en ligne. Cette approche, développée concrètement à l'UTC par l'équipe de l'Unité d'Innovation Ingénierie des Contenus et Savoirs, sous le label de Scenari (note 2), pose de façon native la question de l'industrialisation des contenus comme la seule capable de féconder la réflexion sur le LCMS (Learning Content Management System).

Si en effet l'industrialisation repose sur l'acquisition d'une méthode (dite industrielle) garantissant à la fois la baisse proportionnelle des coûts de reproduction et la facilité de maintenance du produit, il faut bien admettre que toute la réflexion sur l'interopérabilité, telle qu'elle est utilisée comme argument de vente, n'est pas méthodologiquement et industriellement viable ! Elle se pose en effet comme format d'exportation, en "fin de cycle de vie de contenu" comme le dit bien Stéphane Crozat, ou, pire, comme fantasme d'un contenu une fois pour toutes standard !

L'approche proposée ici relève d'une autre réflexion que j'appelerais "standardisation dynamique", à travers l'utilisation du langage XML. Le marketing s'est déjà approprié le discours sur XML comme langage structuré "universel" et incontournable sur le web, comme argument de vente. "Oui, c'est du XML ! Ca sort en XML !"

Voilà la nouvelle trouvaille que l'on retrouve dans le retour en force du e-learning. Le marché des plates-formes s'essouflant quelque peu, c'est aujourd'hui autour des builders (note 3) que se cristallise l'offensive marchande, accompagnée de plates-formes légères ad hoc. D'un côté, ces développements se justifient par une plus grande maturité des clients en terme de projet de e-formation et en terme d'information sur les outils de création et de gestion de contenu. D'un autre, les différentes typologies de ces outils demandent d'en préciser à la fois les résultats finalisés (ce qu'ils peuvent faire) et philosophie d'industrialisation (comment on arrive au résultat). Cette philosophie en appelle de plus en plus au langage XML. Encore faut-il en définir l'usage que l'outil est supposé en faire.

Or XML, nous rappelle justement l'auteur ici, "permet (mais n'assure pas) une structuration logique très finement indexée du contenu." Sans rentrer dans les détails techniques, la structure sémantique d'un contenu n'est pas assurée par l'utilisation de XML comme simple langage de mise en forme. Or, c'est cette structure qui garantit cette "standardisation dynamique." Ceci, pour trois raisons principales. D'abord, le contenu est présenté de telle façon à se prêter à des manipulations beaucoup plus intéressantes pour les processus d'industrialisation (notamment des visualisations multi-support). Ensuite, le contenu est structuré en unités logiques indexées qui se prêtent à une modification aisée. Enfin, la standardisation dynamique est assurée à deux niveaux : le premier par rapport au langage lui-même (c'est l'argument de vente du marketing actuel), le deuxième par l'utilisation des fichiers DTD (note 4).

Cet article enrichit la réflexion menée par Algora sur l'industrialisation des ressources en ligne (note 5), et plus particulièrement sur les contenus. Il est également à mettre en relation avec l'article sur l'utilisation de XML (note 6) comme langage permettant l'élaboration de normes dynamiques permettant de dépasser les normes statiques actuellement en usage dans la plupart des plates-formes de téléformation.

Adrien Ferro , adrien.ferro@algora.org


Les systèmes de production et de gestion des contenus pédagogiques numériques : vers une nouvelle approche

Stéphane Crozat

Cet article a été inspiré par la lecture de l'étude commandée par le ministère de la Jeunesse, de l'Education nationale et de la Recherche portant sur l'analyse des outils de gestion de ressources numériques pour l'enseignement, ou LCMS pour Learning Content Management Systems (note 1). Cette étude offre un point de vue comparatif sur les solutions existantes du marché. Elle nous a inspiré un point de vue différent et complémentaire. La question que nous nous proposons de traiter ici n'est donc pas tant : "Qu'offrent les solutions existantes ?", mais plutôt : "Que devront offrir les solutions de demain ?". Ce travail s'adresse à l'ensemble des acteurs de la e.formation et de la formation ouverte et à distance (FOAD) afin d'apporter notre contribution à la réflexion actuelle concernant la gestion des contenus pédagogiques.

L'étude du ministère pose quatre principales hypothèses, qui nous semblent valides, pour définir et décrire les LCMS :

  1. la centralisation du stockage des contenus ;
  2. la mise en place d'un workflow collaboratif de gestion de la production ;
  3. la séparation du fond et la forme pour la représentation des connaissances formalisées sur les support pédagogiques ;
  4. le respect des standards de la e.formation pour assurer l'interopérabilité.

Nous ne reviendrons pas ici sur les deux premières de ces hypothèses, qui constituent le cœur de tout système de gestion de contenu et le savoir-faire classique de la Gestion Electronique de Documents (GED).
Les principes de centralisation du stockage et de gestion collaborative (sécurisation, communication, contrôle de version, processus de validation, etc.) de l'ensemble des acteurs impliqués dans les métiers du contenu (auteurs, éditeurs, contrôleurs, etc.) sont aujourd'hui correctement stabilisés et méritent largement d'être introduits dans les LCMS. Nous proposons par contre de revenir sur les deux hypothèses suivantes.

 

Hypothèse 1 : séparer le fond et la forme


La séparation du fond et de la forme pour la représentation des contenus est à la base de tout LCMS : "L'un des enjeux des solutions de CMS est l'indépendance du contenu par rapport à sa présentation […] cette indépendance confère une plus grande évolutivité […] la séparation du contenu de son mode de présentation permet de publier l'information vers des formats de sortie différents." (note 2)
Ce paradigme conceptuel de représentation des connaissances, issu des travaux de Bruno Bachimont (note 3) et fondement de nos recherches, est fondamental dans la mesure où il permet de passer d'une simple numérisation du contenu (utilisation du format numérique de l'ordinateur pour inscrire l'information) à une réelle informatisation du contenu (utilisation de la capacité de calcul de l'ordinateur pour manipuler l'information).

L'informatisation du contenu est bien l'étape qui permet de dépasser les limites actuelles de la gestion de contenus mises en exergue par l'étude (coûts de production, coûts de maintenance, maîtrise de la qualité, réutilisabilité, etc.) en reléguant à la puissance de calcul de la machine la partie systématique des tâches réalisées manuellement sinon. Si l'enjeu des LCMS est bien celui de l'informatisation à travers la manipulation des documents, pour que cette informatisation soit réalisable, il est nécessaire que les programmes informatiques puissent accéder à une représentation formelle de la connaissance supportée par les documents. Or, l'accès à ces représentations formelles des connaissances passe par des mécanismes d'indexation fins, capables de rentrer à l'intérieur du document afin d'ancrer les "poignées, ou plutôt les "balises" qui serviront de poignées, permettant de le manipuler.

La conséquence technologique de ce paradigme est le recours à des langages de représentation structurelle logique des contenus, plutôt que de mise en forme des contenus.

Le seul cadre technique raisonnable pour un tel enjeu aujourd'hui est le méta-langage XML qui permet (mais n'assure pas - note 4) une structuration logique très finement indexée du contenu. Ce cadrage technologique n'est pas neutre dans la mesure où, si l'on pose que le LCMS implique la séparation fond/forme, ce qui implique à son tour la généralisation du XML logique, alors tout contenu qui sort de ce cadre de référence ne sera pas correctement géré par le LCMS. C'est la position que nous défendons, puisque tout contenu dans un format de mise en forme (Word, HTML, Flash, etc.) sera infiniment moins manipulable qu'un contenu dans un format de représentation (XML logique).

Ce déficit de manipulation ne permettra pas au LCMS d'assurer une gestion du contenu efficace du point de vue des aspects qui l'intéresse, à savoir la réduction des coûts de production et de maintenance, l'interopérabilité, etc. Il convient alors de préciser qu'aujourd'hui les solutions commerciales disponibles sur le marché ne mobilisent en réalité que peu ce principe (note 5). La mise en exergue des principes d'édition WYSIWYG ou de la gestion native des formats classiques du multimédia pédagogique (HTML, Flash, Word, etc.), deux principes revendiqués par les LCMS du marché, sont en effet plutôt contradictoires avec l'ancrage dans la séparation fond/forme. Non que la recherche de moyens d'édition du contenu facilitée ou que la récupération des contenus existants antérieurement sous des formats de présentation ne soit pas souhaitable, bien au contraire, mais à condition qu'elles gardent pour objectif que les contenus gérés de façon centralisée par le LCMS seront dans un format manipulable fondé sur une description de type XML logique (note 6).

Nos propos en faveur de la séparation fond/forme et nos réserves vis à vis du WYSIWYG (note 7) tel qu'il est proposé aujourd'hui ne relèvent pas d'un point de vue sur la nature de la connaissance et les processus de son élaboration, mais plutôt de considérations pratiques sur la bonne exploitation du numérique pour ce qu'il est, et avec l'objectif particulier de la production industrialisée. L'usage d'outils auteurs dans une perspective de production artisanale par des experts du multimédia n'est nullement remis en cause ici.

La séparation fond/forme est un moyen pour l'industrialisation d'un point de vue technologique et d'un point de vue méthodologique.
Cette séparation de facto entre ces deux formats peut être mise à profit pour calculer plusieurs formats de visualisation (formes) à partir d'un même format de représentation interne (fond). On peut ainsi accéder à la propriété de publication multi-supports, et conséquemment de multi-usages, qui sont essentiels pour rationaliser la production et la maintenance des contenus pédagogiques. La mise en forme de contenu sur un support est fondée sur une tradition d'écriture, stable pour les textes sur papier et encore en construction pour le multimédia sur écran, qui exige un savoir-faire professionnel.

Ce qui signifie que l'auteur qui écrit n'est pas, en général, le mieux qualifié pour être l'éditeur qui met en forme.

Indépendamment de cette rareté de la compétence mixte, la séparation entre les deux métiers est souhaitable pour optimiser le processus de production, à l'instar des processus observés dans l'édition du livre, où ce n'est évidemment pas l'auteur qui est chargé de la mise en forme de son texte, mais bien l'éditeur spécialisé à partir des préconisations de l'auteur, qui lui transmet ainsi son intentionnalité. Les vertus de la séparation fond/forme sont donc dans ses propriétés pour l'industrialisation. Elle pose néanmoins un problème lié à l'élaboration de la connaissance, qui est, selon la théorie dans laquelle nous nous inscrivons, toujours ancrée dans une mise en forme sur un support. Une intention d'écriture ne peut donc être réduite à un "fond" immatériel, mais bien à la combinaison d'un fond et de sa mise en forme.
Nous prônons donc bien une écriture "mise en forme" et non une écriture symbolique, mais dont la mise en forme met en valeur la nature du support (le calcul en l'occurrence). Cela peut concrètement se traduire dans notre cadre par le recours à des éditeurs "XML logique". Ceux ci rendent visible et lisible la structure sémantique du contenu (sans promouvoir une forme de présentation a priori) et permettent des prévisualisations de la mise en forme sur plusieurs supports dans un temps très légèrement différé, à la différence du WYSIWYG "pur", inadéquat dans ce cadre.

 

Hypothèse 2 : de la standardisation


La seconde hypothèse sur laquelle nous souhaitions revenir est celle de la standardisation. Le respect des standards du e-learning (aucune norme n'est à ce jour achevée) est la condition qui permet à un contenu produit dans un LCMS d'être utilisé dans toute plate-forme technologique d'usage du contenu qui respecte les mêmes standards, et en particulier dans un LMS (Learning Management Systems). La question posée aux standards est donc, naturellement, celle de l'interopérabilité. Si la question est fondamentale, les réponses existantes aujourd'hui ne peuvent encore être considérées comme satisfaisantes, malgré l'engouement, en tant qu'argument commercial au moins, qu'elles suscitent. L'état actuel de la standardisation est donc celui d'un processus en cours d'élaboration et non celui d'une base sur laquelle construire des solutions pérennes. La conséquence pour les LCMS est que, s'ils doivent s'inscrire dans la démarche générale de normalisation et faire valoir leurs revendications dans ce cadre, il ne leur est pas encore possible de se baser sur un existant pour proposer des réponses appropriées aux besoins d'interopérabilité. Technologiquement cela implique que les LCMS doivent aborder la question de la standardisation en fin du cycle de vie du contenu, c'est à dire au moment où il l'exporte vers un environnement d'usage, et non nativement dans son format de gestion.

Le mythe du contenu nativement standard qui en ferait un objet par la suite portable et pérenne est un leurre dans la mesure où rien n'assure aujourd'hui que l'objet ainsi constitué sera en mesure de répondre aux questions pédagogiques posées (il y aura au mieux interopérabilité technique, mais rarement interopérabilité pédagogique) et où le standard respecté sera inévitablement amené à évoluer à court terme.

Ainsi l'objet nativement standard sera enfermé dans une photographie floue de l'état de l'art de la standardisation à l'instant t, et soumis à son obsolescence, tandis que l'objet standardisé en fin de chaîne de publication pourra s'adapter en temps réel à un processus aujourd'hui très dynamique. Typiquement, les solutions commerciales qui mettent aujourd'hui en avant des outils d'édition permettant de produire des contenus au format HTML respectant le standard SCORM 1.2 voire 1.3, favorisent des objets pédagogiques ancrés dans une forme de présentation (et donc faiblement manipulables, voir la partie précédente sur la séparation fond/forme) et ancrés dans un standard d'échange dont la validité et la pérennité ne peuvent raisonnablement être affirmées. A l'inverse des solutions technologiques promouvant une production dans des formats XML logiques et permettant l'export des contenus dans un format donné a posteriori (par exemple HTML et SCORM) permettent de répondre aux préoccupations du présent tout en ménageant les évolutions futures. Ainsi si "le respect des normes et standards", tel qu'il est systématiquement revendiqué par les vendeurs de solutions, est fondamental, ce respect ne présage pas d'un bon usage de ces normes et standards.
Une autre remarque fondamentale à ce propos est que les standards proposés doivent être considérés en tant que standards d'échange entre systèmes et non comme des standards de création. Les standards disent comment communiquer et non comment faire. Il importe donc de définir d'une part des modèles spécifiques de création qui correspondent aux logiques du contexte à considérer et d'autre part les principes de standardisation des créations pour les rendre interopérables avec d'autres contextes. La nature computationnelle du numérique, permet d'opérationnaliser la distinction entre les contenus tels qu'ils sont créés spécifiquement et les contenus tels qu'ils sont échangés de façon standard, puisqu'il est possible de calculer le contenu standard à échanger à partir du contenu sous une forme native spécifique. Ainsi il est possible et souhaitable de favoriser des formats natifs XML logiques qui disent spécifiquement comment créer et de considérer leur publication en respectant les standards qui disent comment communiquer avec les systèmes dans lesquels ils devront être exploités.


Vers une ingénierie cohérente


Si l'on prend le point de vue d'une ingénierie pour la mise en place d'un dispositif de gestion de contenus pédagogiques, la question posée est donc celle de la mobilisation d'un outil technique (un LCMS en l'occurrence) associé à des méthodes (celles de la production et de la maintenance des contenus) pour répondre à des problèmes contextuels et humains, ceux de la pédagogie (en particulier à distance). Les études comparatives de solutions commerciales apportent des éléments pour mettre en place une telle ingénierie, en proposant une caractérisation des LCMS existants. Ces éléments ne doivent néanmoins pas occulter la nécessité pour les ingénieurs en charge d'une telle mission d'avoir une réflexion technologique qui dépasse l'état de l'art et d'ancrer les dispositifs au sein de méthodes ayant fait leurs preuves (telles que celles issues de l'ingénierie des connaissances, peu ou pas mises en avant par les solutions commerciales). L'ingénieur devra également mettre en perspective ces technologies et méthodes au regard de besoins propres, que tendent généralement à minimiser l'ancrage dans des standards restrictifs, car issus de problématiques locales (typiquement la pédagogie nord-américaine et celle de l'aviation ou de l'armée - note 8).
Ainsi, s'il est vrai de dire que les solutions commerciales se valent aujourd'hui globalement car elles se prévalent du même paradigme technologique (la rencontre des outils de création de contenus pédagogiques avec les principes de la GED), il est inexact de dire qu'elles peuvent, étant donné un choix pertinent de la solution répondre correctement aux problèmes posés dans un contexte donné, car la pertinence du paradigme choisi n'est pas assurée (tandis que d'autres approches existent, telles que celle fondée sur l'ingénierie des connaissances et la représentation logique des contenus).

L'approche historique de la conception des LCMS est celle d'éditeurs de solutions se positionnant les uns par rapport aux autres pour occuper un marché, et non celle d'ingénieurs tentant de répondre le plus justement possible à une problématique, au regard de l'ensemble de l'état de l'art et non seulement de celui du e-learning, avec une approche technologique cohérente.

 

Evaluer, oui, mais quoi ?


L'objectif d'une étude comparative de solutions existantes est généralement de procéder à une analyse commerciale et non à une analyse scientifique. La première conséquence, que nous avons traitée dans la première partie, est que les solutions peuvent être ainsi comparées entre elles, mais non réellement au regard de l'état de l'art scientifique et technologique. La seconde conséquence que nous nous proposons de traiter à présent porte sur la validité des mesures effectuées d'un point de vue expérimental.

La première chose que l'on peut mesurer concerne les fonctions que remplit le système évalué. Une telle étude permet une évaluation a priori du système au regard de son adéquation avec le cadre théorique dans lequel il s'inscrit. Notons qu'il convient alors d'énoncer les critères à observer du point de vue des usages rendus possibles par le système au regard des besoins réels, et non seulement au regard de fonctionnalités disponibles, qui rendent compte d'un usage théorique, mais non avéré. Cette remarque renvoie à une seconde classe de mesures, qui concerne les évaluations a posteriori des performances des systèmes en conditions réelles de déploiement. Ce type de mesures, bien que plus rarement mis en avant, nous semble plus tangible, objectif et fiable, en s'ancrant dans un principe d'observation expérimentale qui a fait ses preuves dans d'autres domaines, scientifiquement parlant.
Nous avons conscience qu'évaluer expérimentalement des solutions technologiques reste une question difficile lorsque ces solutions ont pour mission de répondre à des besoins humains. Des indicateurs de performance peuvent néanmoins être construits en revenant aux objectifs premiers des LCMS : rendre possible une industrialisation de la conception de contenus pédagogiques.

On pourra alors chercher à mesurer ce qu'un LCMS apporte dans un tel cadre en terme de coûts unitaires de production, de cadence de production, de coûts de maintenance des contenus produits à court, moyen et long terme, de taux de réutilisation, de taux d'interopérabilité avec les systèmes tiers, d'adaptation à des organisations diverses, de qualité, de conséquences sur l'évolution des métiers, etc.

Un tel travail de critériologie n'a pas aujourd'hui été réellement fait, et pour cause, l'expérience accumulée est encore insuffisante pour les déterminer de façon exhaustive, et a fortiori largement insuffisante pour effectuer des mesures fiables.
En conséquence, s'il est impossible actuellement de réellement disposer de données expérimentales fiables sur la validité des LCMS présents sur le marché, l'on ne peut que s'en remettre à des descriptions théoriques qui permettent de prévoir a priori l'efficacité des systèmes. Néanmoins, afin d'initialiser ce processus d'évaluation expérimental, il est possible d'aider à cadrer l'argumentaire commercial demandé aux éditeurs de LCMS, en cherchant à observer les contenus produits en situation réelle de projet, et en mesurant les conditions de production sur des paramètres disponibles. Il devrait être ainsi possible de savoir quelle quantité de contenu un LCMS a permis de produire, à quel coût unitaire pour une organisation donnée, d'évaluer leur qualité en les comparant à d'autres contenus et en accédant aux avis des usagers, d'évaluer la réutilisabilité en projetant les contenus sur des usages nouveaux, d'évaluer leur flexibilité en comparant la diversité des organisations l'ayant mis en œuvre, etc. Il devrait également être possible de rejeter d'autres paramètres qui s'avèreraient sans objet pour mesurer la validité du LCMS, tels que le nombre d'apprenants ayant utilisé un module de formation par exemple.

Si l'on admet qu'il est difficile, sinon impossible, de disposer de données objectivement fiables sur les solutions existantes, la question se pose de savoir dans quelle mesure il convient de se fier à ces solutions existantes pour rechercher la réponse réelle aux besoins des usagers. Il serait ridicule de s'appuyer sur un principe de précaution qui conduirait à ne rien faire en attendant des preuves scientifiques de l'intérêt des solutions, d'une part car ces preuves ne viendront que de l'usage, d'autre part car les considérations théoriques permettent malgré tout de prévoir un intérêt certain, même si non exactement mesurable.
Il nous apparaît donc urgent d'utiliser les LCMS, en tant qu'ils sont la réponse en cours d'élaboration au problème fondamental d'une production rationalisée de contenus pédagogiques aptes à répondre aux mutations des métiers de la formation. Mais il nous apparaît qu'il est également essentiel de ne pas considérer les besoins en la matière au regard de l'état de l'art et de ce que les LCMS savent faire, mais plutôt au regard des besoins réels et de ce qu'ils devraient faire.

 

Changer de cadre


Les acteurs actuels du e-learning, tendent, bien légitimement, à s'approprier un marché en émergence, en mobilisant pour cela, et c'est toujours aussi légitime, les technologies et méthodologies disponibles. Nos travaux partent du constat que le développement des usages reste très limité, et portent sur la recherche de solutions nouvelles pour dépasser les limites qui freinent ce développement. Si les difficultés logiques sont souvent admises (note 9), leur résolution est remise à plus tard, en défendant un état qui se dit transitoire mais qui affirme malgré tout urbi et orbi sa pérennité. Ces lacunes technologiques sont en fait à la source des difficultés de ce marché. Plutôt que d'attendre une amélioration de ces derniers, c'est au contraire un changement de paradigme préalable qui permettra l'essor du marché. Ce changement de cadre théorique peut d'ores et déjà être nourri de recherches fondées (ingénierie des connaissances et informatique symbolique typiquement). L'enjeu de la e.formation, comme celui de toutes les autres industries de la connaissance en émergence, est bien celui de la mise en place d'une réelle démarche d'ingénierie couplant une réflexion sur les systèmes techniques et sur les systèmes humains en se permettant de remettre en cause les uns et les autres dans une démarche de progrès. Les prémisses ne sont pas les systèmes techniques tels qu'ils sont ("puisqu'ils existent et même s'ils ne sont pas pertinents") et les conclusions ne sont pas les systèmes humains tels qu'ils devraient être selon eux ("puisqu'ils n'existent pas encore et même s'ils pourraient être pertinents"). Dans un tel système dont les conclusions sont en constante évolution, les hypothèses doivent constamment être remises en cause, dans une démarche d'innovation, ce qui, il est vrai, est problématique à gérer du point de vue de la rentabilité commerciale.
Le marché émergeant des LCMS offre aujourd'hui un panorama un peu trop homogène de solutions, de part un nivellement des solutions les unes sur les autres et de part un manque de différenciation réelle dans les fondements. Cela rappelle fortement le phénomène observé il y a peu pour le marché des LMS, qui a vu l'émergence de pléthore de solutions, et qui voit aujourd'hui un rejet fort des usagers qui leur reproche leur manque d'adéquation à leurs besoins réels.

Dans une période d'immaturité des usages, et tant que les solutions n'apportent pas de preuves objectives de leurs performances, il conviendrait de privilégier les solutions innovantes, de prendre des risques, et non de favoriser un cadre trop maîtrisé et par-là même trop stagnant.

Cadre stagnant qui pourrait avoir du mal à se réadapter lorsque les usagers seront prescripteurs de besoins réels, comme nous pouvons également l'observer aujourd'hui sur le marché des LMS.

Stéphane Crozat, stephane.crozat@utc.fr


Notes avant-propos

Stéphane Crozat : enseignant-chercheur à l'Université de technologie de Compiègne (UTC), co-auteur de Scenari. Consulter également sa thèse et d'autres documents approfondissant cet article ici : www.hds.utc.fr/~crozatst/documents
retour

Scenari : voir le site de présentation wwwspul.utc.fr/site_scenari/
retour

Builders : les outils d'aide à la création de contenu en ligne. Ils sont en principe intégrés dans le LCMS, mais peuvent être vendus ou loués séparément par les mêmes sociétés qui proposent des plates-formes de téléformation, ou par d'autres sociétés spécialistes en outils de développement de contenus.
retour

DTD : Document Type Definition - définition de type de document. Elle permet de définir la structure d'un document XML. Si une DTD est rattachée au fichier XML, ce dernier est automatiquement considéré comme valide puisque la définition des marqueurs du document lui est inclus. Cette caractéristique est fondamentale car elle permet de s'affranchir d'une standardisation bloquante d'un document XML.
retour

Voir http://ressources.algora.org/ressources/enligne/desressources1.asp
retour

Voir http://ressources.algora.org/ressources/environnements/xml/index.asp
retour

Notes article

Etude des outils de gestion de ressources numériques pour l'enseignement, commande du ministère de la Jeunesse, de l'Education nationale et de la Recherche, France, 2003. www.educnet.education.fr/lcms/
retour

Le site de présentation de Scenari : wwwspul.utc.fr/site_scenari/
retour

Bruno Bachimont , "Herméneutique matérielleet artéfacture : des machines qui pensent aux machines qui donnent à penser", mémoire de thèse en épistémologie, Ecole Polytechnique, 1996.
retour

Précisons ici que XML est une condition non suffisante pour la représentation logique de l'information. XHTML, qui est un langage XML, est néanmoins un langage de mise en forme, à l'instar d'HTML. Le "XML Inside" n'est donc pas une assurance de bonne pratique en terme d'informatisation du contenu. On parlera dans la suite de cet article de "XML logique" pour insister sur cet usage particulier du XML consistant à exprimer une structure sémantique du contenu et non la façon de le mettre en forme.
retour

Et ce bien qu'elles revendiquent une intégration "XML native", qui traduit l'usage d'XML en tant que format de gestion et non en tant que format de représentation, ce qui signifie que les contenus ne sont pas représentés en XML (mais bien dans des langages de mise en forme) et que XML n'est utilisé que comme format de manipulation de données extérieures au contenu (meta-données descriptives, structures de cours, etc).
retour

Wysiwyg : What You See Is What You Get, cela signifie que la visualisation à l'écran est une visualisation exacte (ou presque) du résultat obtenu pour l'utilisateur final, ce qui est antinomique avec le concept de séparation fond/forme, par définition. A titre d'exemple, la séparation fond/forme permet le multi-supports et il devient très diffcile d'assurer une édition WYSIWYG multi-supports. Les technologies d'édition XML permettent aujourd'hui une production non-WYSIWYG et néanmoins suffisamment instrumentée pour autoriser la production de contenus structurés sans connaissance informatique préalable.
retour

En cela , le LCMS se démarque nettement du logiciel auteur classique, en instrumentant les principes d'une chaîne éditoriale documentaire qui permet la séparation fond/forme. Les logiciels auteur offrent plutôt une production facilitée dans des formats de présentation (tels que le HTML, Flash, etc.). La différenciation entre le LCMS (qui instrumente une indépendance vis à vis des formats de présentation des contenus) et l'outil auteur (dans son acception commune) constitue donc une prééminence pour le premier en terme de rationalisation de la gestion des contenus.
retour

Nous ne remettons en cause le WYSIWYG "pur" (celui qui tend à une visualisation exacte du résultat produit) que dans son inadéquation avec la séparation entre le fond et la forme. Et nous ne promouvons la séparation entre le fond et la forme qu'en tant que moyen pour rationaliser une production industrielle.
retour

On citera par exemple le recours massif aux QCM comme forme privilégiée d'interactivité ou la vision très granulaire de la pédagogie reposant sur des activités courtes (quelques minutes) et autonomes, qui paraissent très adaptés à des enseignements procéduraux, mais beaucoup moins à des enseignements plus conceptuels où la liaison entre les notions étudiées impliquent pour l'apprenant une vision moins partitionnée du savoir et des outils plus élaborés de restitution de cette connaissance.
retour

La séparation fond/forme est en cela caractéristique car elle est reconnue comme fondamentale pour répondre au problème de l'industrialisation, tout en étant reléguée à un élément secondaire au moment de l'instrumentation effective dans les solutions, lorsque l'on ne sait pas facilement résoudre les problèmes qu'elle adresse dans la pratique.
retour

 
A voir également :

UTC
 voir le site