Avertissement
Le travail présenté ici est une
contribution de Stéphane Crozat, enseignant-chercheur à
l'Université de Technologie de Compiègne (UTC).
Pour
contacter Stéphane Crozat : stephane.crozat@utc.fr
Avant-propos
par Adrien Ferro
Nous
publions la contribution de Stéphane Crozat (note
1) pour une nouvelle approche de l'industrialisation
des contenus pédagogiques numériques, qu'ils soient ou
non en ligne. Cette approche, développée concrètement à
l'UTC par l'équipe de l'Unité d'Innovation Ingénierie
des Contenus et Savoirs, sous le label de Scenari (note
2), pose de façon native la question de
l'industrialisation des contenus comme la seule capable
de féconder la réflexion sur le LCMS (Learning Content
Management System).
Si
en effet l'industrialisation repose sur l'acquisition
d'une méthode (dite industrielle) garantissant à la fois
la baisse proportionnelle des coûts de reproduction et
la facilité de maintenance du produit, il faut bien
admettre que toute la réflexion sur l'interopérabilité,
telle qu'elle est utilisée comme argument de vente,
n'est pas méthodologiquement et industriellement viable
! Elle se pose en effet comme format d'exportation, en
"fin de cycle de vie de contenu" comme le dit bien
Stéphane Crozat, ou, pire, comme fantasme d'un contenu
une fois pour toutes standard !
L'approche proposée ici relève d'une autre
réflexion que j'appelerais "standardisation dynamique",
à travers l'utilisation du langage XML. Le marketing
s'est déjà approprié le discours sur XML comme langage
structuré "universel" et incontournable sur le web,
comme argument de vente. "Oui, c'est du XML ! Ca sort en
XML !"
Voilà la nouvelle trouvaille que
l'on retrouve dans le retour en force du e-learning. Le
marché des plates-formes s'essouflant quelque peu, c'est
aujourd'hui autour des builders (note
3) que se cristallise l'offensive marchande,
accompagnée de plates-formes légères ad hoc. D'un côté,
ces développements se justifient par une plus grande
maturité des clients en terme de projet de e-formation
et en terme d'information sur les outils de création et
de gestion de contenu. D'un autre, les différentes
typologies de ces outils demandent d'en préciser à la
fois les résultats finalisés (ce qu'ils peuvent faire)
et philosophie d'industrialisation (comment on arrive au
résultat). Cette philosophie en appelle de plus en plus
au langage XML. Encore faut-il en définir l'usage que
l'outil est supposé en faire.
Or XML, nous rappelle justement l'auteur ici,
"permet (mais n'assure pas) une structuration
logique très finement indexée du contenu." Sans rentrer
dans les détails techniques, la structure sémantique
d'un contenu n'est pas assurée par l'utilisation de XML
comme simple langage de mise en forme. Or, c'est cette
structure qui garantit cette "standardisation
dynamique." Ceci, pour trois raisons principales.
D'abord, le contenu est présenté de telle façon à se
prêter à des manipulations beaucoup plus intéressantes
pour les processus d'industrialisation (notamment des
visualisations multi-support). Ensuite, le contenu est
structuré en unités logiques indexées qui se prêtent à
une modification aisée. Enfin, la standardisation
dynamique est assurée à deux niveaux : le premier par
rapport au langage lui-même (c'est l'argument de vente
du marketing actuel), le deuxième par l'utilisation des
fichiers DTD (note
4).
Cet
article enrichit la réflexion menée par Algora sur
l'industrialisation des ressources en ligne (note
5), et plus particulièrement sur les contenus. Il
est également à mettre en relation avec l'article sur
l'utilisation de XML (note
6) comme langage permettant l'élaboration de normes
dynamiques permettant de dépasser les normes statiques
actuellement en usage dans la plupart des plates-formes
de téléformation.
Adrien Ferro , adrien.ferro@algora.org
Les
systèmes de production et de gestion des contenus
pédagogiques numériques : vers une nouvelle
approche
Stéphane Crozat
Cet article a été inspiré par la
lecture de l'étude commandée par le ministère de la
Jeunesse, de l'Education nationale et de la Recherche
portant sur l'analyse des outils de gestion de
ressources numériques pour l'enseignement, ou LCMS pour
Learning Content Management Systems (note
1). Cette étude offre un point de vue
comparatif sur les solutions existantes du marché. Elle
nous a inspiré un point de vue différent et
complémentaire. La question que nous nous proposons de
traiter ici n'est donc pas tant : "Qu'offrent les
solutions existantes ?", mais plutôt : "Que devront
offrir les solutions de demain ?". Ce travail s'adresse
à l'ensemble des acteurs de la e.formation et de la
formation ouverte et à distance (FOAD) afin d'apporter
notre contribution à la réflexion actuelle concernant la
gestion des contenus pédagogiques.
L'étude du ministère pose quatre principales
hypothèses, qui nous semblent valides, pour définir et
décrire les LCMS :
Nous ne reviendrons pas ici sur les deux
premières de ces hypothèses, qui constituent le cœur de
tout système de gestion de contenu et le savoir-faire
classique de la Gestion Electronique de Documents (GED).
Les principes de centralisation du stockage et de
gestion collaborative (sécurisation, communication,
contrôle de version, processus de validation, etc.) de
l'ensemble des acteurs impliqués dans les métiers du
contenu (auteurs, éditeurs, contrôleurs, etc.) sont
aujourd'hui correctement stabilisés et méritent
largement d'être introduits dans les LCMS. Nous
proposons par contre de revenir sur les deux hypothèses
suivantes.
Hypothèse 1 : séparer le fond et
la forme
La séparation du fond et de la forme pour la
représentation des contenus est à la base de tout LCMS :
"L'un des enjeux des solutions de CMS est
l'indépendance du contenu par rapport à sa présentation
[…] cette indépendance confère une plus grande
évolutivité […] la séparation du contenu de son mode de
présentation permet de publier l'information vers des
formats de sortie différents." (note
2)
Ce paradigme conceptuel de
représentation des connaissances, issu des travaux de
Bruno Bachimont (note
3) et fondement de nos recherches, est
fondamental dans la mesure où il permet de passer d'une
simple numérisation du contenu (utilisation du
format numérique de l'ordinateur pour inscrire
l'information) à une réelle informatisation du
contenu (utilisation de la capacité de calcul de
l'ordinateur pour manipuler l'information).
L'informatisation du contenu est
bien l'étape qui permet de dépasser les limites
actuelles de la gestion de contenus mises en exergue par
l'étude (coûts de production, coûts de maintenance,
maîtrise de la qualité, réutilisabilité, etc.) en
reléguant à la puissance de calcul de la machine la
partie systématique des tâches réalisées manuellement
sinon. Si l'enjeu des LCMS est bien celui de
l'informatisation à travers la manipulation des
documents, pour que cette informatisation soit
réalisable, il est nécessaire que les programmes
informatiques puissent accéder à une représentation
formelle de la connaissance supportée par les documents.
Or, l'accès à ces représentations formelles des
connaissances passe par des mécanismes d'indexation
fins, capables de rentrer à l'intérieur du document afin
d'ancrer les "poignées, ou plutôt les "balises" qui
serviront de poignées, permettant de le
manipuler.
La conséquence technologique de ce
paradigme est le recours à des langages de
représentation structurelle logique des contenus,
plutôt que de mise en forme des
contenus. |
Le
seul cadre technique raisonnable pour un tel enjeu
aujourd'hui est le méta-langage XML qui permet (mais
n'assure pas -
note 4) une structuration logique très
finement indexée du contenu. Ce cadrage technologique
n'est pas neutre dans la mesure où, si l'on pose que le
LCMS implique la séparation fond/forme, ce qui implique
à son tour la généralisation du XML logique, alors tout
contenu qui sort de ce cadre de référence ne sera pas
correctement géré par le LCMS. C'est la position que
nous défendons, puisque tout contenu dans un format de
mise en forme (Word, HTML, Flash, etc.) sera infiniment
moins manipulable qu'un contenu dans un format de
représentation (XML logique).
Ce déficit de manipulation ne
permettra pas au LCMS d'assurer une gestion du contenu
efficace du point de vue des aspects qui l'intéresse, à
savoir la réduction des coûts de production et de
maintenance, l'interopérabilité, etc. Il convient alors
de préciser qu'aujourd'hui les solutions commerciales
disponibles sur le marché ne mobilisent en réalité que
peu ce principe (note
5). La mise en exergue des principes
d'édition WYSIWYG ou de la gestion native des formats
classiques du multimédia pédagogique (HTML, Flash, Word,
etc.), deux principes revendiqués par les LCMS du
marché, sont en effet plutôt contradictoires avec
l'ancrage dans la séparation fond/forme. Non que la
recherche de moyens d'édition du contenu facilitée ou
que la récupération des contenus existants
antérieurement sous des formats de présentation ne soit
pas souhaitable, bien au contraire, mais à condition
qu'elles gardent pour objectif que les contenus gérés de
façon centralisée par le LCMS seront dans un format
manipulable fondé sur une description de type XML
logique (note
6).
Nos propos en faveur de la séparation fond/forme
et nos réserves vis à vis du WYSIWYG (note
7) tel qu'il est proposé aujourd'hui ne
relèvent pas d'un point de vue sur la nature de la
connaissance et les processus de son élaboration, mais
plutôt de considérations pratiques sur la bonne
exploitation du numérique pour ce qu'il est, et avec
l'objectif particulier de la production industrialisée.
L'usage d'outils auteurs dans une perspective de
production artisanale par des experts du multimédia
n'est nullement remis en cause ici.
La séparation fond/forme est un moyen pour
l'industrialisation d'un point de vue technologique et
d'un point de vue méthodologique.
Cette séparation de
facto entre ces deux formats peut être mise à profit
pour calculer plusieurs formats de visualisation
(formes) à partir d'un même format de représentation
interne (fond). On peut ainsi accéder à la propriété de
publication multi-supports, et conséquemment de
multi-usages, qui sont essentiels pour rationaliser la
production et la maintenance des contenus pédagogiques.
La mise en forme de contenu sur un support est fondée
sur une tradition d'écriture, stable pour les textes sur
papier et encore en construction pour le multimédia sur
écran, qui exige un savoir-faire professionnel.
Ce qui signifie que l'auteur qui écrit
n'est pas, en général, le mieux qualifié pour être
l'éditeur qui met en forme.
|
Indépendamment de cette rareté de la compétence
mixte, la séparation entre les deux métiers est
souhaitable pour optimiser le processus de production, à
l'instar des processus observés dans l'édition du livre,
où ce n'est évidemment pas l'auteur qui est chargé de la
mise en forme de son texte, mais bien l'éditeur
spécialisé à partir des préconisations de l'auteur, qui
lui transmet ainsi son intentionnalité. Les vertus de la
séparation fond/forme sont donc dans ses propriétés pour
l'industrialisation. Elle pose néanmoins un problème lié
à l'élaboration de la connaissance, qui est, selon la
théorie dans laquelle nous nous inscrivons, toujours
ancrée dans une mise en forme sur un support. Une
intention d'écriture ne peut donc être réduite à un
"fond" immatériel, mais bien à la combinaison d'un fond
et de sa mise en forme.
Nous prônons donc bien une
écriture "mise en forme" et non une écriture symbolique,
mais dont la mise en forme met en valeur la nature du
support (le calcul en l'occurrence). Cela peut
concrètement se traduire dans notre cadre par le recours
à des éditeurs "XML logique". Ceux ci rendent visible et
lisible la structure sémantique du contenu (sans
promouvoir une forme de présentation a priori) et
permettent des prévisualisations de la mise en forme sur
plusieurs supports dans un temps très légèrement
différé, à la différence du WYSIWYG "pur", inadéquat
dans ce cadre.
Hypothèse 2 : de la
standardisation
La seconde hypothèse sur laquelle nous
souhaitions revenir est celle de la standardisation. Le
respect des standards du e-learning (aucune norme n'est
à ce jour achevée) est la condition qui permet à un
contenu produit dans un LCMS d'être utilisé dans toute
plate-forme technologique d'usage du contenu qui
respecte les mêmes standards, et en particulier dans un
LMS (Learning Management Systems). La question posée aux
standards est donc, naturellement, celle de
l'interopérabilité. Si la question est fondamentale, les
réponses existantes aujourd'hui ne peuvent encore être
considérées comme satisfaisantes, malgré l'engouement,
en tant qu'argument commercial au moins, qu'elles
suscitent. L'état actuel de la standardisation est donc
celui d'un processus en cours d'élaboration et non celui
d'une base sur laquelle construire des solutions
pérennes. La conséquence pour les LCMS est que, s'ils
doivent s'inscrire dans la démarche générale de
normalisation et faire valoir leurs revendications dans
ce cadre, il ne leur est pas encore possible de se baser
sur un existant pour proposer des réponses appropriées
aux besoins d'interopérabilité. Technologiquement cela
implique que les LCMS doivent aborder la question de la
standardisation en fin du cycle de vie du contenu, c'est
à dire au moment où il l'exporte vers un environnement
d'usage, et non nativement dans son format de
gestion.
Le mythe du contenu nativement standard qui
en ferait un objet par la suite portable et
pérenne est un leurre dans la mesure où rien
n'assure aujourd'hui que l'objet ainsi constitué
sera en mesure de répondre aux questions
pédagogiques posées (il y aura au mieux
interopérabilité technique, mais rarement
interopérabilité pédagogique) et où le standard
respecté sera inévitablement amené à évoluer à
court terme. |
Ainsi l'objet nativement standard sera enfermé
dans une photographie floue de l'état de l'art de la
standardisation à l'instant t, et soumis à son
obsolescence, tandis que l'objet standardisé en fin de
chaîne de publication pourra s'adapter en temps réel à
un processus aujourd'hui très dynamique. Typiquement,
les solutions commerciales qui mettent aujourd'hui en
avant des outils d'édition permettant de produire des
contenus au format HTML respectant le standard SCORM 1.2
voire 1.3, favorisent des objets pédagogiques ancrés
dans une forme de présentation (et donc faiblement
manipulables, voir la partie précédente sur la
séparation fond/forme) et ancrés dans un standard
d'échange dont la validité et la pérennité ne peuvent
raisonnablement être affirmées. A l'inverse des
solutions technologiques promouvant une production dans
des formats XML logiques et permettant l'export des
contenus dans un format donné a posteriori (par exemple
HTML et SCORM) permettent de répondre aux préoccupations
du présent tout en ménageant les évolutions futures.
Ainsi si "le respect des normes et standards", tel qu'il
est systématiquement revendiqué par les vendeurs de
solutions, est fondamental, ce respect ne présage pas
d'un bon usage de ces normes et standards.
Une autre
remarque fondamentale à ce propos est que les standards
proposés doivent être considérés en tant que standards
d'échange entre systèmes et non comme des standards de
création. Les standards disent comment communiquer et
non comment faire. Il importe donc de définir d'une part
des modèles spécifiques de création qui correspondent
aux logiques du contexte à considérer et d'autre part
les principes de standardisation des créations pour les
rendre interopérables avec d'autres contextes. La nature
computationnelle du numérique, permet d'opérationnaliser
la distinction entre les contenus tels qu'ils sont créés
spécifiquement et les contenus tels qu'ils sont échangés
de façon standard, puisqu'il est possible de calculer le
contenu standard à échanger à partir du contenu sous une
forme native spécifique. Ainsi il est possible et
souhaitable de favoriser des formats natifs XML logiques
qui disent spécifiquement comment créer et de considérer
leur publication en respectant les standards qui disent
comment communiquer avec les systèmes dans lesquels ils
devront être exploités.
Vers une ingénierie
cohérente
Si l'on prend le point de vue d'une ingénierie
pour la mise en place d'un dispositif de gestion de
contenus pédagogiques, la question posée est donc celle
de la mobilisation d'un outil technique (un LCMS en
l'occurrence) associé à des méthodes (celles de la
production et de la maintenance des contenus) pour
répondre à des problèmes contextuels et humains, ceux de
la pédagogie (en particulier à distance). Les études
comparatives de solutions commerciales apportent des
éléments pour mettre en place une telle ingénierie, en
proposant une caractérisation des LCMS existants. Ces
éléments ne doivent néanmoins pas occulter la nécessité
pour les ingénieurs en charge d'une telle mission
d'avoir une réflexion technologique qui dépasse l'état
de l'art et d'ancrer les dispositifs au sein de méthodes
ayant fait leurs preuves (telles que celles issues de
l'ingénierie des connaissances, peu ou pas mises en
avant par les solutions commerciales). L'ingénieur devra
également mettre en perspective ces technologies et
méthodes au regard de besoins propres, que tendent
généralement à minimiser l'ancrage dans des standards
restrictifs, car issus de problématiques locales
(typiquement la pédagogie nord-américaine et celle de
l'aviation ou de l'armée -
note 8).
Ainsi, s'il est vrai de dire
que les solutions commerciales se valent aujourd'hui
globalement car elles se prévalent du même paradigme
technologique (la rencontre des outils de création de
contenus pédagogiques avec les principes de la GED), il
est inexact de dire qu'elles peuvent, étant donné un
choix pertinent de la solution répondre correctement aux
problèmes posés dans un contexte donné, car la
pertinence du paradigme choisi n'est pas assurée (tandis
que d'autres approches existent, telles que celle fondée
sur l'ingénierie des connaissances et la représentation
logique des contenus).
L'approche historique
de la conception des LCMS est celle d'éditeurs de
solutions se positionnant les uns par rapport aux
autres pour occuper un marché, et non celle
d'ingénieurs tentant de répondre le plus justement
possible à une problématique, au regard de
l'ensemble de l'état de l'art et non seulement de
celui du e-learning, avec une approche
technologique
cohérente. |
Evaluer, oui, mais quoi ?
L'objectif d'une étude comparative de solutions
existantes est généralement de procéder à une analyse
commerciale et non à une analyse scientifique. La
première conséquence, que nous avons traitée dans la
première partie, est que les solutions peuvent être
ainsi comparées entre elles, mais non réellement au
regard de l'état de l'art scientifique et technologique.
La seconde conséquence que nous nous proposons de
traiter à présent porte sur la validité des mesures
effectuées d'un point de vue expérimental.
La première chose que l'on peut mesurer concerne
les fonctions que remplit le système évalué. Une telle
étude permet une évaluation a priori du système au
regard de son adéquation avec le cadre théorique dans
lequel il s'inscrit. Notons qu'il convient alors
d'énoncer les critères à observer du point de vue des
usages rendus possibles par le système au regard des
besoins réels, et non seulement au regard de
fonctionnalités disponibles, qui rendent compte d'un
usage théorique, mais non avéré. Cette remarque renvoie
à une seconde classe de mesures, qui concerne les
évaluations a posteriori des performances des systèmes
en conditions réelles de déploiement. Ce type de
mesures, bien que plus rarement mis en avant, nous
semble plus tangible, objectif et fiable, en s'ancrant
dans un principe d'observation expérimentale qui a fait
ses preuves dans d'autres domaines, scientifiquement
parlant.
Nous avons conscience qu'évaluer
expérimentalement des solutions technologiques reste une
question difficile lorsque ces solutions ont pour
mission de répondre à des besoins humains. Des
indicateurs de performance peuvent néanmoins être
construits en revenant aux objectifs premiers des LCMS :
rendre possible une industrialisation de la conception
de contenus pédagogiques.
On pourra alors
chercher à mesurer ce qu'un LCMS apporte dans un
tel cadre en terme de coûts unitaires de
production, de cadence de production, de coûts de
maintenance des contenus produits à court, moyen
et long terme, de taux de réutilisation, de taux
d'interopérabilité avec les systèmes tiers,
d'adaptation à des organisations diverses, de
qualité, de conséquences sur l'évolution des
métiers, etc. |
Un tel travail de critériologie n'a pas
aujourd'hui été réellement fait, et pour cause,
l'expérience accumulée est encore insuffisante pour les
déterminer de façon exhaustive, et a fortiori largement
insuffisante pour effectuer des mesures fiables.
En
conséquence, s'il est impossible actuellement de
réellement disposer de données expérimentales fiables
sur la validité des LCMS présents sur le marché, l'on ne
peut que s'en remettre à des descriptions théoriques qui
permettent de prévoir a priori l'efficacité des
systèmes. Néanmoins, afin d'initialiser ce processus
d'évaluation expérimental, il est possible d'aider à
cadrer l'argumentaire commercial demandé aux éditeurs de
LCMS, en cherchant à observer les contenus produits en
situation réelle de projet, et en mesurant les
conditions de production sur des paramètres disponibles.
Il devrait être ainsi possible de savoir quelle quantité
de contenu un LCMS a permis de produire, à quel coût
unitaire pour une organisation donnée, d'évaluer leur
qualité en les comparant à d'autres contenus et en
accédant aux avis des usagers, d'évaluer la
réutilisabilité en projetant les contenus sur des usages
nouveaux, d'évaluer leur flexibilité en comparant la
diversité des organisations l'ayant mis en œuvre, etc.
Il devrait également être possible de rejeter d'autres
paramètres qui s'avèreraient sans objet pour mesurer la
validité du LCMS, tels que le nombre d'apprenants ayant
utilisé un module de formation par exemple.
Si l'on admet qu'il est difficile, sinon
impossible, de disposer de données objectivement fiables
sur les solutions existantes, la question se pose de
savoir dans quelle mesure il convient de se fier à ces
solutions existantes pour rechercher la réponse réelle
aux besoins des usagers. Il
serait ridicule de s'appuyer sur un principe de
précaution qui conduirait à ne rien faire en attendant
des preuves scientifiques de l'intérêt des
solutions, d'une part car ces preuves ne
viendront que de l'usage, d'autre part car les
considérations théoriques permettent malgré tout de
prévoir un intérêt certain, même si non exactement
mesurable.
Il nous apparaît donc urgent d'utiliser
les LCMS, en tant qu'ils sont la réponse en cours
d'élaboration au problème fondamental d'une production
rationalisée de contenus pédagogiques aptes à répondre
aux mutations des métiers de la formation. Mais il nous
apparaît qu'il est également essentiel de ne pas
considérer les besoins en la matière au regard de l'état
de l'art et de ce que les LCMS savent faire, mais plutôt
au regard des besoins réels et de ce qu'ils devraient
faire.
Changer de cadre
Les acteurs actuels du e-learning, tendent, bien
légitimement, à s'approprier un marché en émergence, en
mobilisant pour cela, et c'est toujours aussi légitime,
les technologies et méthodologies disponibles. Nos
travaux partent du constat que le développement des
usages reste très limité, et portent sur la recherche de
solutions nouvelles pour dépasser les limites qui
freinent ce développement. Si les difficultés logiques
sont souvent admises (note
9), leur résolution est remise à plus
tard, en défendant un état qui se dit transitoire mais
qui affirme malgré tout urbi et orbi sa
pérennité. Ces lacunes technologiques sont en fait à la
source des difficultés de ce marché. Plutôt que
d'attendre une amélioration de ces derniers, c'est au
contraire un changement de paradigme préalable qui
permettra l'essor du marché. Ce changement de cadre
théorique peut d'ores et déjà être nourri de recherches
fondées (ingénierie des connaissances et informatique
symbolique typiquement). L'enjeu de la e.formation,
comme celui de toutes les autres industries de la
connaissance en émergence, est bien celui de la mise en
place d'une réelle démarche d'ingénierie couplant une
réflexion sur les systèmes techniques et sur les
systèmes humains en se permettant de remettre en cause
les uns et les autres dans une démarche de progrès. Les
prémisses ne sont pas les systèmes techniques tels
qu'ils sont ("puisqu'ils existent et même s'ils ne sont
pas pertinents") et les conclusions ne sont pas les
systèmes humains tels qu'ils devraient être selon eux
("puisqu'ils n'existent pas encore et même s'ils
pourraient être pertinents"). Dans un tel système dont
les conclusions sont en constante évolution, les
hypothèses doivent constamment être remises en cause,
dans une démarche d'innovation, ce qui, il est vrai, est
problématique à gérer du point de vue de la rentabilité
commerciale.
Le marché émergeant des LCMS offre
aujourd'hui un panorama un peu trop homogène de
solutions, de part un nivellement des solutions les unes
sur les autres et de part un manque de différenciation
réelle dans les fondements. Cela rappelle fortement le
phénomène observé il y a peu pour le marché des LMS, qui
a vu l'émergence de pléthore de solutions, et qui voit
aujourd'hui un rejet fort des usagers qui leur reproche
leur manque d'adéquation à leurs besoins
réels.
Dans une période
d'immaturité des usages, et tant que les solutions
n'apportent pas de preuves objectives de leurs
performances, il conviendrait de privilégier les
solutions innovantes, de prendre des risques, et
non de favoriser un cadre trop maîtrisé et par-là
même trop stagnant.
|
Cadre stagnant qui pourrait avoir du mal à se
réadapter lorsque les usagers seront prescripteurs de
besoins réels, comme nous pouvons également l'observer
aujourd'hui sur le marché des LMS.
Stéphane Crozat, stephane.crozat@utc.fr
Notes avant-propos
Stéphane Crozat :
enseignant-chercheur à l'Université de technologie de
Compiègne (UTC), co-auteur de Scenari. Consulter
également sa thèse et d'autres documents approfondissant
cet article ici : www.hds.utc.fr/~crozatst/documents
retour
Scenari : voir le site
de présentation wwwspul.utc.fr/site_scenari/
retour
Builders : les outils
d'aide à la création de contenu en ligne. Ils sont en
principe intégrés dans le LCMS, mais peuvent être vendus
ou loués séparément par les mêmes sociétés qui proposent
des plates-formes de téléformation, ou par d'autres
sociétés spécialistes en outils de développement de
contenus.
retour
DTD : Document Type
Definition - définition de type de document. Elle permet
de définir la structure d'un document XML. Si une DTD
est rattachée au fichier XML, ce dernier est
automatiquement considéré comme valide puisque la
définition des marqueurs du document lui est inclus.
Cette caractéristique est fondamentale car elle permet
de s'affranchir d'une standardisation bloquante d'un
document XML.
retour
Voir http://ressources.algora.org/ressources/enligne/desressources1.asp
retour
Voir http://ressources.algora.org/ressources/environnements/xml/index.asp
retour
Notes article
Etude des outils de
gestion de ressources numériques pour l'enseignement,
commande du ministère de la Jeunesse, de l'Education
nationale et de la Recherche, France, 2003. www.educnet.education.fr/lcms/
retour
Le site de
présentation de Scenari : wwwspul.utc.fr/site_scenari/
retour
Bruno Bachimont ,
"Herméneutique matérielleet artéfacture : des machines
qui pensent aux machines qui donnent à penser", mémoire
de thèse en épistémologie, Ecole Polytechnique,
1996.
retour
Précisons ici que
XML est une condition non suffisante pour la
représentation logique de l'information. XHTML, qui est
un langage XML, est néanmoins un langage de mise en
forme, à l'instar d'HTML. Le "XML Inside" n'est donc pas
une assurance de bonne pratique en terme
d'informatisation du contenu. On parlera dans la suite
de cet article de "XML logique" pour insister sur cet
usage particulier du XML consistant à exprimer une
structure sémantique du contenu et non la façon de le
mettre en forme.
retour
Et ce bien qu'elles
revendiquent une intégration "XML native", qui traduit
l'usage d'XML en tant que format de gestion et non en
tant que format de représentation, ce qui signifie que
les contenus ne sont pas représentés en XML (mais bien
dans des langages de mise en forme) et que XML n'est
utilisé que comme format de manipulation de données
extérieures au contenu (meta-données descriptives,
structures de cours, etc).
retour
Wysiwyg : What You See
Is What You Get, cela signifie que la visualisation à
l'écran est une visualisation exacte (ou presque) du
résultat obtenu pour l'utilisateur final, ce qui est
antinomique avec le concept de séparation fond/forme,
par définition. A titre d'exemple, la séparation
fond/forme permet le multi-supports et il devient très
diffcile d'assurer une édition WYSIWYG multi-supports.
Les technologies d'édition XML permettent aujourd'hui
une production non-WYSIWYG et néanmoins suffisamment
instrumentée pour autoriser la production de contenus
structurés sans connaissance informatique
préalable.
retour
En cela , le LCMS se
démarque nettement du logiciel auteur classique, en
instrumentant les principes d'une chaîne éditoriale
documentaire qui permet la séparation fond/forme. Les
logiciels auteur offrent plutôt une production facilitée
dans des formats de présentation (tels que le HTML,
Flash, etc.). La différenciation entre le LCMS (qui
instrumente une indépendance vis à vis des formats de
présentation des contenus) et l'outil auteur (dans son
acception commune) constitue donc une prééminence pour
le premier en terme de rationalisation de la gestion des
contenus.
retour
Nous ne remettons en cause
le WYSIWYG "pur" (celui qui tend à une visualisation
exacte du résultat produit) que dans son inadéquation
avec la séparation entre le fond et la forme. Et nous ne
promouvons la séparation entre le fond et la forme qu'en
tant que moyen pour rationaliser une production
industrielle.
retour
On citera par exemple le
recours massif aux QCM comme forme privilégiée
d'interactivité ou la vision très granulaire de la
pédagogie reposant sur des activités courtes (quelques
minutes) et autonomes, qui paraissent très adaptés à des
enseignements procéduraux, mais beaucoup moins à des
enseignements plus conceptuels où la liaison entre les
notions étudiées impliquent pour l'apprenant une vision
moins partitionnée du savoir et des outils plus élaborés
de restitution de cette connaissance.
retour
La séparation
fond/forme est en cela caractéristique car elle est
reconnue comme fondamentale pour répondre au problème de
l'industrialisation, tout en étant reléguée à un élément
secondaire au moment de l'instrumentation effective dans
les solutions, lorsque l'on ne sait pas facilement
résoudre les problèmes qu'elle adresse dans la
pratique.
retour