À propos de la formation aux logiciels libres

Jean-Pierre Archambault
 

   La question est souvent posée de savoir s'il y a une spécificité de la formation aux logiciels libres. La licence d'un programme n'est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n'est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

   Qu'il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu'il faut connaître pour s'en servir « intelligemment ». Mais un système d'exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu'ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d'un progiciel, puis n+1, d'un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l'utilisateur lambda n'a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s'appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

   L'informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l'homme, du travailleur et du citoyen du 21e siècle. Il s'agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c'est le code source que l'on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d'ailleurs cette représentation mentale qu'ont certains de la prothèse du cerveau qu'est l'ordinateur, que l'on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s'inscrit pleinement dans la vision qui considère que les usagers de l'informatique doivent comprendre et maîtriser les outils conceptuels qu'ils utilisent. Les créateurs d'informatique aussi, bien évidemment.

   Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l'outil n'est rien sans le geste qui l'accompagne et l'idée que se fait l'utilisateur de l'outil de l'objet à façonner  [1]. Et d'ajouter : « Ce qui était vrai de nos lointains ancêtres du Neandertal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l'apprentissage de l'outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l'outil, de son action sur la matière travaillée, ni sans formation d'une idée précise de la puissance de l'outil et de ses limites. »

Enseigner l'informatique pour donner une culture générale

   Il faut donc former à l'outil. Il faut donner une culture générale informatique à l'« honnête homme » de notre époque. Or, si une option d'informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l'outil informatique dans les différentes disciplines existantes, et cela suffit, l'avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l'informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d'une discipline scolaire en tant que telle car la seule utilisation d'un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

   Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »  [2], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l'enseignement de l'informatique, la France rentre résolument dans le XXe siècle. »  [3]. Il regrettait que l'« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d'enseigner les usages. C'est très insuffisant. C'est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C'est une aberration ! »

   L'association EPI (Enseignement Public et Informatique) et le groupe ITIC de l'ASTI ont pris ces dernières années de nombreuses initiatives en faveur d'un enseignement de l'informatique au lycée sous la forme d'une discipline d'enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée...  [4]. Un tel enseignement doit comporter des apprentissages correspondant aux grands domaines de la science informatique, à savoir l'algorithmique et la programmation, la théorie de l'information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

   Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l'Éducation, le 10 décembre 2009, s'exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « À l'heure de la société de l'information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd'hui l'informatique représente 30 % de la recherche et développement dans le monde. Aujourd'hui l'informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c'est la raison pour laquelle nous proposons en série S une spécialisation Informatique et Sciences du numérique. »  [5]

   Tous ceux qui se sont prononcés en faveur d'une telle mesure se félicitent. Parmi ceux-ci, et ce n'est pas un hasard, figure l'APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l'association, rappelant qu'« elle a toujours été favorable à ce que l'informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d'un enseignement d'une discipline scientifique et technique », souligne « cette première et importante avancée signe d'une certaine rupture »  [6]. Elle mentionne que « l'expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d'organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées ».

   Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l'école par le numérique, « Réussir l'école numérique », remis au Ministre de l'Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens  [7]. Il met en évidence la portée de cet enseignement de l'informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l'apprentissage du numérique et redonne à l'école son rôle d'éducateur. » Et rappelle qu'en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d'acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques... ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

   Si le libre est une composante à part entière de l'informatique, il n'en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l'article de Roberto Di Cosmo auquel nous nous référons ci-après  [8].

   Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d'aujourd'hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l'ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L'organisation modulaire du code source, la sélection sévère des contributions et l'existence d'un noyau central de développeurs s'assurant de la cohérence de l'ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l'on est aux limites de ce qui peut être maîtrisé en s'appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d'étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d'un appel de fonction résultant de l'ajout, du changement ou de la suppression d'un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d'exprimer leurs préférences lors de mises à jour et d'obtenir des installations personnalisées.

   Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l'informatique en général.

Penser l'immatériel

   Dans leur rapport sur l'économie de l'immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l'attention sur le fait que, dans cette économie, « l'incapacité à maîtriser les TIC constituera (...) une nouvelle forme d'illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l'adaptation de notre pays à l'économie de l'immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »  [9]. Il faut former à l'informatique.

   John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l'instar du modèle de l'open source pour les logiciels ». Il existe une transférabilité de l'approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l'occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d'auteur et les droits voisins dans la société de l'information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l'immatériel. Il faut former à l'informatique libre. Les élèves et les étudiants, travailleurs et citoyens d'aujourd'hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l'immatériel et la connaissance.

Production collaborative de ressources pédagogiques

   La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d'entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L'on sait la transférabilité de l'approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l'association Sésamath  [10], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l'UNESCO.

   Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l'objectif général, clairement exprimé, de favoriser la diffusion et l'accès pour tous aux oeuvres de l'esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l'autorisation obligatoire. Il permet à l'auteur d'autoriser par avance, et non au coup par coup, certains usages et d'en informer le public. Il est autorisé d'autoriser. C'est incontournable à l'heure d'Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l'on ne pouvait parler librement des oeuvres et s'il fallait, pour la moindre citation, demander l'autorisation à l'auteur ou à ses héritiers.

   Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris,
coordonnateur du pôle de compétences logiciels libres du SCÉRÉN

Paru le 5 avril 2010 sur le Framablog.
http://www.framablog.org/index.php/post/2010/04/05/formation-logiciels-libres-archambault

NOTES

[1] « Outils, machines et informatique », Maurice Nivat, EpiNet n° 124
http://www.epi.asso.fr/revue/articles/a1004f.htm

[2] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d'innovation technologique Liliane Bettencourt
http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[3] « Gérard Berry : L'informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009.
http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[4] http://www.epi.asso.fr/blocnote/blocsom.htm#itic
On pourra aussi se référer, pour les élèves à partir de l'école primaire, à la version française de « Computer Science Unplugged » :
http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[5] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[6] Communiqué de presse de l'April du 5 janvier 2010
http://www.epi.asso.fr/revue/docu/d1001a.htm

[7] http://www.reussirlecolenumerique.fr/

[8] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n° 436, décembre 2009. Professeur à l'Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l'INRIA.

[9] Rapport remis à Thierry Breton en décembre 2006.

[10] http://www.sesamath.net/

___________________
Association EPI
Juin 2010

Retour