Une didactique de l'informatique ?

Georges-Louis Baron, Éric Bruillard
 

Le présent texte est celui du fichier soumis à la Revue française de pédagogie ; il a donc un statut de version ß, dans la mesure où certaines corrections de détail apportées à la version publiée n'y ont pas été répercutées.

Résumé

   L'informatique est une réalité paradoxalement à la fois répandue et cachée pour la majorité de la population, qui interagit quotidiennement avec des outils logiciels. Si ces derniers ont dans les publicités la réputation d'être simples d'emploi, ils posent cependant de nombreux problèmes d'usage. L'informatique, discipline universitaire sans homologue scolaire et ensemble de savoirs intégrés dans d'autres disciplines est un domaine dont l'influence sur l'éducation est potentiellement forte. Le présent texte est une synthèse sur les enjeux didactiques qui lui sont liés en termes de culture citoyenne, de renouvellement de l'instrumentation et de développement de formes d'expérimentation.

1. De l'informatique aux technologies de l'information et de la communication (TIC)

   L'ordinateur est une des grandes découvertes du XXe siècle, à côté d'autres inventions marquantes comme les antibiotiques ou la physique nucléaire. D'abord support de calculs complexes, il a donnés lieu à l'invention de techniques, de concepts et de théories permettant de réaliser des traitements d'informations symboliques et a rendu possible bien d'autres découvertes. Au-delà de l'ordinateur, c'est l'informatique qui s'est imposée. Ce mot, inventé en France en 1962, a été défini par l'Académie française dès 1966 comme « science du traitement rationnel, notamment à l'aide de machines automatiques, de l'information considérée comme le support des connaissances et des communications dans les domaines technique, économique et social ».

   Dans cette définition, « information » joue un rôle essentiel. Alain Rey relève que dans ce sens il s'agit d'un emprunt à l'anglais autour de 1950, qui ne correspond pas au sens commun, celui-ci considérant plutôt l'information comme ensemble de renseignements portés à la connaissance du public  [1]. Il s'agit bien ici de « formes », l'informatique permettant le traitement de « connaissances » dès qu'une forme (et même un format) leur a été donné et qu'elles peuvent être considérées comme des « données ».

   La diffusion tumultueuse des technologies de la communication depuis une douzaine d'années s'accompagne d'une transformation progressive du mot « informatique » en adjectif qualificatif. On entend ainsi parler d'outils informatiques et même de logiciels informatiques, tandis que « multimédia », « Internet », voire simplement « surf » et navigation deviennent l'alpha et l'oméga de l'utilisation de l'ordinateur. Pour reprendre une idée de Claude Pair (1996), l'évolution de l'informatique conduit à « simplifier l'usage de l'ordinateur de sorte qu'elle-même détruit la motivation à ce qu'on l'apprenne ». La question même de sa place comme objet de formation et d'enseignement tend ainsi à disparaître.

   Or la réalité est complexe et mouvante. Internet popularise en effet de nouvelles procédures permettant d'accéder à de l'information numérisée, de la traiter, de s'assurer de sa validité.

   Mais celles-ci sont fondées sur des modes sophistiqués de traitement automatique de données et nécessitent une forme de compréhension de ce qui est en jeu. La convivialité supposée des ordinateurs est davantage un argument de vente qu'une réalité. L'interface, séduisante et multimédia, recouvre et masque des processus complexes. Certains peuvent avoir été explicitement lancés par l'usager lui-même (par exemple lorsqu'il clique sur une zone sensible d'une page pour ouvrir un autre document). D'autres correspondent à des actions de contrôle initiées par des serveurs distants.

   Ce que seront les nouveaux instruments dans l'avenir proche n'est pas totalement déterminé. Dans la perspective néo-libérale dominante, et comme pour d'autres marchés, les usagers, ont leur mot à dire pour faire évoluer les fonctionnalités des produits qu'ils utilisent. Il n'est pas exagéré de dire qu'il y a des enjeux citoyens du développement des « nouvelles technologies », enjeux qui demandent que la population s'approprie non seulement le mode opératoire de produits particuliers, mais surtout des éléments d'une nouvelle culture. Celle-ci n'est qu'émergente et nous n'essayerons pas ici d'en identifier les lignes de développement. Nous nous concentrerons en revanche sur un de ses fondements, l'informatique.

2. Informatique : champ scientifique et technique

   Il existe indubitablement une discipline informatique, non réductible aux autres. Non seulement elle a une existence institutionnelle forte, mais elle propose une façon particulière de poser les questions qui n'est ni celle des mathématiques, ni celle de la physique, ni celle de la technologie. Centrée sur le traitement automatique de l'information, elle insère désormais l'homme dans la boucle de traitement au sein de réseaux complexes mélangeant humains et machines. La notion de communication (interpersonnelle médiatisée, personne-machine, machine-machine) y a ainsi acquis une importance déterminante.

2.1. Une construction progressive et plurielle

   L'informatique n'a pas eu d'emblée une dimension scientifique. Jacques Arsac, un de ses pionniers, écrivait ainsi en 1970 : « Durant toute cette phase, dont nous ne sommes pas encore sortis, l'informatique a été conçue comme ensemble de méthodes ou de techniques, sans autre unité que l'ordinateur » (p. 215). Cet auteur s'est attaché, dès cette époque, à préciser en quoi l'informatique était avant tout une science. On trouve dans un article de 1993 (Arsac, 1993, p. 149) le schéma suivant :

   Pour l'auteur, il existe une similitude avec les sciences expérimentales où l'on passe par une représentation de phénomènes observés à un modèle théorique, sur lequel un traitement formel donne des résultats qui sont ensuite interprétés pour aboutir à des résultats. De manière pratique, une science se caractérise par les problèmes qu'elle permet d'aborder, les résultats obtenus, reconnus par une communauté et des institutions qui en garantissent la validité. L'un de nous (Baron, 1989), analysant la naissance de l'informatique comme discipline scientifique à partir des doctorats soutenus a montré qu'elle intervient avec certitude dans des thèses de troisième cycle répertoriées dans d'autres disciplines dès 1961, puis à partir de 1965 dans les thèses d'État (thèse d'État de Claude Pair à Nancy sur la notion de pile), et dès 1964 si l'on prend en compte la thèse de sciences appliquées de Jean-Claude Boussard à Grenoble sur la compilation du langage ALGOL.

   Jusqu'en 1969, les thèses sont référencées « mathématiques », « mathématiques appliquées », « électronique », « traitement de l'information », « automatique »... À partir des années soixante-dix, une science informatique se construit progressivement, principalement autour des méthodes de programmation. Reconnue au conseil supérieur des universités en 1972 et au comité national du CNRS en 1976, elle s'édifie en s'appuyant notamment sur les travaux d'associations savantes, dont la plus influente a été l'AFCET (« Association Française pour la Cybernétique Économique et Technique », ensuite renommée « Association Française des Sciences et Technologies de l'Information et des Systèmes »). Celle-ci a organisé vers 1975 des ateliers et des rencontres où les chercheurs pouvaient échanger leurs idées, sur la science elle-même mais aussi sur les manières de l'enseigner  [2].

   Dès ces années de bouillonnement, des objets et théories couvrant un large spectre ont été définis (Baron 1989, Jacquart, 2000). Il convient cependant de considérer l'importance constante, centrale, de la programmation et des « langages » permettant de programmer.

2.2. Les notions de langages

   Une des spécificités de l'informatique est de faire faire quelque chose à une machine à caractère universel, c'est-à-dire qui n'a pas été construite pour réaliser une catégorie de tâches définie à l'avance (comme les automates mécaniques du XVIIIe siècle). C'est le programme qui indique les actions devant être effectuées. Il s'agit d'un texte, écrit dans un langage, plus ou moins général, plus ou moins sophistiqué, plus ou moins proche de la structure interne de la machine ou des problèmes que l'on cherche à résoudre. Historiquement, l'informatique s'est constituée à partir de travaux menés par des informaticiens et des linguistes pour définir complètement des langages de programmation dits de haut niveau (c'est-à-dire indépendants d'un type de matériel donné), pouvant ensuite, par des processus de traduction automatique, être convertis en code machine, le seul exécutable par un processeur. Les premiers, dits « impératifs » (à base d'ordres comme imprimer, lire, faire tant que...), ont été conçus pour coder efficacement des algorithmes, au sens de suite d'opérations à effectuer sur un ensemble de données pour obtenir une classe de résultats. L'algorithmique (science de la conception d'algorithmes) jouera d'ailleurs un rôle essentiel dans la constitution de l'informatique comme discipline universitaire.

   Parmi les autres types de langage, un des plus diffusés en éducation est LOGO. Issu de LISP, langage historique de l'intelligence artificielle, il offre des moyens puissants de création et de composition de fonctions repérées par leur nom au sein de procédures plus complexes. Spécifié à partir de la fin des années 60, il a fait l'objet de nombreux travaux avec des enfants. La raison de son succès provient de sa capacité à piloter un mobile (la fameuse tortue) imaginée par Seymour Papert (1981), permettant une transition entre un faire faire, à la fois abstrait et difficile surtout pour des enfants, et le faire, puisque l'utilisateur (le programmeur) peut se mettre à la place de la tortue et exécuter lui-même ce qu'il prévoit de lui demander. Le programme est une traduction des actions que lui-même (ou la tortue) effectue.

   Dans les dix dernières années, s'est répandu un type de programmation, dit « par objets », maintenant largement enseigné dans les universités et qui est devenu la norme dans la grande majorité des applications actuelles. L'idée sous-jacente est d'augmenter la modularité dans la conception et dans l'exécution des programmes en substituant à de vastes constructions centralisées, devant prendre en compte un grand nombre d'éventualités, des classes d'objets indépendants, dotés d'attributs et communiquant entre eux par l'échange de messages. C'est ce type de programmation qui est à la base des interfaces graphiques, désormais classiques pour piloter les ordinateurs personnels.

   La « manipulation directe », introduite dans les années 80, permet de donner aux usagers l'illusion qu'ils agissent eux-mêmes sur des objets représentés à l'écran. Les clics de souris dans des zones prévues à l'avance lancent en fait des programmes, qu'il fallait auparavant mettre en oeuvre en écrivant explicitement des ordres (par exemple format, copy...). Le changement est important, car on n'a plus à décrire les actions à effectuer et on a l'impression de les réaliser soi-même sur l'écran.

   Les langages de programmation, quels qu'ils soient, sont désormais devenus des outils de spécialistes. Il existe cependant toujours deux formes de programmation assez répandues auprès des usagers. La première est fondée sur la mise à jour de variables d'état dans un logiciel, variables qui vont influer sur son comportement (dans les cas les plus simples, elles permettent de définir la taille du papier, la police de caractère par défaut, le dossier où seront sauvegardés les fichiers...). La seconde prend plusieurs formes : il peut s'agir de l'enregistrement d'une suite d'actions qui vont pouvoir être rejouées (on crée une « macro » ou un script, souvent sans écrire directement de code, mais en mémorisant une suite de choix dans des menus qui seront ensuite interprétés), ou de la définition de formules dans un tableur, de liens dans des pages HTML...

   Une des questions très tôt soulevée à propos d'informatique est celle des techniques qui lui sont associées et peut-être qui la constituent toute entière. Pour Jean-Pierre Finance (2000), l'informatique, illustration particulièrement convaincante de « l'intrication entre science et technique » est « un travail scientifique qui, autour des concepts de calcul, de raisonnements, d'information, de machine et de communication, tend à comprendre comment le développement d'outils de capacités extraordinaires de calcul, de mémorisation et de communication introduit de nouveaux paradigmes scientifiques, méthodologiques et techniques ». Science, technique et information apparaissent ainsi au coeur de l'informatique. Elle n'est pas une science de la matière (l'information n'est pas une matière, bien que les diverses formes qu'elle prend la matérialisent, mais d'une façon entièrement malléable). Elle est avant tout concernée par la représentation, le traitement et la communication de l'information et tend à s'introduire dans d'autres disciplines scientifiques plus anciennes, en les modifiant et en participant à la création d'entités nouvelles dont elle est partie prenante (robotique, bioinformatique...).

   La création au CNRS en octobre 2000 d'un département « sciences et technologies de l'information et de la communication » (STIC) est de ce point de vue significative.

   Dans ce contexte, on peut s'interroger sur la manière dont le système scolaire prend en compte le phénomène informatique.

3. Informatique, TIC et enseignement, quelle place dans les curriculas ?

   Nous ne reviendrons pas ici sur la question de l'histoire de l'enseignement de l'informatique en milieu scolaire, qui a déjà fait l'objet de nombreux travaux (Baron, 1989 ; Baron et Bruillard, 1996). En revanche, nous allons analyser rapidement quelle est la place actuelle de l'informatique (et plus largement des TIC) dans les différents programmes d'enseignement scolaire, ce qui ne dit rien sur le curriculum réel mais fournit néanmoins une idée de l'étendue de la reconnaissance de l'informatique à l'École.

   Les points de vue officiels à l'égard des technologies de l'information et de la communication ont varié au cours du temps, trois attracteurs principaux apparaissent dans les discours et les documents officiels : un outil d'enseignement ; un nouveau domaine d'enseignement ; un ensemble d'outils, disciplinaires ou transversaux. Les outils d'enseignement relèvent des méthodes ; ils ont très peu été prescrits dans les programmes.

   La constitution de nouveaux domaines d'enseignement a été entreprise dès les années 60 pour les disciplines technologiques. En revanche, les tentatives de constitution d'une nouvelle discipline de formation générale liée à l'informatique (en particulier avec l'expérience de l'option informatique menée à partir de 1981) ne se sont guère révélées couronnées de succès. Pour le troisième point de vue, l'informatique n'a été considérée que comme un ensemble d'outils et de techniques sans enjeux épistémologiques et a plutôt fait l'objet de recommandations que de prescriptions.

   Pour préciser l'analyse, il est nécessaire de faire une distinction entre l'enseignement de premier et de second degré.

3.1. L'école élémentaire

   Les instructions officielles de 1995 réservent une part assez modeste à l'utilisation des technologies de l'information et de la communication, contrairement à celles de 1985. Le BO n° 31 du 1er septembre 1994 indique dans son commentaire général que le maître « familiarise l'élève avec l'utilisation de l'ordinateur qu'il met au service des disciplines et dont il fait comprendre les différentes possibilités ». La part dévolue explicitement à l'informatique est réduite au cycle des approfondissements, où seules sont considérées « Quelques utilisations de l'informatique à l'école et dans l'environnement quotidien » et « l'utilisation raisonnée d'un ordinateur et de quelques logiciels (traitement de texte, tableur et logiciels spécifiques à l'école primaire) dans le cadre de l'enseignement des champs disciplinaires ; approche des principales fonctions des micro-ordinateurs (mémorisation, traitement de l'information, communication) ».

   On peut noter qu'il n'est plus question de la place de l'informatique dans la société (comme c'était le cas 10 ans plus tôt), que l'usage du minitel a disparu de même que les aspects liés à la gestion documentaire.

   Dans les propositions de programme publiées au BO spécial n° 7 du 26 août 1999, la rubrique « maniement des ordinateurs » manifeste un net recul de l'informatique : « Écriture de textes et utilisation de quelques logiciels spécifiques à l'école primaire (dessin, etc.), de CD-Rom ». De plus, « l'accent doit être mis sur l'usage de l'ordinateur dans la classe et non sur le discours à propos de l'ordinateur. L'utilisation "raisonnée" de l'ordinateur, le tableur, les aspects sociaux et techniques de l'informatique ainsi que les fonctions des micro-ordinateurs sont reportés au collège où ils seront largement développés ».

   Le texte considère donc qu'à l'école la seule pratique suffit. Il affirme même, avec un certain optimisme, qu'elle aurait des vertus de « structuration progressive mais rigoureuse des activités interdisciplinaires et des travaux de groupe » et que « l'outil informatique facilite (...) l'analyse des étapes d'une progression ; la comparaison de stratégies mises en oeuvre par les élèves ; la recherche et le réinvestissement d'informations ; la diversité des modes d'expression ; l'archivage ».

3.2. L'enseignement de second degré

   Au collège, l'informatique (et plus généralement les technologies de l'information et de la communication) intervient explicitement dans deux secteurs : la technologie et la documentation.

   Les programmes de technologie créés en 1985 et rénovés à partir de 1995 accordent une place conséquente à l'informatique, considérée principalement comme une technologie de l'information. Par ailleurs, les professeurs-documentalistes ont pour mission de former des élèves à la maîtrise de l'information. Dans ce cas, néanmoins, le sens du mot « information » n'est pas tout à fait le même.

   Au lycée, il existe, depuis la rentrée 2000, vestige de l'ancienne option informatique, une « mise à niveau »  [3] dispensée en une quinzaine d'heures en classe de seconde, dont la mise en oeuvre récente n'est pas encore stabilisée et dont l'avenir n'apparaît pas très assuré (Gaubert-Macon, 2000). Pour le reste, elle est presque uniquement prise en compte en tant que telle par les disciplines techniques. Les sciences et dans une moindre mémoire les mathématiques font un usage maintenant banalisé d'instruments logiciels (comme l'expérimentation assistée par ordinateur ou les systèmes de calcul formel), sans pour autant prévoir de formation spécifique pour les élèves.

   Le développement des TIC a conduit à une considération privilégiée de la dimension « communication », entendue dans le sens de réseau de communication. L'informatique, sous l'habit des TIC, est alors en passe de devenir une sorte d'instrument censé faciliter la mise en place d'innovations destinées à étendre le travail interdisciplinaire au sein du système scolaire : travaux croisés en collège, travaux personnels encadrés en lycée d'enseignement général.

3.3. Vers la définition d'un ensemble minimal de savoir-faire ?

   Récemment, la nécessité pour les jeunes d'avoir des notions d'informatique a été officialisée par l'instauration d'un « brevet informatique et internet », ou « B2i ». Celui-ci comporte deux niveaux exprimant un certain nombre de compétences et de savoir faire que les élèves doivent avoir acquis en fin d'école élémentaire et en fin de collège (BO n° 42 du 23 novembre 2000). Il « précise un bagage minimum commun » sans fixer « de limite à l'utilisation des outils informatiques ».

   Les compétences énoncées apparaissent surtout sous forme de savoir faire opératoires tels que : « je sais identifier le nom et l'adresse électronique de l'auteur d'un message que j'ai reçu », ou « Je sais ouvrir un fichier existant, enregistrer dans le répertoire déterminé par l'enseignant un document que j'ai créé moi-même ». C'est seulement au niveau 2 (fin de collège) que sont identifiées des connaissances générales comme l'utilisation correcte en situation des « éléments de base du vocabulaire spécifique de l'informatique : microprocesseur, mémoire centrale (de travail), mémoires de stockage ; numérisation de l'information, octet ; système d'exploitation, presse-papier, copier, coller, couper, icône ; fichier, dossier, arborescence, lien hypertexte ; application, traitement de texte, tableur, logiciel de reconnaissance de caractères, logiciel de traitement d'images ou de sons ; fichier de données, extension ; réseau, toile (Web), logiciel de messagerie, navigateur, moteur de recherche ».

   On le voit, l'accent porte surtout ici sur des éléments techniques. Toutefois, les textes officiels prennent en général le soin d'indiquer qu'il s'agit bien de faire acquérir aux élèves un certain bagage culturel : « Au-delà de l'acquisition de savoir-faire, l'objectif global est que l'élève, à travers les activités proposées, accède à un ensemble de notions relatives au traitement de l'information qui lui rendront intelligibles les opérations effectuées » (BO n° 25 du 24 juin 1999).

   Des études récentes menées aussi bien avec des élèves de seconde qu'avec des enseignants en formation initiale, confirment que nombre d'entre eux sont loin d'avoir acquis les compétences nécessaires pour travailler de manière autonome avec l'ordinateur et sont encore plus loin d'avoir intégré ces éléments de culture permettant de « rendre intelligibles » les opérations qu'ils effectuent par l'intermédiaire des ordinateurs (Bruillard, 2000). La question se pose, alors, de savoir quels moyens didactiques peuvent être utilisés pour transmettre les savoirs nécessaires. Nous allons, dans la section qui suit, donner des références sur les travaux menés dans ce domaine de la didactique de l'informatique, en essayant de mettre en évidence des lignes de développement.

4. Quelques repères sur la didactique de l'informatique

   La didactique de l'informatique naît dans la deuxième moitié des années 70, quand des universitaires s'interrogent, dans le cadre d'associations savantes comme l'AFCET, sur les moyens de bien enseigner la programmation. Les questions de didactique se posent ensuite avec acuité pendant la phase d'enseignement de l'option informatique, dans les années 80. En effet, on se rend vite compte que l'apprentissage de la programmation est très difficile : les élèves ont du mal à comprendre le sens des mots clés du langage qu'ils utilisent (essentiellement à l'époque BASIC, PASCAL et LSE), ou la nécessité de mener une phase d'analyse préalable à la programmation en spécifiant le plus clairement possible les algorithmes sous-jacents au programme (Rogalski & Samurçay, 1986 ; Rogalski 1990). La demande de circulation d'idées est forte de la part des enseignants. Le ministère, qui pilote l'option informatique, favorise justement la créativité de ces derniers et les incite à l'innovation. Il soutient également un ensemble de publications, afin de permettre l'échange des idées.

   Au niveau national, la revue Informatiques, publiée par le CRDP de Poitiers et la direction des lycées (puis par la direction des lycées et collèges), fait paraître 12 numéros de 1985 à 1990 ; les articles y émanent d'universitaires responsables du suivi de cette option et d'enseignants. Certaines académies ont également un bulletin de liaison (comme l'académie de Lille). Par ailleurs, une série de livres de synthèse ont également été édités par le CRDP de Poitiers avec pour objectif général de rendre public un ensemble de réflexions sur les concepts en jeu (en particulier sur l'apprentissage de la programmation) et sur les activités permettant leur appropriation (et notamment les activités de projet). L'association Enseignement Public et Informatique (EPI) joue également un rôle très important dans la diffusion des idées, notamment pas son bulletin.

   Un colloque de didactique de l'informatique est organisé à Paris en 1988 (EPI, 1989). L'avant-propos des actes relève que les 180 participants venaient de 7 pays francophones et comportaient un peu plus d'un tiers d'universitaires et un peu moins des deux tiers d'enseignants du second degré. Comme le souligne Claude Pair dans son allocution de clôture : « plus que dans toute autre discipline, même récente, en informatique il existe une osmose entre l'enseignement supérieur et la recherche, d'une part, l'enseignement primaire et secondaire d'autre part ». Sans doute le fait que l'option informatique est alors à son apogée et concerne plus de la moitié des lycées (la décision de la supprimer viendra l'année suivante) joue sans doute aussi un rôle dans l'engagement des enseignants.

   La programmation, ses méthodes et son apprentissage font l'objet de la majorité des communications. L'accent est principalement mis sur l'algorithmique, mais on trouve aussi une réflexion sur les différents paradigmes de programmation et, en particulier, sur le paradigme objet. Enfin, deux contributions s'intéressent au rôle des progiciels (bases de données et tableur). Une contribution (Romainville, 1989) présente un point de vue critique sur les effets de l'initiation à l'informatique.

   Cette première initiative a connu un succès indéniable. Une association francophone de didactique de l'informatique (AFDI), dont l'EPI est membre fondateur, est alors créée. Elle co-organise une deuxième rencontre, deux ans plus tard, qui a lieu aux facultés universitaires Notre Dame de Namur (CEFIS, AFDI, 1991). Dans cette manifestation l'intérêt pour l'algorithmique est toujours très net. Cependant, certaines communications s'intéressent à un enseignement prenant pour support les progiciels (qui ont leurs propres langages de description et de manipulation de données) et s'adressant non pas à des scientifiques mais à des étudiants du secteur tertiaire. Les troisièmes rencontres se tiennent à Sion (Suisse) en 1992 (EPI, 1993). Une quatrième édition a lieu au Québec en 1994 et une cinquième à Monastir (Tunisie) en 1996 (AFDI, 1996).

   Mais à cette époque, l'intérêt pour l'enseignement de l'informatique a nettement diminué en France comme dans d'autres pays industrialisés au bénéfice de la vague multimédia (on ne parle pas encore beaucoup d'Internet à l'école, mais le mouvement est en marche). Depuis, il n'y a plus eu de colloques organisés par l'AFDI et cette association est inactive. Ainsi, une communauté de didactique de l'informatique associant des universitaires (informaticiens, psychologues), des enseignants et formateurs a évolué pendant une douzaine d'années. Des thèses relevant de la didactique de l'informatique ont été soutenues, comme celles de Lagrange (1991), Komis (1993), Greff (1996), Girardot (1997), Politis (1999)  [4].

   Les travaux ont rarement fait référence à la transposition didactique, bien que les progammes de l'option informatique aient largement été une transposition didactique assez directe des programmes de licence pour ce qui est des savoirs relatifs à la programmation (il y a cependant eu une volonté de prendre en compte le thème « informatique et société » qui s'est affiché dans les programmes et dans l'épreuve de baccalauréat). En 1991, alors que l'option était en train de s'étioler, Christian Orange (1990) a proposé dans le Bulletin de l'EPI n° 60, largement lu par les enseignants, de prendre en compte la notion de pratiques sociales de référence introduite par J.-L. Martinand et d'envisager l'informatique à l'école en termes de résolution de problèmes et non d'apprentissage de méthodes ou d'outils décontextualisés.

   Le rejet de la programmation à la fin des années quatre-vingts, le déclin de l'option informatique en lycée ont conduit à un désintérêt progressif pour ce secteur et à un renouvellement des problématiques autour de deux ensembles de questions : d'une part les problèmes de nature curriculaire directement liés à l'informatique et, d'autre part, les problèmes généraux de l'intégration des TIC dans le système scolaire, en considérant ses différents acteurs et son organisation en disciplines et en s'intéressant aux questions de contenus et de modalités d'enseignements (Baron et al., 2000).

   Ces technologies modifient en effet la façon dont les tâches sont traitées, en changent la focalisation, diminuant la technicité requise pour certaines d'entre elles et ouvrant de nouveaux possibles. Elles peuvent servir de vecteur ou de levier pour des changements en profondeur de l'environnement de travail des acteurs du système éducatif et susciter de nouvelles questions sur l'enseignement de la plupart des disciplines scolaires et sur les conséquences éthiques et citoyennes des traitements automatisés de l'information.

5. Quelle place pour l'informatique à l'heure des TIC ?

   Une question à considérer d'emblée est de savoir quelle est la place de l'informatique dans ces évolutions. Sans chercher à y répondre de manière exhaustive, on peut faire plusieurs remarques. D'abord, l'intérêt pour l'informatique s'accroît dans l'enseignement supérieur, tant en ce qui concerne la formation des scientifiques que celle des autres étudiants. Dans ce domaine, la généralisation de l'informatique dans les premiers cycles, notamment dans les filières non scientifiques, est une incitation forte à s'interroger sur des questions didactiques spécifiques à ce type d'enseignement (cf. par exemple, SPECIF, 2000).

   Dans l'enseignement scolaire, on trouve également des situations mettant en jeu des formes de programmation (c'est notamment le cas en mathématiques et dans le secteur des différents génies techniques). Pour le reste, deux points apparaissent centraux : fournir aux élèves les compétences et les savoirs nécessaires à une bonne maîtrise des instruments utilisés en contexte scolaire et développer des pratiques d'enseignement faisant appel à l'expérimentation.

5.1. Des concepts sous jacents aux instruments

   Certaines activités scolaires sont fondées sur l'usage d'instruments informatiques, que ce soit en référence à des pratiques sociales (c'est le cas de la technologie collège) ou dans des contextes disciplinaires ou interdisciplinaires spécifiques (traitements de textes, tableurs, moteurs de recherche, systèmes d'expérimentation assistée par ordinateur...). Il est important de se demander quelles compétences les élèves devraient s'être appropriés pour mettre en oeuvre de manière efficace ces instruments dans différents contextes disciplinaires. Les travaux menés sur la détermination d'un noyau de concepts caractérisant l'informatique (notion de mémoire, de fichier, de répertoires...) suggèrent que ces derniers sont très dépendants des contextes technologiques et plus complexes qu'on ne le supposait.

   Nous pensons qu'une partie des difficultés des élèves trouve sa source dans le fait qu'ils ont du mal à se forger des représentations globales des systèmes qu'ils utilisent et dont ils ne voient souvent qu'une série de vues partielles, constituées lors de la résolution d'un nombre limité de tâches disciplinaires. De plus, les interfaces actuelles, qui donnent à l'utilisateur l'illusion de faire directement sans nécessiter le recours à un langage, ne facilitent pas la conceptualisation. Des recherches sont nécessaires pour comprendre quelles sont les représentations et les compétences mises en oeuvre par les élèves face à différents types de situations problèmes utilisant des instruments de traitement de l'information. Il s'agit également d'inventer des situations ou des modalités de formation favorisant la conceptualisation. Pour cela, une démarche de type expérimental interrogeant en contexte le fonctionnement des instruments, pourrait être une bonne solution.

5.2. Une importance accrue de l'expérimentation et la modélisation

   Les environnements actuels de traitement de l'information permettent de conduire des activités nouvelles de type empirique voire quasi expérimental, de confronter des théories et des données même dans des disciplines sans rapport historique avec l'expérimentation (comme la littérature ou les langues étrangères). Parce que le système permet de mémoriser de grands ensembles de données et des suites d'actions, il devient possible de faire des manipulations complexes sur de grands corpus, de faire varier de manière volontaire et réversible certains paramètres et d'observer les résultats de différents points de vue.

   Un des risques de ce type d'approche est évidemment celui du « zapping », de la randonnée aléatoire dans une masse confuse de données dont le sens ne pourrait être construit faute d'objectifs réalistes ou de représentations adéquates. En revanche, les potentialités sont importantes dans le domaine de l'exploration guidée de phénomènes complexes, de la mise à l'épreuve de théories, de la construction de représentations cohérentes de la recherche d'information dans de grandes masses de documents. L'enjeu est bien que les élèves puissent acquérir les compétences nécessaires.

5.3 Perspectives

   Les usages des technologies dans l'éducation devraient se développer. La question de l'acquisition d'une maîtrise des concepts essentiels et d'une culture dans le domaine des sciences de l'information reste posée. Quelle forme prendra-t-elle ? Il importe de maintenir une forme de veille, d'observer les problèmes qui se posent et de formuler des questions auxquelles la recherche puisse apporter des éléments de réponse. Pour cela, l'adoption de cadres de référence est fondamentale. Plusieurs sont disponibles, chacun induisant une forme de focalisation et donc une incomplétude.

   Les approches de type « transposition didactique », parce qu'elles se concentrent généralement sur les savoirs, ne fournissent guère d'éclairage sur les usages d'instruments d'apparition récente. Se fonder sur des pratiques sociales de référence ne donne guère de repères sur l'acquisition de compétences avec les instruments. Les questions de genèse instrumentale sont éclairées par certaines théories d'origine psychologique (Rabardel, 1995), mais ne prennent pas en compte de manière spécifique les situations d'enseignement. L'étude de ces dernières nécessite également la prise en compte de dynamiques sociales. Cette situation est en fait normale ; elle se produit dans tout champ ne disposant pas d'un paradigme dominant. Les évolutions se feront progressivement, en fonction de l'engagement d'enseignants et de chercheurs de différentes spécialités.

   L'enseignement de l'arithmétique s'est d'abord développé en raison de son utilité sociale (les marchands) et a bénéficié de l'évolution des technologies (notamment le passage de la plume d'oie à la plume de fer, permettant d'écrire sans avoir à acquérir une grande dextérité). Puis il s'est institué comme une invention scolaire spécifique. Peut-être un phénomène semblable est-il en train de se produire pour l'informatique et les technologies associées.

Georges-Louis Baron,
Éric Bruillard

La version définitive de cet article est parue dans la Revue française de pédagogie n° 135, avril-mai-juin 2001, Culture et éducation : « Colloque en hommage à Jean-Claude Forquin, INRP, 9-10 décembre 1999 », p. 163-172. www.inrp.fr/publications/rfp/.

Références

Ouvrages

AFDI (1996). Les actes de la 5ème Rencontre Francophone sur la Didactique de l'Informatique, Monastir (République Tunisienne), INBMI : AFDI, 510 p.

Arsac Jacques (1970). La science informatique, Nathan, Paris, 1970, 233 p.

Arsac Jacques (1993). Informatique et culture, in Georges-Louis Baron, Félix Paoletti, Régine Raynaud, (dir.), Informatique, communication, société, Paris : L'Harmattan - INRP, p. 147- 157.

Baron Georges-Louis (1989). L'informatique, discipline scolaire ? (le cas des lycées), Paris : PUF (Pédagogie d'aujourd'hui), 230 p.

Baron Georges-Louis, Bruillard Éric (1996). L'informatique et ses usagers dans l'éducation, Paris : PUF (L'éducateur), 312 p.

Baron Georges-Louis, Bruillard Éric, Levy Jean-François (dir.) (2000). Les Technologies dans la classe : De l'innovation à l'intégration ; Paris : INRP - EPI, 199 p.
http://www.epi.asso.fr/association/dossiers/jflevy2.htm.

CeFIS, AFDI (1991). Actes du deuxième colloque francophone sur la didactique de l'informatique, Namur : Presses Universitaires de Namur, 321 p.

Direction des Lycées (1986). L'option informatique, réalités et pratiques, Poitiers : Ministère de l'Éducation nationale, Direction des Lycées - CRDP, 95 p.

EPI (1989). Actes du colloque francophone sur la didactique de l'informatique, université René Descartes, Paris 1, 2 et 3 septembre 1989, Paris : EPI, 312 p.

EPI (1993). Actes de la troisième rencontre francophone de didactique de l'informatique, Paris : EPI, 232 p.

Jacquart René (dir.) (2000). Informatiques. Enjeux, tendances, évolution ; Numéro spécial Technique et science informatiques, Hermès, Paris, 467 p.

Levy Jean-François (dir.) (1995). Pour une utilisation raisonnée de l'ordinateur dans l'enseignement secondaire ; analyses de pratiques et propositions pour un meilleur usage des instruments informatiques, Paris : EPI - INRP (didactiques des disciplines), 178 p.
http://www.epi.asso.fr/association/dossiers/jflevy1.htm.

Lucas Michel (1994). Enseignement d'un ensemble de notions et savoir-faire informatiques à l'école primaire, au collège et au lycée in Informatique, formation des enseignants : quelles interactions ?, Paris, INRP, p. 75-90.

Papert Seymour (1981). Le jaillissement de l'esprit, Flammarion.

Articles et communications à des colloques

Berthon Jean-François (1997). La didactique, la raison graphique et l'ordinateur : effets révélateurs et potentialités transformatrices des outils informatiques dans la didactique du français, Recherche et Formation, n° 26, Les nouvelles technologies : permanence ou changement ?, p. 47-63.

Bruillard Éric (2000). « Qu'importe qu'ils comprennent puisqu'ils savent s'en servir ! », in Les dossiers de l'ingénierie éducative, n° 31, Paris, CNDP, p. 2-3.

Finance Jean-Pierre (2000). Entre rétrospective et prospective, in René Jacquart (dir.), Informatiques. Enjeux, tendances et évolutions ; Hermès, Paris, p. 11-17.

Grossetti Michel, Mounier-Kuhn Pierre Éric (1995). Les débuts de l'informatique dans les univsersités, Revue française de sociologie, 36, p. 295-324.

Orange Christian (1990). Didactique de l'informatique et pratiques sociales de référence, Bulletin de l'EPI, n° 60, décembre 1990. p. 151-161.
http://www.epi.asso.fr/revue/60/b60p151.htm.

Pair Claude (1996). Texte de 1996 à l'AFDI, Informatique science humaine ou inhumaine.

Rabardel Pierre (1995). Les hommes et les technologies : approche cognitive des instruments contemporains, Paris : Armand Colin (Psychologie), 239 p.

Rogalski Jeanine (1990). Didactique de l'informatique et acquisition de la programmation, Recherches en didactique des mathématiques, vol. 9, n° 3, p. 407-425.

Rogalski Jeanine, Samurcay Rénan (1986). Les Problèmes cognitifs rencontrés par des élèves de l'enseignement secondaire dans l'apprentissage de l'informatique, Journal Européen de Psychologie de l'Éducation, vol. 1, n° 2, p. 97-110.

Romainville Marc (1988). Une analyse critique de l'initiation à l'informatique - Quels apprentissages et quels transferts ? In Actes du premier colloque de didactique de l'informatique, Paris : EPI.

SPECIF (2000). Société des Personnels Enseignants et Chercheurs en Informatique de France, Bulletin n° 46, novembre 2000.

Thèses de doctorat et rapports scientifiques

Gaubert-Macon Christine (2000). L'enseignement de mise à niveau informatique en classe de seconde : premiers repères, Mémoire de stage tutoré de DEA, ENS de Cachan, INRP, 28 p. + annexes, photocopié.

Girardot Colette (1997). Smalltalk, un jeu d'enfant... Les concepts spécifiques aux langages objets peuvent-ils servir de support à l'initiation à l'informatique chez les enfants de 8 à 11 ans, Thèse de l'université Denis Diderot, Paris VII, Didactique de l'informatique. Paris.

Greff Éric (1996). Le « jeu de l'enfant-robot » : une démarche et une réflexion en vue du développement de la pensée algorithmique chez les très jeunes enfants, Thèse-Université Pierre et Marie Curie, Paris VI, Paris, 317 p.

Harrari Michelle (2000). Informatique et enseignement élémentaire 1975-1996. Contribution à l'étude des enjeux et des acteurs, Thèse de doctorat de l'université Paris V - René Descartes, Sciences de l'éducation, sous la direction de Georges-Louis Baron, Paris, 347 p.

Komis Vassilis (1993). Les Nouvelles Technologies de l'Information et de la Communication dans le processus d'apprentissage et application par l'étude de leurs représentations chez des élèves de 9 à 12 ans, Thèse, Université Paris VII, Didactique de l'informatique, sous la direction de Bossuet, Gérard, Paris, 300 p.

Lagrange Jean-Baptiste (1991). Des situations connues aux traitements sur des données codifiées : Représentations mentales et processus d'acquisition dans les premiers apprentissages en informatique, Thèse-Université Paris VII, Paris, 229 p. + annexes.

Politis Panagiotis (1999). L'influence des divers médias d'un logiciel multimédia éducatif expérimental sur le processus de l'apprentissage de l'informatique initiale chez des étudiants de niveau d'IUT, Thèse de doctorat en didactique de l'informatique soutenue à l'Université Paris VII - Denis Diderot sous la direction de Raymond Durand, le 17/12/1999, Paris, 266 p.

NOTES

[1] Dictionnaire Robert historique de la langue française, édition 1994, p. 1025.

[2] Cf. Grossetti et Mounier-Kuhn (1995). Pour une histoire de l'informatique dans le milieu scientifique français.

[3] Bulletin officiel n° 25 du 24 juin 1999. Réforme des lycées - rentrée 1999, annexe III : la formation aux technologies d'information et de communication au lycée.

[4] En marge de la didactique de l'informatique, phénomène essentiellement francophone, de nombreux chercheurs (informaticiens et psychologues) dans le domaine de l'EIAO, ont tenté de mettre en place des environnements d'apprentissage de la programmation, pour des langages tels que PASCAL, LISP ou PROLOG.

___________________
Association EPI
Juillet 2007