Au-delà de l’espionnage technologique

Mise en données du monde, le déluge numérique

Amitiés, pensées, échanges, déplacements : la plupart des activités humaines donnent désormais lieu à une production massive de données numérisées. Leur collecte et leur analyse ouvrent des perspectives parfois enthousiasmantes qui aiguisent l’appétit des entreprises. Mais la mise en données du monde risque aussi de menacer les libertés, comme le montre le tentaculaire programme de surveillance conduit aux Etats-Unis.

par Kenneth Cukier et Viktor Mayer-Schönberger, juillet 2013

Au IIIe siècle avant notre ère, on disait de la bibliothèque d’Alexandrie qu’elle renfermait la totalité du savoir humain. De nos jours, la masse d’informations disponibles est telle que, si on la répartissait entre tous les Terriens, chacun en recevrait une quantité trois cent vingt fois supérieure à la collection d’Alexandrie : en tout, mille deux cents exaoctets (milliards de milliards d’octets). Si on enregistrait le tout sur des CD, ceux-ci formeraient cinq piles capables chacune de relier la Terre à la Lune.

L’hyperinflation des données est un phénomène relativement nouveau. En 2000, un quart seulement des informations consignées dans le monde existaient au format numérique. Papier, film et support analogique se partageaient tout le reste. Du fait de l’explosion des fichiers — leur volume double tous les trois ans —, la situation s’est renversée dans des proportions inouïes. En 2013, le numérique représente plus de 98 % du total. Les Anglo-Saxons ont forgé un terme pour désigner cette masse devenue si gigantesque qu’elle menace d’échapper au contrôle des gouvernants et des citoyens : les big data, ou données de masse.

Devant leur démesure, il est tentant de ne les appréhender qu’en termes de chiffres. Mais ce serait méconnaître le cœur du phénomène : l’immense gisement de données numériques découle de la capacité à paramétrer des aspects du monde et de la vie humaine qui n’avaient encore jamais été quantifiés. On peut qualifier ce processus de « mise en données » (datafication). Par exemple, la localisation d’un lieu ou d’une personne a d’abord été mise en données une première fois par le croisement de la longitude et de la latitude, puis par le procédé satellitaire et numérique du Global Positioning System (GPS). A travers Facebook, même les goûts personnels, les relations amicales et les « j’aime » se changent en données gravées dans la mémoire virtuelle. Il n’est pas jusqu’aux mots qui ne soient eux aussi traités comme des éléments d’information depuis que les ordinateurs explorent des siècles de littérature mondiale numérisée.

Les bases ainsi constituées se prêtent à toutes sortes d’usages étonnants, rendus possibles par une mémoire informatique de moins en moins coûteuse, des processeurs toujours plus puissants, des algorithmes toujours plus sophistiqués, ainsi que par le maniement de principes de base du calcul statistique. Au lieu d’apprendre à un ordinateur à exécuter une action, comme conduire une voiture ou traduire un texte — objectif sur lequel des cohortes d’experts en intelligence artificielle se sont cassé les dents durant des décennies —, la nouvelle approche consiste à le gaver d’une quantité d’informations suffisante pour qu’il déduise la probabilité qu’un feu de circulation soit vert plutôt que rouge à chaque instant, ou dans quel contexte on traduira le mot anglais light par « lumière » plutôt que par « léger ».

Pareil usage suppose trois changements majeurs dans notre approche. Le premier consiste à recueillir et à utiliser le plus grand nombre possible d’informations plutôt que d’opérer un tri sélectif comme le font les statisticiens depuis plus d’un siècle. Le deuxième implique une certaine tolérance à l’égard du désordre : mouliner des données innombrables, mais de qualité inégale, s’avère souvent plus efficace qu’exploiter un petit échantillon impeccablement pertinent. Enfin, le troisième changement implique que, dans de nombreux cas, il faudra renoncer à identifier les causes et se contenter de corrélations. Au lieu de chercher à comprendre précisément pourquoi une machine ne fonctionne plus, les chercheurs peuvent collecter et analyser des quantités massives d’informations relatives à cet événement et à tout ce qui lui est associé afin de repérer des régularités et d’établir dans quelles circonstances la machine risque de retomber en panne. Ils peuvent trouver une réponse au « comment », non au « pourquoi » ; et, bien souvent, cela suffit.

Google et l’algorithme de la grippe

De même qu’Internet a bouleversé les modes de communication entre individus, la manière dont la société traite l’information se trouve radicalement transformée. Au fur et à mesure que nous exploitons ces gisements pour élucider des faits ou prendre des décisions, nous découvrons que, à bien des égards, nos existences relèvent de probabilités davantage que de certitudes.

Ce changement d’approche à l’égard des données numériques — exhaustives et non plus échantillonnées, désordonnées et non plus méthodiques — explique le glissement de la causalité vers la corrélation. On s’intéresse moins aux raisons profondes qui président à la marche du monde qu’aux associations susceptibles de relier entre eux des phénomènes disparates. L’objectif n’est plus de comprendre les choses, mais d’obtenir une efficacité maximale.

Prenons l’exemple de United Parcel Service (UPS), la plus grande compagnie mondiale de livraison. Elle a installé des capteurs sur certaines pièces de ses véhicules pour identifier les problèmes de surchauffe ou de vibration corrélés aux défaillances que ces pièces ont présentées par le passé. En procédant ainsi, elle peut anticiper la panne et remplacer les pièces défectueuses au garage plutôt que sur le bord de la route. Les données n’identifient pas le lien de causalité entre augmentation de la température et dysfonctionnement de la pièce ; elles ne diagnostiquent pas la source du problème. En revanche, elles indiquent à UPS la marche à suivre pour prévenir des incidents coûteux.

La même approche peut s’appliquer aux défaillances de la machinerie humaine. Au Canada, des chercheurs ont ainsi trouvé le moyen de localiser les infections chez les bébés prématurés avant que les symptômes visibles n’apparaissent. En créant un flux de plus de mille données par seconde, combinant seize indicateurs, parmi lesquels le pouls, la tension, la respiration et le niveau d’oxygène dans le sang, ils sont parvenus à établir des corrélations entre des dérèglements mineurs et des maux plus sérieux. Cette technique devrait permettre aux médecins d’intervenir en amont pour sauver des vies. Au fil du temps, l’enregistrement de ces observations pourrait également les aider à mieux comprendre ce qui provoque de telles infections. Cependant, lorsque la vie d’un nourrisson est en jeu, il est plus utile d’anticiper ce qui pourrait se produire que de savoir pourquoi.

L’application médicale illustre bien cette possibilité d’identifier des corrélations, même lorsque les causes qui les sous-tendent demeurent obscures. En 2009, des analystes de Google ont publié dans la revue Nature un article qui a fait sensation dans les milieux médicaux (1). Ses auteurs affirmaient qu’il était possible de repérer les foyers de grippe saisonnière à partir des archives du géant de l’Internet. Celui-ci gère pas moins d’un milliard de requêtes par jour sur le seul territoire américain, et conserve scrupuleusement trace de chacune de ces opérations. Il a sélectionné les cinquante millions de termes les plus fréquemment saisis sur son moteur de recherche entre 2003 et 2008, puis les a croisés avec le fichier de la grippe des centres pour le contrôle et la prévention des maladies (Centers for Disease Control and Prevention, CDC). Objectif : découvrir si la récurrence de certains mots-clés coïncidait avec les apparitions du virus ; en d’autres termes, évaluer la possible corrélation entre la fréquence de certaines recherches sur Google et les pics statistiques enregistrés par les CDC sur une même zone géographique. Ceux-ci recensent notamment les consultations hospitalières des malades de la grippe à travers tout le pays, mais ces chiffres brossent un tableau souvent en décalage d’une semaine ou deux : une éternité dans le contexte d’une pandémie. Google, lui, peut fournir des statistiques en temps réel.

La société ne disposait d’aucun élément pour deviner quels mots-clés pouvaient fournir une indication probante. Elle s’est contentée de soumettre tous ses échantillons à un algorithme conçu pour calculer leur corrélation avec les attaques du virus. Son système a ensuite combiné les termes retenus pour tenter d’obtenir le modèle le plus fiable. Après cinq cents millions d’opérations de calcul, Google est parvenu à identifier quarante-cinq mots-clés — comme « mal de tête » ou « nez qui coule » — dont la réitération recoupait les statistiques des CDC. Plus leur fréquence était grande sur une zone donnée, plus le virus faisait de ravages sur ce même périmètre. La conclusion peut paraître évidente mais, à raison d’un milliard de recherches par jour, il aurait été impossible de l’établir par d’autres moyens.

Les informations traitées par Google étaient pourtant imparfaites. Dans la mesure où elles avaient été saisies et stockées à bien d’autres fins que l’altruisme sanitaire, fautes de frappe et phrases incomplètes pullulaient. Mais la taille colossale de la banque de données a largement compensé sa nature brouillonne. Ce qui en ressort n’est qu’une simple corrélation. Elle ne livre aucun indice sur les raisons qui ont poussé l’internaute à effectuer sa recherche. Etait-ce parce qu’il avait la fièvre lui-même, parce qu’on lui avait éternué au visage dans le métro, ou encore parce que le journal télévisé l’avait rendu anxieux ? Google n’en sait rien, et peu lui chaut. Il semble d’ailleurs qu’en décembre dernier son système ait surestimé le nombre de cas de grippe aux Etats-Unis. Les prévisions ne sont que des probabilités, jamais des certitudes, surtout lorsque la matière qui les alimente — des recherches sur Internet — est de nature aussi mouvante et vulnérable aux influences, en particulier médiatiques. Reste que les données de masse peuvent identifier des phénomènes en cours.

Nombre de spécialistes assurent que leur utilisation remonte à la révolution numérique des années 1980, lorsque la montée en puissance des microprocesseurs et de la mémoire informatique a rendu possibles le stockage et l’analyse de données toujours plus pléthoriques. Ce n’est vrai qu’en partie. Les progrès technologiques et l’irruption d’Internet ont certes contribué à réduire les coûts de la collecte, du stockage, du traitement et du partage des informations. Mais les données de masse constituent surtout la dernière manifestation en date de l’irrépressible désir humain de comprendre et de quantifier le monde. Pour sonder la signification de cette étape nouvelle, il faut jeter un regard de côté — ou plutôt, vers le bas.

Koshimizu Shigeomi est professeur à l’Institut avancé de technologie industrielle de Tokyo. Sa spécialité consiste à étudier la manière dont ses contemporains se tiennent assis. C’est un champ d’études peu fréquenté, et pourtant riche d’enseignements. Lorsqu’un individu pose son postérieur sur un support quelconque, sa posture, ses contours et la distribution de sa masse corporelle constituent autant d’informations quantifiables et analysables. Grâce à des capteurs placés sur un siège d’automobile, Koshimizu et son équipe d’ingénieurs ont mesuré la pression exercée par le fessier du conducteur sur un réseau de trois cent soixante points, chacun indexé sur une échelle de zéro à deux cent cinquante-six. Les données ainsi recueillies permettent de composer un code numérique propre à chaque être humain. Un test a démontré que son système permettait d’identifier une personne avec une précision de 98 %.

Ces travaux sont moins saugrenus qu’il n’y paraît. L’objectif de Koshimizu est de trouver une application industrielle pour sa découverte, par exemple un système antivol pour l’industrie automobile. Une voiture équipée de ces capteurs fessiers pourrait reconnaître son propriétaire et exiger de tout autre conducteur un mot de passe avant de démarrer. La transformation d’une paire de fesses en un bouquet de données numériques représente un service appréciable et une affaire potentiellement lucrative. Elle pourrait d’ailleurs servir à d’autres fins que la protection du droit de propriété sur un véhicule : par exemple éclairer le lien entre la posture de l’automobiliste et la sécurité routière, entre sa gestuelle au volant et le risque qu’il provoque un accident. Les capteurs pourraient aussi déclencher une alerte ou un freinage automatique lorsque le conducteur s’assoupit au volant.

Prévention des incendies à New York

Koshimizu s’est emparé d’un objet qui n’avait encore jamais été traité comme une donnée, ni même perçu comme recelant le moindre intérêt en termes d’information, pour le convertir en un format numériquement quantifié. La mise en données désigne autre chose que la numérisation, laquelle consiste à traduire un contenu analogique — texte, film, photographie — en une séquence de 1 et de 0 lisible par un ordinateur. Elle se réfère à une action bien plus vaste, et aux implications encore insoupçonnées : numériser non plus des documents, mais tous les aspects de la vie. Les lunettes élaborées par Google — équipées d’une caméra, d’un micro et connectées à Internet — changent notre regard en données ; Twitter met en données nos pensées ; LinkedIn fait de même avec nos relations professionnelles.

A partir du moment où une chose subit ce traitement, il est possible de changer son usage et de transformer l’information qu’elle recèle en une nouvelle forme de valeur. IBM, par exemple, a obtenu en 2012 un brevet pour la « sécurisation de bureaux par une technologie informatique de surface » : une formule savamment absconse pour désigner un revêtement de sol équipé de récepteurs, à la manière d’un écran de smartphone que l’on actionnerait avec les pieds. La mise en données du sol ouvre toutes sortes de perspectives. Votre plancher pourrait réagir à votre présence, déclencher l’allumage de la lumière lorsque vous rentrez chez vous, identifier un visiteur à partir de son poids ou de sa manière de bouger. Il pourrait sonner l’alarme lorsque quelqu’un fait une chute et ne se relève pas — une application susceptible d’intéresser les personnes âgées. Les commerçants pourraient suivre le cheminement de leurs clients dans leur boutique. A mesure que toute activité humaine devient enregistrable et exploitable, on en apprend davantage sur le monde. On apprend ce qu’on n’aurait jamais pu apprendre auparavant, faute d’outils commodes et accessibles pour le mesurer.

M. Michael Bloomberg a fait fortune dans l’industrie des données numériques. Il n’est donc pas étonnant que la ville de New York, dont il est le maire, les utilise pour renforcer l’efficacité des services publics et, surtout, pour en diminuer le coût. La stratégie de prévention de la ville contre les incendies fournit un bon exemple de cette démarche.

Les immeubles illégalement sous-divisés en parts locatives présentent plus de risques que les autres de partir en flammes. New York enregistre chaque année vingt-cinq mille plaintes pour des bâtisses surpeuplées, mais ne compte que deux cents inspecteurs pour y répondre. A la mairie, une petite équipe d’analystes s’est penchée sur le problème. Afin d’atténuer le déséquilibre entre besoins et ressources, elle a créé une banque de données recensant les neuf cent mille bâtiments de la ville, complétée par les indicateurs de dix-neuf agences municipales : liste des exemptions fiscales, utilisation irrégulière des équipements, coupures d’eau ou d’électricité, loyers impayés, rotations d’ambulances, taux de délinquance, présence de rongeurs, etc. Les analystes ont ensuite tenté de dresser des correspondances entre cette avalanche d’informations et les statistiques relatives aux incendies survenus en ville au cours des cinq années précédentes. Sans surprise, ils ont établi que le type de bâtiment et sa date de construction jouaient un rôle important dans son exposition aux incendies. Plus inattendue a été la découverte que les immeubles ayant obtenu un permis pour des travaux de ravalement extérieurs présentaient nettement moins de risques d’incendie.

Le croisement de ces données a permis à l’équipe municipale d’élaborer un schéma susceptible de déterminer les critères en fonction desquels une plainte pour surpopulation nécessitait une attention particulière. Aucune des caractéristiques retenues par les analystes ne peut être considérée en soi comme une cause d’incendie ; mises bout à bout, elles sont pourtant étroitement corrélées avec un risque accru de départ de feu. Cette trouvaille a fait la joie des inspecteurs new-yorkais : alors que, par le passé, 13 % seulement de leurs visites donnaient lieu à un ordre d’évacuation, la proportion a grimpé à 70 % après l’adoption de la nouvelle méthode.

Les données de masse peuvent aussi contribuer à plus de transparence dans la vie démocratique. Un vaste mouvement s’est formé autour de la revendication d’ouverture des données publiques (open data), laquelle va au-delà d’une simple défense de la liberté d’information. Il s’agit de faire pression sur les gouvernements pour qu’ils rendent accessibles à tous les montagnes de données qu’ils ont accumulées — du moins celles qui ne relèvent pas du secret d’Etat. Les Etats-Unis se montrent plutôt en pointe dans ce domaine, avec la mise en ligne des archives de l’administration fédérale (expurgées de leurs éléments sensibles) sur le site Data.gov. D’autres pays leur emboîtent le pas.

A mesure que les Etats promeuvent l’utilisation des données de masse, une nécessité se fait jour : la protection des citoyens contre la prédominance de certains acteurs du marché. Des compagnies comme Google, Amazon ou Facebook — auxquelles il faut ajouter le milieu plus discret mais non moins redoutable des « courtiers de données », comme Acxiom ou Experian — amassent jour après jour des quantités colossales d’informations sur n’importe qui et n’importe quoi. Il existe des lois qui interdisent la constitution de monopoles dans l’industrie des biens et des services, tels que les logiciels ou les médias. Cet encadrement porte sur des secteurs relativement faciles à évaluer. Mais comment appliquer la législation antimonopoles à un marché aussi insaisissable et mutant ? Une menace pèse donc sur les libertés individuelles. Et ce d’autant plus que plus les données s’amassent, plus leur utilisation sans le consentement des personnes qu’elles concernent devient probable. Une difficulté que le législateur et la technologie paraissent incapables de résoudre.

Les tentatives pour mettre en place une forme de régulation du marché pourraient conduire à une foire d’empoigne sur la scène internationale. Les gouvernements européens ont commencé à réclamer des comptes à Google, dont la position dominante et le mépris pour la vie privée suscitent une certaine inquiétude, un peu à l’image de la société Microsoft, qui s’était attiré les foudres de la Commission européenne il y a dix ans. Facebook aussi pourrait se retrouver dans le collimateur judiciaire de plusieurs pays, en raison de la quantité astronomique de données qu’il détient sur ses usagers. La question de savoir si les flux d’informations doivent bénéficier des lois encadrant le libre-échange laisse augurer quelques âpres batailles entre diplomates. Si la Chine persiste à censurer l’utilisation des moteurs de recherche sur Internet, on peut imaginer qu’elle soit un jour ou l’autre poursuivie par une juridiction internationale, non seulement pour violation de la liberté d’expression, mais aussi, et peut-être surtout, en raison des entraves qu’elle impose au commerce.

En attendant que les Etats apprennent à considérer les libertés individuelles comme un bien digne d’être protégé, l’industrie des données de masse réactualise en toute quiétude la figure de Big Brother. En juin 2013, les journaux du monde entier ont révélé que M. Edward Snowden avait rendu publiques des informations concernant les activités de surveillance de son employeur : la National Security Agency (NSA), principale agence de renseignement américaine. Outre les télécommunications, étaient concernés les requêtes sur les moteurs de recherche, les messages publiés sur Facebook, les conversations sur Skype, etc. Les autorités américaines ont expliqué que les données, collectées avec l’aval de la justice, ne concernaient que des individus « suspects ». Mais, comme toutes les activités de la NSA demeurent secrètes, nul n’est en mesure de le vérifier.

L’affaire Snowden souligne le pouvoir des Etats dans le domaine des données. Les collecteurs-exploitants de données numériques menacent en effet de générer une nouvelle forme de totalitarisme, pas si éloignée des sombres fantaisies de la science-fiction. Sorti en 2002, le film Minority Report, adapté d’une nouvelle de Philip K. Dick, imagine la dystopie d’un monde futur régi par la religion de la prédiction. Le héros, interprété par Tom Cruise, dirige une unité de police capable d’arrêter l’auteur d’un crime avant même que celui-ci soit commis. Pour savoir où, quand et comment ils doivent intervenir, les policiers recourent à d’étranges créatures dotées d’une clairvoyance supposée infaillible. L’intrigue met au jour les erreurs d’un tel système et, pis encore, sa négation du principe même de libre arbitre.

Identifier des criminels qui ne le sont pas encore : l’idée paraît loufoque. Grâce aux données de masse, elle est désormais prise au sérieux dans les plus hautes sphères du pouvoir. En 2007, le département de la sécurité intérieure — sorte de ministère de l’antiterrorisme créé en 2003 par M. George W. Bush — a lancé un projet de recherche destiné à identifier les « terroristes potentiels », innocents aujourd’hui mais à coup sûr coupables demain. Baptisé « technologie de dépistage des attributs futurs » (Future Attribute Screening Technology, FAST), le programme consiste à analyser tous les éléments relatifs au comportement du sujet, à son langage corporel, à ses particularités physiologiques, etc. Les devins d’aujourd’hui ne lisent plus dans le marc de café, mais dans les logiciels de traitement des données (2). Dans nombre de grandes villes, telles que Los Angeles, Memphis, Richmond ou Santa Cruz, les forces de l’ordre ont adopté des logiciels de « sécurisation prédictive », capables de traiter les informations sur des crimes passés pour établir où et quand les prochains pourraient se produire. Pour l’instant, ces systèmes ne permettent pas d’identifier des suspects. Mais il ne serait pas surprenant qu’ils y parviennent un jour.

Redécouvrir les vertus de l’imprévisibilité

Il arrive cependant que les dirigeants américains se mordent les doigts d’avoir tout misé sur l’infaillibilité des chiffres. Ministre de la défense sous les présidences de John Kennedy et de Lyndon Johnson, Robert McNamara ne jurait que par les statistiques pour mesurer les exploits de ses troupes au Vietnam (lire « Tout savoir sans rien connaître »). Avec son équipe, il scrutait la courbe du nombre d’ennemis éliminés. Transmis aux commandants à titre de réprimande ou d’encouragement, diffusé quotidiennement dans les journaux, le comptage des Vietcongs morts devint la donnée cardinale d’une stratégie et le symbole d’une époque. Aux partisans de la guerre, il donnait l’assurance que la victoire était proche. Aux opposants, il apportait la preuve que la guerre était une infamie. Mais les chiffres étaient souvent erronés et sans rapport avec la réalité du terrain. On ne peut que se réjouir lorsque l’interprétation des données améliore les conditions de vie de nos contemporains, mais elle ne devrait pas conduire à remiser son sens commun…

A l’avenir, c’est par elle que va passer toujours davantage, pour le meilleur ou pour le pire, la gestion des grands problèmes planétaires. Lutter contre le réchauffement climatique, par exemple, impose de réunir toutes les informations disponibles sur les phénomènes de pollution, afin de localiser les zones où intervenir en priorité. En disposant des capteurs tout autour de la planète, y compris dans les smartphones de millions d’usagers, on permet aux climatologues d’échafauder des modèles plus fiables et plus précis.

Mais, dans un monde où les données de masse orientent de plus en plus étroitement les pratiques et les décisions des puissants, quelle place restera-t-il au commun des mortels, aux réfractaires à la tyrannie numérique ou à quiconque marche à contre-courant ? Si le culte des outils technologiques s’impose à chacun, il se peut que, par contrecoup, l’humanité redécouvre les vertus de l’imprévisibilité : l’instinct, la prise de risques, l’accident et même l’erreur. Pourrait alors se faire jour la nécessité de préserver un espace où l’intuition, le bon sens, le défi à la logique, les hasards de la vie et tout ce qui compose la substance humaine tiendront tête aux calculs des ordinateurs.

De la fonction attribuée aux données de masse dépend la survie de la notion de progrès. Elles facilitent l’expérimentation et l’exploration, mais elles se taisent quand apparaît l’étincelle de l’invention. Si Henry Ford avait interrogé des algorithmes informatiques pour évaluer les attentes des consommateurs, ils lui auraient probablement répondu : « Des chevaux plus rapides. »

Kenneth Cukier et Viktor Mayer-Schönberger

Respectivement journaliste et professeur à l’université d’Oxford, auteurs de Big Data : A Revolution That Will Transform How We Live, Work, and Think, Houghton Mifflin Harcourt, Boston, 2013.

http://www.monde-diplomatique.fr/2013/07/CUKIER/49318

Publicités

The Internet’s Own Boy

 

Téléchargement, Culture par Olivier Ertzscheid

Le téléchargement illégal est positif et Aurélie Filippetti n’y a rien compris

http://www.slate.fr/tribune/73707/redlist-telechargement

Damon Albarn au festival Days Off

#edition 2014

http://concert.arte.tv/fr/damon-albarn-au-festival-days

 

Two Bunnies in Love – Duchesse

 

La médiation : principale fonction de l’enseignant ?

Et si demain, on n’avait plus besoin de professeurs ? Si, grâce au numérique, les élèves pouvaient tout apprendre par eux-mêmes, réduisant le rôle du maître à celui de répétiteur ou de tuteur ? Alors que les Mooc – cours massifs en ligne – déferlent en France, le monde de l’éducation est parcouru par un débat. Emmanuel Davidenkoff, le directeur du magazine l’Etudiant, explique dans son livre le Tsunami numérique (1) comment celui-ci va secouer l’école française, bien en retard selon lui. Le philosophe Marcel Gauchet, qui vient de cosigner un ouvrage Transmettre, Apprendre (2), reconnaît, lui, que le numérique bouleverse profondément l’enseignement. Mais à rebours de ce que l’on entend souvent, il prédit que l’on aura plus que jamais besoin de professeurs et d’école.

Peut-on continuer à enseigner aujourd’hui comme hier ?

Sûrement pas. Contrairement à ce que l’on dit souvent, l’école est une institution qui a un facteur de changement en son sein : les élèves. Le mythe de l’école à l’abri de la société, fonctionnant comme un temple ou une caserne, est une pure fiction. Cela n’a jamais été. Les enseignants, qui ne sont pas des brutes insensibles, s’adaptent aux élèves et aux influences de la société qu’ils incarnent.

Indépendamment des directives venues d’en haut, ce sont eux qui sont à la manœuvre. Chacun trouve des façons de capter la culture des élèves pour l’enrichir, l’infléchir, s’y appuyer pour permettre des acquisitions d’une autre nature. Il ne faut pas l’oublier : la base de l’enseignement, c’est la conversation. Une conversation très particulière, parce qu’elle n’est pas gratuite et qu’elle doit mener quelque part. Globalement, le changement technique est tel qu’il affecte le fonctionnement social de tous les jours. Il est inévitable qu’il touche aussi l’école et qu’il la transforme profondément.

Dès lors, comment enseigner ?

Il serait outrecuidant et vain de prétendre que nous savons exactement ce que vont être les échanges entre enseignants et élèves de demain. Mais on peut faire un certain nombre d’observations. Une chose qui revient toujours, en particulier chez les partisans les plus enthousiastes de l’enseignement numérique, est le fait que les élèves sont maintenant en situation de contester l’enseignement du professeur. Ces enthousiastes disent : cette fois-ci, le piédestal est complètement brisé puisqu’on peut instantanément vérifier ce que raconte le prof.

Etes-vous d’accord ?

Je reconnais que c’est vrai. Mais je n’y vois pas du tout une contestation de la position du professeur supposé tout-puissant et tout savoir. Je crois exactement l’inverse. Pour les bons enseignants, le numérique m’apparaît comme un excellent moyen de stimuler l’esprit de curiosité et d’opposition. Cela pousse à chercher, à creuser encore. Très souvent, c’est l’occasion aussi de rectifier les sornettes, voire les énormités figurant dans une notice de Wikipédia.

Surtout, cela apprend une chose essentielle : le fait que personne ne sait. Nulle part, il n’existe un détenteur ultime. L’enseignant a ainsi l’opportunité d’expliquer qu’il existe plusieurs versions d’une même chose et que savoir, c’est se confronter à l’incertitude et non réciter bêtement. C’est un apprentissage qui me paraît extrêmement positif.

N’est-ce pas tout de même plus difficile ?

Le changement majeur est que les élèves ont de plus en plus l’initiative. En contact avec un tas de sources hétéroclites, ils s’interrogent. Leurs questions deviennent déterminantes dans la conduite de la classe – «J’ai lu ça, monsieur, qu’en dites-vous ?», «Ça vous paraît normal ?», etc. Ce n’est évidemment pas simple à gérer. L’enseignant a affaire à une communauté beaucoup plus effervescente mais aussi beaucoup plus chaotique. L’art du professeur devient l’art difficile de répondre à des questions qui ne sont pas préprogrammées – parfois en rapport avec le cours, d’autres fois non, ou de loin.

Les enseignants se retrouvent dans la position de remettre de l’ordre dans du désordre. Il leur revient d’insuffler de la cohérence dans ce qui se présente comme un patchwork d’interrogations qui peuvent aller très loin – sur les théories scientifiques en vogue mais aussi sur les ragots propagés par les réseaux sociaux. Il faut leur montrer le besoin de clés pour dominer un champ qui part dans tous les sens.

Contrairement à ce que certains prédisent, il faudra toujours des enseignants ?

Plus que jamais. L’illusion de premier abord est l’autodidaxie généralisée : plus la peine de s’embêter avec des gens qui souhaitent nous mettre dans un chemin préprogrammé, apprend qui veut quand il veut comme il veut… Mais c’est une apparence, une apparence séduisante. En réalité, tout cela renforce le besoin de médiation. Le contact des enfants, souvent très jeunes, avec des sources d’information démesurées, renforce le besoin d’enseignants, d’interlocuteurs qui prennent leur questionnement au sérieux, capables dans leur domaine de montrer le chemin permettant de maîtriser ces informations. Il suffit d’être parent ou grand-parent pour en avoir fait l’expérience. Vous dites à des enfants qui vous interrogent : «Allez chercher sur le Net.» Ils trouvent quelquefois, quand la question est très précise. Mais si c’est une question de compréhension, ils reviennent découragés. Internet est, de ce point de vue, un média déprimant, où l’on décèle très vite les limites de ce que l’on peut maîtriser. Ce qui manque, ce sont les outils logiques, les connaissances clés qui permettent de relier ces informations et d’en faire quelque chose que vous comprenez. Le sens de l’école se trouve ainsi conforté dans ce qu’il a de plus profond : c’est l’institution de confiance à laquelle on peut demander des réponses à des questions de l’ordre du savoir. A l’exception de milieux privilégiés, l’entourage n’en a pas les moyens.

Vous n’êtes pas d’accord avec ceux qui prédisent que grâce au Net, nous apprendrons surtout par nous-mêmes ?

L’ère numérique va susciter une hausse spectaculaire du niveau d’exigence scolaire dans nos sociétés. Tout le monde a envie d’accéder au plus de choses possibles dans la sphère de ses intérêts. C’est humain. Mais en même temps, nous sommes démunis. Derrière les connaissances que l’on peut acquérir de cette façon, il y a une grammaire fondamentale – les maths par exemple pour tout ce qui touche au domaine des sciences. Et celle-ci ne s’apprend pas aisément tout seul face à son écran…

Que pensez-vous de la «pédagogie inversée» en vogue aujourd’hui, avec l’élève qui découvre le cours sur le Net, puis le prof qui lui explique ce qu’il n’a pas compris ?

Ici c’est l’image idéale de l’étudiant de Stanford [l’une des universités américaines les plus réputées, située dans la Silicon Valley, ndlr]. Il étudie chez lui le cours de programmation et vient après en classe pour clarifier avec le prof ce qu’il n’a pas réussi à maîtriser. Il s’agit d’un cas très privilégié. Cela suppose une personne possédant toutes les acquisitions fondamentales et qui accepte de jouer le jeu. Il fait confiance au prof qui lui a remis son cours au préalable et qu’il peut compléter en consultant d’autres sources. Et même ici, il ne faut pas sous-estimer l’apport du professeur : ses éclaircissements, dans un deuxième temps, sont décisifs pour la compréhension. Quand vous descendez vers des degrés plus élémentaires, c’est bien plus difficile. Vous ne pouvez pas compter sur le fait que les élèves vont avoir la concentration et les moyens de s’approprier les documents que leur enseignant leur fournit. En réalité, on ne peut y couper : il y a nécessité à bien les encadrer.

Les élèves ont changé en bien, en mal ?

L’école aujourd’hui a d’abord un problème : l’attention des élèves. D’un côté, ils savent infiniment plus de choses qu’avant. D’un autre côté, que veut dire «savoir» dans leur cas ? Ils ont vu passer une foule d’informations disparates, ils ont entendu parler du boson de Higgs, ils ont une ouverture globale incroyable, ils ont voyagé, vu des tas de choses… Comme nous, ils nagent dans un bain d’informations hétéroclites.

L’école est irremplaçable ?

L’école ne fait plus rêver, elle a perdu la magie qu’elle avait dans une société constituée largement d’illettrés. Mais elle possède une utilité supplémentaire : dans ce bain d’informations gigantesque, elle est le lieu où l’on peut trouver le code, où toutes les questions peuvent être posées et l’on vous donne le cadre pour organiser tout cela. Elle assume une fonction unique dans la société.

Vous écrivez que l’école ne doit pas être à tout prix en phase avec les mutations. Serait-elle condamnée à être en retard ?

Elle doit maîtriser le rapport à la réalité environnante et la rendre maîtrisable pour les élèves. Face aux mutations, elle n’a pas à se précipiter. Elle doit garder la prudence qui sied à une institution dont le rôle est de maintenir la continuité avec le passé. Nous ne sommes pas nés d’hier. Il existe un stock gigantesque de passé. L’école fait le pont entre le nouveau qui se présente sans arrêt et les connaissances ou l’acquis – la date de la mort d’Alexandre le Grand reste par exemple la même. Par ailleurs, elle est une institution de masse égalitaire. Elle ne doit pas se focaliser sur ce qui se passe dans les endroits avancés de la société. Elle doit veiller à ce que tous les élèves soient à peu près à égalité sur la base d’un consensus collectif. Il faut que les parents comprennent ce que l’on fait à l’école et que chacun ait des chances aussi égales que possibles. L’école a ainsi une lourdeur naturelle. Ceci explique que par nature, elle soit d’arrière-garde alors qu’elle doit former des personnes d’avant-garde.

Le savoir numérique serait-il une grande illusion ?

Une société où les gens auraient une sorte d’accès de plain-pied aux connaissances est un rêve sympathique, mais c’est irréel et faux. C’est l’illusion de la toute-puissance individuelle – nous serions tous des self made men ou women et nous ne devrions rien aux autres… On retrouve la grande illusion de nos sociétés, que la technique permettrait presque de concrétiser. Or plus il y a toutes ces informations, plus il y a besoin de les maîtriser. Et plus il y a besoin de les maîtriser, plus l’école est nécessaire. Sinon, vous êtes un zombie avec des images plein la tête.

(1) Stock Essais, mars 2014, 200 pp., 18 €.

(2) Stock Essais, février 2014, 264 pp., 19 €.

Recueilli par Véronique Soulé

http://www.liberation.fr/societe/2014/06/06/internet-oblige-le-prof-a-remettre-de-l-ordre-dans-du-desordre_1035384

Rasim Biyikli / MAN – Trio de pianos. Aux Heures d’été 2012

Rasim a répondu à l’invitation avec gourmandise et culot puisqu’il a souhaité, pour cette création, inviter deux autres pianistes (rappelons-le, nous sommes dans la rue !). Et pour corser les choses, il choisit des musiciens issus de cultures musicales différentes ! Ainsi, il convie Or Solomon et Jean-Patrick Cosset pour un trio de pianos hors norme et inédit !
auxheuresete.com/programmation/salon-de-musique-de-rasim-biyikli/

Rasim Biyikli : compositions, piano // Or Solomon : piano // Jean-Patrick Cosset : piano
rasimbiyikli.com/
fr.myspace.com/orsolomon
fr.myspace.com/mixcityontrack