Archives de Catégorie: Information

Le numérique expliqué à Suzanne et à quelques autres…

Bon, je vais essayer de t’expliquer tout cela. Si tu ne comprends pas tout, ce n’est pas grave, dis-moi « Ah ! » comme tu le fais d’habitude, je recommencerai plus tard.

C’est parce qu’on entend ou lit tellement de sornettes sur le numérique, Suzanne ! Tout d’abord, ne te trompe pas de mots ! N’écoute en aucun cas ceux qui, curieusement encore nombreux, ne cessent, la bouche en cœur et le doigt dans l’œil, de nous parler de « digital » — les sots ne perçoivent même pas le ridicule accompli et monumental de l’anglicisme. Il existe aussi la catégorie de ceux qui prétendent ne pas savoir ce que c’est — « le numérique ? cela ne veut rien dire… », combien de fois a-t-on entendu cette affirmation péremptoire et dédaigneuse dans la bouche même de gens dont c’est justement le métier ? Il y a ceux enfin, toujours en retard d’un train, qui continuent à nier sa dimension paradigmatique en usant, pour en parler, d’autres vocables à la fois réducteurs, abscons et surannés…

Suzanne, je vais donc essayer de te dire ce que le numérique représente pour moi… ce qu’il porte d’espoirs pour toi. Te dire que c’est à la fois simple… et complexe. Je suis certain que tu es capable de comprendre.

Le numérique, c’est d’abord et surtout de l’humain !

Tu vas le comprendre aisément. Le numérique, vois-tu, ce sont des femmes et des hommes qui le mettent en œuvre, qui le vivent au quotidien, qui s’expriment, qui échangent et partagent, le plus souvent de pair à pair, dans des microcosmes multiples qui s’interpénètrent et desquels la figure classique des experts s’efface peu à peu. Ce sont des femmes et des hommes qui portent fièrement leurs opinions à la face du monde et ne craignent pas de les voir contredites ou censurées, même s’ils ont parfois à exercer à ce dernier sujet une grande vigilance. Le numérique, ce sont des valeurs et des attitudes nouvellement renforcées, celles du partage, de la connivence, de la collaboration, de l’amitié, du désir, de la responsabilité, de l’écoute de l’autre, de l’attention à ses préoccupations, de la tolérance… Ce sont encore des libertés, celles de l’expression et de l’opinion, de la création, du choix et des orientations, de nouvelles navigations possibles… Ce sont des droits et des devoirs, de la culture, de la raison enfin… Ah ! la raison !

Le numérique, c’est un nouveau modèle d’humanisme, citoyen, social et politique…

Contrairement à ce que pensent nombre des marchands et des politiques qui nous gouvernent et rêvent d’asservir les citoyens au seul profit de leurs idéologies dépassées, en faisant d’eux des usagers passifs, dociles et consommateurs, tu seras une citoyenne du numérique et de l’Internet, Suzanne, si tu fais confiance à tes parents et si le loup ne te mange pas. Oui, ma Suzanne préférée, tu seras une citoyenne engagée sur le réseau. Tu collaboreras à des projets pour le bien commun et public, au partage des connaissances et des savoirs. Tu t’engageras pour la défense de ces biens culturels communs en défendant comme il convient la création et les auteurs, artistes, plasticiens, écrivains, musiciens… dont tu seras, je l’espère, contre ceux qui abusent et profitent de leur travail.

Oui, Suzanne, en toute conscience et en toute raison, j’en suis certain, tu sauras protéger ta personne, en ce qu’elle a de plus intime, contre ceux qui tentent de l’asservir.

Suzanne

Le numérique, c’est aussi de la culture, la plus complète et transversale possible… pour te  permettre d’exercer ta citoyenneté.

C’est avec tes parents et à l’école que tu devras l’apprendre… Je fais pour cela entièrement confiance en les premiers mais l’école de la République, tu le sais, je t’en ai déjà parlé, tarde à prendre le grand virage… C’est si compliqué pour elle, comprends-la. Pourtant, à l’heure où elle se penche sur la réforme de ses programmes disciplinaires, à l’heure où elle réfléchit aux connaissances et aux compétences nécessaires à la formation d’un jeune citoyen, à la formation qu’elle te devra, Suzanne, il est temps pour elle d’intégrer dans tous les apprentissages la culture numérique transversale minimale et nécessaire. Cette culture numérique doit devenir objet d’enseignement, au-delà des peurs et des fantasmes qu’elle suscite à tort, au-delà des tensions qu’elle fait émerger, au-delà des archaïsmes qu’elle peut mettre en évidence, contre ceux à qui le mot de « culture » fait hérisser le poil.

C’est nécessaire, Suzanne, pour t’exercer à mieux comprendre plus tard et déchiffrer l’information et tous les codes et messages, en particulier ceux des médias, pour mieux éclairer ta réflexion sur le monde et ses évolutions, pour mieux comprendre les enjeux philosophiques, sociétaux, économiques aussi et surtout, pour tout ce qui touche la création des œuvres, quelles qu’elles soient.

C’est nécessaire aussi, Suzanne, pour faire de toi cette jeune citoyenne émancipée et engagée, je le répète, capable de s’adapter sans difficulté aux métiers de demain, dans quelque secteur professionnel que ce soit, dont personne — oui, personne, pas même les prospectivistes les plus pertinents — ne sait ce qu’ils seront !

Le numérique, c’est d’abord de l’humain et de la culture, mais aussi, bien sûr, des technologies, des sciences et de l’économie.

Le numérique croît des sciences qui le mettent en œuvre, dans un domaine multiple et complexe qui s’enrichit d’apports divers, des mathématiques et de l’informatique bien sûr, aux sciences de la communication, à l’algorithmique, la cybernétique, la robotique… et bien d’autres, jusqu’au design même sans oublier les champs nouveaux et vertigineux de l’organisation et du traitement des données. Le numérique, ce sont aussi des technologies sans cesse renouvelées, en perpétuelle évolution, merveilleuses et si prometteuses.

Et c’est aussi un enjeu économique considérable, pour l’emploi, pour le développement, disent les spécialistes. Je veux bien les croire.

Mais le numérique est transversal, définitivement transversal, il touche, éclaire et contribue à rapprocher chacune des disciplines d’enseignement, chacun des champs du savoir et de la culture. C’est bien ce qui embête ceux qui n’y comprennent goutte, ceux qui contribuent à confisquer le débat public au point de le rendre inintelligible, ceux dont j’ai dit qu’ils étaient les néo-obscurantistes de ce nouveau millénaire, ceux qui tentent de nous faire prendre des vessies pour des lanternes et, par exemple, l’enseignement du code — lequel, d’ailleurs ? — pour l’éducation au numérique.

C’est juste pitoyable… et si dérisoire.

Là, Suzanne, je sens que tu décroches  un peu ! As-tu mieux compris ce qu’est le numérique ? C’est déjà gentil de ta part de m’avoir écouté jusqu’au bout, alors que tu préfères d’habitude faire ta propre musique en frappant les touches de ce clavier virtuel, là, sur ma tablette… Rassure-toi, dans quelques mois, quand je te  reparlerai de tout cela, toute cette agitation aura disparu aussi vite qu’elle est venue et il ne restera plus à l’école et à la société qu’à se préoccuper de l’essentiel.

Et puis, Suzanne, bientôt, je te raconterai ce qu’en pensait Socrate. Sois patiente…

Michel Guillou @michelguillou

Naturaliste tombé dans le numérique et l’éducation aux médias… Observateur du numérique éducatif et des médias numériques. Consultant, conférencier. #ovei

http://www.culture-numerique.fr/

Au-delà de l’espionnage technologique

Mise en données du monde, le déluge numérique

Amitiés, pensées, échanges, déplacements : la plupart des activités humaines donnent désormais lieu à une production massive de données numérisées. Leur collecte et leur analyse ouvrent des perspectives parfois enthousiasmantes qui aiguisent l’appétit des entreprises. Mais la mise en données du monde risque aussi de menacer les libertés, comme le montre le tentaculaire programme de surveillance conduit aux Etats-Unis.

par Kenneth Cukier et Viktor Mayer-Schönberger, juillet 2013

Au IIIe siècle avant notre ère, on disait de la bibliothèque d’Alexandrie qu’elle renfermait la totalité du savoir humain. De nos jours, la masse d’informations disponibles est telle que, si on la répartissait entre tous les Terriens, chacun en recevrait une quantité trois cent vingt fois supérieure à la collection d’Alexandrie : en tout, mille deux cents exaoctets (milliards de milliards d’octets). Si on enregistrait le tout sur des CD, ceux-ci formeraient cinq piles capables chacune de relier la Terre à la Lune.

L’hyperinflation des données est un phénomène relativement nouveau. En 2000, un quart seulement des informations consignées dans le monde existaient au format numérique. Papier, film et support analogique se partageaient tout le reste. Du fait de l’explosion des fichiers — leur volume double tous les trois ans —, la situation s’est renversée dans des proportions inouïes. En 2013, le numérique représente plus de 98 % du total. Les Anglo-Saxons ont forgé un terme pour désigner cette masse devenue si gigantesque qu’elle menace d’échapper au contrôle des gouvernants et des citoyens : les big data, ou données de masse.

Devant leur démesure, il est tentant de ne les appréhender qu’en termes de chiffres. Mais ce serait méconnaître le cœur du phénomène : l’immense gisement de données numériques découle de la capacité à paramétrer des aspects du monde et de la vie humaine qui n’avaient encore jamais été quantifiés. On peut qualifier ce processus de « mise en données » (datafication). Par exemple, la localisation d’un lieu ou d’une personne a d’abord été mise en données une première fois par le croisement de la longitude et de la latitude, puis par le procédé satellitaire et numérique du Global Positioning System (GPS). A travers Facebook, même les goûts personnels, les relations amicales et les « j’aime » se changent en données gravées dans la mémoire virtuelle. Il n’est pas jusqu’aux mots qui ne soient eux aussi traités comme des éléments d’information depuis que les ordinateurs explorent des siècles de littérature mondiale numérisée.

Les bases ainsi constituées se prêtent à toutes sortes d’usages étonnants, rendus possibles par une mémoire informatique de moins en moins coûteuse, des processeurs toujours plus puissants, des algorithmes toujours plus sophistiqués, ainsi que par le maniement de principes de base du calcul statistique. Au lieu d’apprendre à un ordinateur à exécuter une action, comme conduire une voiture ou traduire un texte — objectif sur lequel des cohortes d’experts en intelligence artificielle se sont cassé les dents durant des décennies —, la nouvelle approche consiste à le gaver d’une quantité d’informations suffisante pour qu’il déduise la probabilité qu’un feu de circulation soit vert plutôt que rouge à chaque instant, ou dans quel contexte on traduira le mot anglais light par « lumière » plutôt que par « léger ».

Pareil usage suppose trois changements majeurs dans notre approche. Le premier consiste à recueillir et à utiliser le plus grand nombre possible d’informations plutôt que d’opérer un tri sélectif comme le font les statisticiens depuis plus d’un siècle. Le deuxième implique une certaine tolérance à l’égard du désordre : mouliner des données innombrables, mais de qualité inégale, s’avère souvent plus efficace qu’exploiter un petit échantillon impeccablement pertinent. Enfin, le troisième changement implique que, dans de nombreux cas, il faudra renoncer à identifier les causes et se contenter de corrélations. Au lieu de chercher à comprendre précisément pourquoi une machine ne fonctionne plus, les chercheurs peuvent collecter et analyser des quantités massives d’informations relatives à cet événement et à tout ce qui lui est associé afin de repérer des régularités et d’établir dans quelles circonstances la machine risque de retomber en panne. Ils peuvent trouver une réponse au « comment », non au « pourquoi » ; et, bien souvent, cela suffit.

Google et l’algorithme de la grippe

De même qu’Internet a bouleversé les modes de communication entre individus, la manière dont la société traite l’information se trouve radicalement transformée. Au fur et à mesure que nous exploitons ces gisements pour élucider des faits ou prendre des décisions, nous découvrons que, à bien des égards, nos existences relèvent de probabilités davantage que de certitudes.

Ce changement d’approche à l’égard des données numériques — exhaustives et non plus échantillonnées, désordonnées et non plus méthodiques — explique le glissement de la causalité vers la corrélation. On s’intéresse moins aux raisons profondes qui président à la marche du monde qu’aux associations susceptibles de relier entre eux des phénomènes disparates. L’objectif n’est plus de comprendre les choses, mais d’obtenir une efficacité maximale.

Prenons l’exemple de United Parcel Service (UPS), la plus grande compagnie mondiale de livraison. Elle a installé des capteurs sur certaines pièces de ses véhicules pour identifier les problèmes de surchauffe ou de vibration corrélés aux défaillances que ces pièces ont présentées par le passé. En procédant ainsi, elle peut anticiper la panne et remplacer les pièces défectueuses au garage plutôt que sur le bord de la route. Les données n’identifient pas le lien de causalité entre augmentation de la température et dysfonctionnement de la pièce ; elles ne diagnostiquent pas la source du problème. En revanche, elles indiquent à UPS la marche à suivre pour prévenir des incidents coûteux.

La même approche peut s’appliquer aux défaillances de la machinerie humaine. Au Canada, des chercheurs ont ainsi trouvé le moyen de localiser les infections chez les bébés prématurés avant que les symptômes visibles n’apparaissent. En créant un flux de plus de mille données par seconde, combinant seize indicateurs, parmi lesquels le pouls, la tension, la respiration et le niveau d’oxygène dans le sang, ils sont parvenus à établir des corrélations entre des dérèglements mineurs et des maux plus sérieux. Cette technique devrait permettre aux médecins d’intervenir en amont pour sauver des vies. Au fil du temps, l’enregistrement de ces observations pourrait également les aider à mieux comprendre ce qui provoque de telles infections. Cependant, lorsque la vie d’un nourrisson est en jeu, il est plus utile d’anticiper ce qui pourrait se produire que de savoir pourquoi.

L’application médicale illustre bien cette possibilité d’identifier des corrélations, même lorsque les causes qui les sous-tendent demeurent obscures. En 2009, des analystes de Google ont publié dans la revue Nature un article qui a fait sensation dans les milieux médicaux (1). Ses auteurs affirmaient qu’il était possible de repérer les foyers de grippe saisonnière à partir des archives du géant de l’Internet. Celui-ci gère pas moins d’un milliard de requêtes par jour sur le seul territoire américain, et conserve scrupuleusement trace de chacune de ces opérations. Il a sélectionné les cinquante millions de termes les plus fréquemment saisis sur son moteur de recherche entre 2003 et 2008, puis les a croisés avec le fichier de la grippe des centres pour le contrôle et la prévention des maladies (Centers for Disease Control and Prevention, CDC). Objectif : découvrir si la récurrence de certains mots-clés coïncidait avec les apparitions du virus ; en d’autres termes, évaluer la possible corrélation entre la fréquence de certaines recherches sur Google et les pics statistiques enregistrés par les CDC sur une même zone géographique. Ceux-ci recensent notamment les consultations hospitalières des malades de la grippe à travers tout le pays, mais ces chiffres brossent un tableau souvent en décalage d’une semaine ou deux : une éternité dans le contexte d’une pandémie. Google, lui, peut fournir des statistiques en temps réel.

La société ne disposait d’aucun élément pour deviner quels mots-clés pouvaient fournir une indication probante. Elle s’est contentée de soumettre tous ses échantillons à un algorithme conçu pour calculer leur corrélation avec les attaques du virus. Son système a ensuite combiné les termes retenus pour tenter d’obtenir le modèle le plus fiable. Après cinq cents millions d’opérations de calcul, Google est parvenu à identifier quarante-cinq mots-clés — comme « mal de tête » ou « nez qui coule » — dont la réitération recoupait les statistiques des CDC. Plus leur fréquence était grande sur une zone donnée, plus le virus faisait de ravages sur ce même périmètre. La conclusion peut paraître évidente mais, à raison d’un milliard de recherches par jour, il aurait été impossible de l’établir par d’autres moyens.

Les informations traitées par Google étaient pourtant imparfaites. Dans la mesure où elles avaient été saisies et stockées à bien d’autres fins que l’altruisme sanitaire, fautes de frappe et phrases incomplètes pullulaient. Mais la taille colossale de la banque de données a largement compensé sa nature brouillonne. Ce qui en ressort n’est qu’une simple corrélation. Elle ne livre aucun indice sur les raisons qui ont poussé l’internaute à effectuer sa recherche. Etait-ce parce qu’il avait la fièvre lui-même, parce qu’on lui avait éternué au visage dans le métro, ou encore parce que le journal télévisé l’avait rendu anxieux ? Google n’en sait rien, et peu lui chaut. Il semble d’ailleurs qu’en décembre dernier son système ait surestimé le nombre de cas de grippe aux Etats-Unis. Les prévisions ne sont que des probabilités, jamais des certitudes, surtout lorsque la matière qui les alimente — des recherches sur Internet — est de nature aussi mouvante et vulnérable aux influences, en particulier médiatiques. Reste que les données de masse peuvent identifier des phénomènes en cours.

Nombre de spécialistes assurent que leur utilisation remonte à la révolution numérique des années 1980, lorsque la montée en puissance des microprocesseurs et de la mémoire informatique a rendu possibles le stockage et l’analyse de données toujours plus pléthoriques. Ce n’est vrai qu’en partie. Les progrès technologiques et l’irruption d’Internet ont certes contribué à réduire les coûts de la collecte, du stockage, du traitement et du partage des informations. Mais les données de masse constituent surtout la dernière manifestation en date de l’irrépressible désir humain de comprendre et de quantifier le monde. Pour sonder la signification de cette étape nouvelle, il faut jeter un regard de côté — ou plutôt, vers le bas.

Koshimizu Shigeomi est professeur à l’Institut avancé de technologie industrielle de Tokyo. Sa spécialité consiste à étudier la manière dont ses contemporains se tiennent assis. C’est un champ d’études peu fréquenté, et pourtant riche d’enseignements. Lorsqu’un individu pose son postérieur sur un support quelconque, sa posture, ses contours et la distribution de sa masse corporelle constituent autant d’informations quantifiables et analysables. Grâce à des capteurs placés sur un siège d’automobile, Koshimizu et son équipe d’ingénieurs ont mesuré la pression exercée par le fessier du conducteur sur un réseau de trois cent soixante points, chacun indexé sur une échelle de zéro à deux cent cinquante-six. Les données ainsi recueillies permettent de composer un code numérique propre à chaque être humain. Un test a démontré que son système permettait d’identifier une personne avec une précision de 98 %.

Ces travaux sont moins saugrenus qu’il n’y paraît. L’objectif de Koshimizu est de trouver une application industrielle pour sa découverte, par exemple un système antivol pour l’industrie automobile. Une voiture équipée de ces capteurs fessiers pourrait reconnaître son propriétaire et exiger de tout autre conducteur un mot de passe avant de démarrer. La transformation d’une paire de fesses en un bouquet de données numériques représente un service appréciable et une affaire potentiellement lucrative. Elle pourrait d’ailleurs servir à d’autres fins que la protection du droit de propriété sur un véhicule : par exemple éclairer le lien entre la posture de l’automobiliste et la sécurité routière, entre sa gestuelle au volant et le risque qu’il provoque un accident. Les capteurs pourraient aussi déclencher une alerte ou un freinage automatique lorsque le conducteur s’assoupit au volant.

Prévention des incendies à New York

Koshimizu s’est emparé d’un objet qui n’avait encore jamais été traité comme une donnée, ni même perçu comme recelant le moindre intérêt en termes d’information, pour le convertir en un format numériquement quantifié. La mise en données désigne autre chose que la numérisation, laquelle consiste à traduire un contenu analogique — texte, film, photographie — en une séquence de 1 et de 0 lisible par un ordinateur. Elle se réfère à une action bien plus vaste, et aux implications encore insoupçonnées : numériser non plus des documents, mais tous les aspects de la vie. Les lunettes élaborées par Google — équipées d’une caméra, d’un micro et connectées à Internet — changent notre regard en données ; Twitter met en données nos pensées ; LinkedIn fait de même avec nos relations professionnelles.

A partir du moment où une chose subit ce traitement, il est possible de changer son usage et de transformer l’information qu’elle recèle en une nouvelle forme de valeur. IBM, par exemple, a obtenu en 2012 un brevet pour la « sécurisation de bureaux par une technologie informatique de surface » : une formule savamment absconse pour désigner un revêtement de sol équipé de récepteurs, à la manière d’un écran de smartphone que l’on actionnerait avec les pieds. La mise en données du sol ouvre toutes sortes de perspectives. Votre plancher pourrait réagir à votre présence, déclencher l’allumage de la lumière lorsque vous rentrez chez vous, identifier un visiteur à partir de son poids ou de sa manière de bouger. Il pourrait sonner l’alarme lorsque quelqu’un fait une chute et ne se relève pas — une application susceptible d’intéresser les personnes âgées. Les commerçants pourraient suivre le cheminement de leurs clients dans leur boutique. A mesure que toute activité humaine devient enregistrable et exploitable, on en apprend davantage sur le monde. On apprend ce qu’on n’aurait jamais pu apprendre auparavant, faute d’outils commodes et accessibles pour le mesurer.

M. Michael Bloomberg a fait fortune dans l’industrie des données numériques. Il n’est donc pas étonnant que la ville de New York, dont il est le maire, les utilise pour renforcer l’efficacité des services publics et, surtout, pour en diminuer le coût. La stratégie de prévention de la ville contre les incendies fournit un bon exemple de cette démarche.

Les immeubles illégalement sous-divisés en parts locatives présentent plus de risques que les autres de partir en flammes. New York enregistre chaque année vingt-cinq mille plaintes pour des bâtisses surpeuplées, mais ne compte que deux cents inspecteurs pour y répondre. A la mairie, une petite équipe d’analystes s’est penchée sur le problème. Afin d’atténuer le déséquilibre entre besoins et ressources, elle a créé une banque de données recensant les neuf cent mille bâtiments de la ville, complétée par les indicateurs de dix-neuf agences municipales : liste des exemptions fiscales, utilisation irrégulière des équipements, coupures d’eau ou d’électricité, loyers impayés, rotations d’ambulances, taux de délinquance, présence de rongeurs, etc. Les analystes ont ensuite tenté de dresser des correspondances entre cette avalanche d’informations et les statistiques relatives aux incendies survenus en ville au cours des cinq années précédentes. Sans surprise, ils ont établi que le type de bâtiment et sa date de construction jouaient un rôle important dans son exposition aux incendies. Plus inattendue a été la découverte que les immeubles ayant obtenu un permis pour des travaux de ravalement extérieurs présentaient nettement moins de risques d’incendie.

Le croisement de ces données a permis à l’équipe municipale d’élaborer un schéma susceptible de déterminer les critères en fonction desquels une plainte pour surpopulation nécessitait une attention particulière. Aucune des caractéristiques retenues par les analystes ne peut être considérée en soi comme une cause d’incendie ; mises bout à bout, elles sont pourtant étroitement corrélées avec un risque accru de départ de feu. Cette trouvaille a fait la joie des inspecteurs new-yorkais : alors que, par le passé, 13 % seulement de leurs visites donnaient lieu à un ordre d’évacuation, la proportion a grimpé à 70 % après l’adoption de la nouvelle méthode.

Les données de masse peuvent aussi contribuer à plus de transparence dans la vie démocratique. Un vaste mouvement s’est formé autour de la revendication d’ouverture des données publiques (open data), laquelle va au-delà d’une simple défense de la liberté d’information. Il s’agit de faire pression sur les gouvernements pour qu’ils rendent accessibles à tous les montagnes de données qu’ils ont accumulées — du moins celles qui ne relèvent pas du secret d’Etat. Les Etats-Unis se montrent plutôt en pointe dans ce domaine, avec la mise en ligne des archives de l’administration fédérale (expurgées de leurs éléments sensibles) sur le site Data.gov. D’autres pays leur emboîtent le pas.

A mesure que les Etats promeuvent l’utilisation des données de masse, une nécessité se fait jour : la protection des citoyens contre la prédominance de certains acteurs du marché. Des compagnies comme Google, Amazon ou Facebook — auxquelles il faut ajouter le milieu plus discret mais non moins redoutable des « courtiers de données », comme Acxiom ou Experian — amassent jour après jour des quantités colossales d’informations sur n’importe qui et n’importe quoi. Il existe des lois qui interdisent la constitution de monopoles dans l’industrie des biens et des services, tels que les logiciels ou les médias. Cet encadrement porte sur des secteurs relativement faciles à évaluer. Mais comment appliquer la législation antimonopoles à un marché aussi insaisissable et mutant ? Une menace pèse donc sur les libertés individuelles. Et ce d’autant plus que plus les données s’amassent, plus leur utilisation sans le consentement des personnes qu’elles concernent devient probable. Une difficulté que le législateur et la technologie paraissent incapables de résoudre.

Les tentatives pour mettre en place une forme de régulation du marché pourraient conduire à une foire d’empoigne sur la scène internationale. Les gouvernements européens ont commencé à réclamer des comptes à Google, dont la position dominante et le mépris pour la vie privée suscitent une certaine inquiétude, un peu à l’image de la société Microsoft, qui s’était attiré les foudres de la Commission européenne il y a dix ans. Facebook aussi pourrait se retrouver dans le collimateur judiciaire de plusieurs pays, en raison de la quantité astronomique de données qu’il détient sur ses usagers. La question de savoir si les flux d’informations doivent bénéficier des lois encadrant le libre-échange laisse augurer quelques âpres batailles entre diplomates. Si la Chine persiste à censurer l’utilisation des moteurs de recherche sur Internet, on peut imaginer qu’elle soit un jour ou l’autre poursuivie par une juridiction internationale, non seulement pour violation de la liberté d’expression, mais aussi, et peut-être surtout, en raison des entraves qu’elle impose au commerce.

En attendant que les Etats apprennent à considérer les libertés individuelles comme un bien digne d’être protégé, l’industrie des données de masse réactualise en toute quiétude la figure de Big Brother. En juin 2013, les journaux du monde entier ont révélé que M. Edward Snowden avait rendu publiques des informations concernant les activités de surveillance de son employeur : la National Security Agency (NSA), principale agence de renseignement américaine. Outre les télécommunications, étaient concernés les requêtes sur les moteurs de recherche, les messages publiés sur Facebook, les conversations sur Skype, etc. Les autorités américaines ont expliqué que les données, collectées avec l’aval de la justice, ne concernaient que des individus « suspects ». Mais, comme toutes les activités de la NSA demeurent secrètes, nul n’est en mesure de le vérifier.

L’affaire Snowden souligne le pouvoir des Etats dans le domaine des données. Les collecteurs-exploitants de données numériques menacent en effet de générer une nouvelle forme de totalitarisme, pas si éloignée des sombres fantaisies de la science-fiction. Sorti en 2002, le film Minority Report, adapté d’une nouvelle de Philip K. Dick, imagine la dystopie d’un monde futur régi par la religion de la prédiction. Le héros, interprété par Tom Cruise, dirige une unité de police capable d’arrêter l’auteur d’un crime avant même que celui-ci soit commis. Pour savoir où, quand et comment ils doivent intervenir, les policiers recourent à d’étranges créatures dotées d’une clairvoyance supposée infaillible. L’intrigue met au jour les erreurs d’un tel système et, pis encore, sa négation du principe même de libre arbitre.

Identifier des criminels qui ne le sont pas encore : l’idée paraît loufoque. Grâce aux données de masse, elle est désormais prise au sérieux dans les plus hautes sphères du pouvoir. En 2007, le département de la sécurité intérieure — sorte de ministère de l’antiterrorisme créé en 2003 par M. George W. Bush — a lancé un projet de recherche destiné à identifier les « terroristes potentiels », innocents aujourd’hui mais à coup sûr coupables demain. Baptisé « technologie de dépistage des attributs futurs » (Future Attribute Screening Technology, FAST), le programme consiste à analyser tous les éléments relatifs au comportement du sujet, à son langage corporel, à ses particularités physiologiques, etc. Les devins d’aujourd’hui ne lisent plus dans le marc de café, mais dans les logiciels de traitement des données (2). Dans nombre de grandes villes, telles que Los Angeles, Memphis, Richmond ou Santa Cruz, les forces de l’ordre ont adopté des logiciels de « sécurisation prédictive », capables de traiter les informations sur des crimes passés pour établir où et quand les prochains pourraient se produire. Pour l’instant, ces systèmes ne permettent pas d’identifier des suspects. Mais il ne serait pas surprenant qu’ils y parviennent un jour.

Redécouvrir les vertus de l’imprévisibilité

Il arrive cependant que les dirigeants américains se mordent les doigts d’avoir tout misé sur l’infaillibilité des chiffres. Ministre de la défense sous les présidences de John Kennedy et de Lyndon Johnson, Robert McNamara ne jurait que par les statistiques pour mesurer les exploits de ses troupes au Vietnam (lire « Tout savoir sans rien connaître »). Avec son équipe, il scrutait la courbe du nombre d’ennemis éliminés. Transmis aux commandants à titre de réprimande ou d’encouragement, diffusé quotidiennement dans les journaux, le comptage des Vietcongs morts devint la donnée cardinale d’une stratégie et le symbole d’une époque. Aux partisans de la guerre, il donnait l’assurance que la victoire était proche. Aux opposants, il apportait la preuve que la guerre était une infamie. Mais les chiffres étaient souvent erronés et sans rapport avec la réalité du terrain. On ne peut que se réjouir lorsque l’interprétation des données améliore les conditions de vie de nos contemporains, mais elle ne devrait pas conduire à remiser son sens commun…

A l’avenir, c’est par elle que va passer toujours davantage, pour le meilleur ou pour le pire, la gestion des grands problèmes planétaires. Lutter contre le réchauffement climatique, par exemple, impose de réunir toutes les informations disponibles sur les phénomènes de pollution, afin de localiser les zones où intervenir en priorité. En disposant des capteurs tout autour de la planète, y compris dans les smartphones de millions d’usagers, on permet aux climatologues d’échafauder des modèles plus fiables et plus précis.

Mais, dans un monde où les données de masse orientent de plus en plus étroitement les pratiques et les décisions des puissants, quelle place restera-t-il au commun des mortels, aux réfractaires à la tyrannie numérique ou à quiconque marche à contre-courant ? Si le culte des outils technologiques s’impose à chacun, il se peut que, par contrecoup, l’humanité redécouvre les vertus de l’imprévisibilité : l’instinct, la prise de risques, l’accident et même l’erreur. Pourrait alors se faire jour la nécessité de préserver un espace où l’intuition, le bon sens, le défi à la logique, les hasards de la vie et tout ce qui compose la substance humaine tiendront tête aux calculs des ordinateurs.

De la fonction attribuée aux données de masse dépend la survie de la notion de progrès. Elles facilitent l’expérimentation et l’exploration, mais elles se taisent quand apparaît l’étincelle de l’invention. Si Henry Ford avait interrogé des algorithmes informatiques pour évaluer les attentes des consommateurs, ils lui auraient probablement répondu : « Des chevaux plus rapides. »

Kenneth Cukier et Viktor Mayer-Schönberger

Respectivement journaliste et professeur à l’université d’Oxford, auteurs de Big Data : A Revolution That Will Transform How We Live, Work, and Think, Houghton Mifflin Harcourt, Boston, 2013.

http://www.monde-diplomatique.fr/2013/07/CUKIER/49318

The Internet’s Own Boy

 

Changement d’ère ….

16 mai 2014, par Alexandre Piquard

New York Times : les 7 leçons du mémo sévère sur le numérique

Le propriétaire du journal Arthur Sulzberger Jr. face à la directrice Jill Abramson, en avril 2014, quand le titre a reçu quatre Pulitzer, le prestigieux prix journalistique.REUTERS/Ruth Fremson/Pool (UNITED STATES – Tags: MEDIA SOCIETY) – RTXYN1U

Comme d’autres grands médias, le New York Times s’est retrouvé au centre d’une crise dans laquelle la partie la plus visible est le départ de sa directrice de la rédaction, Jill Abramson, remplacée, jeudi 15 mai, par Dean Baquet.
Au même moment a fuité, sur le site d’information Buzzfeed, un long mémo sur l’innovation dans le célèbre quotidien américain, peignant un tableau sombre de sa stratégie numérique. Ces 90 pages constituent un document rare.

Y a-t-il un lien entre les deux événements ? Parmi les raisons du départ de Mme Abramson, les médias américains ont souvent souligné l’aspect personnel et son style rigide de management. Mais d’autres ont mentionné ses protestations contre l’ampleur des ressources dédiées à la vidéo, ou la pratique trop poussée du native advertising, forme moderne de publi-rédactionnel.

Le document d’audit a été rédigé par un groupe de huit personnes au fait des questions numériques, dont AG Sulzberger, fils et potentiel héritier du propriétaire du journal, qui avaient à l’origine pour mission de trouver une ou plusieurs idées de nouveau produit ou format. Les auteurs suivent un axe délibérément réformateur, soulignant peu que le journal est bénéficiaire, notamment grâce à ses 800 000 abonnés numériques. Mais leurs conclusions sont éclairantes sur les défis du New York Times et, par extension, des grands médias généralistes traditionnels. En voici les points saillants, et pour les plus curieux, le document, en pied de post.

[Voir le document complet ci-dessous ou les extraits sélectionnés par le site d’étude des médias Nieman Lab]

1. La concurrence et les supports évoluent vite

Le rapport prend acte de l’augmentation du nombre de concurrents dans le domaine de l’information. Il souligne que les concurrents traditionnels du New York Times – ceux avec lesquels il a longtemps lutté sur le terrain de la diffusion papier et bataille, aujourd’hui, sur celui des abonnements numériques – ont aux aussi entrepris leur adaptation à l’ère numérique, alors que le New York Times était jugé précurseur. Il cite ainsi le Washington Post, le Wall Street Journal, USA Today

Mais il s’inquiète aussi de l’arrivée de nouveaux entrants (par exemple les groupes Vox Media, First Look Media, ou les sites Buzzfeed, Huffington Post…), qui “façonnent des rédactions conçues pour le numérique”. “Les médias numériques deviennent plus nombreux, mieux financés et beaucoup plus innovants”, souligne le rapport.

2. Peu d’attention est accordée au web social
Si la rédaction du NYT accorde une immense attention à la qualité des contenus, le rapport estime qu’elle ne déploie pas suffisamment d’efforts pour apporter ces contenus au lecteur. La distribution des contenus (quels éléments publier sur quel support), leur promotion et la mise en place d’un dialogue avec les lecteurs ne sont pas suffisamment assumés par la rédaction.

Faute d’occuper ce terrain, les journalistes du NYT laissent d’autres plate-formes prospérer, y compris sur la base de contenus produits par le NYT, note le rapport. Exemple : le Huffington Post a obtenu plus de trafic en agrégeant les contenus du NYT sur la mort de Mandela que le NYT lui-même. “Vous vous êtes fait écraser, a lancé un responsable du HuffPo à l’adresse de l’équipe du NYT. Mais c’est à vous de vous protéger des pickpockets numériques en proposant de meilleurs titres et un meilleur accompagnement sur les réseaux sociaux”. Avant de publier un gros contenu, le NYT ne réfléchit pas à ce qu’il pourra publier dans la foulée, quand le sujet se répandra sur le web, note le rapport.

Conséquence  générale : l’audience du site nytimes.com, de sa page d’accueil et des applications mobiles sont orientées à la baisse, selon le document. Le rapport note que 60 % de l’audience de Buzzfeed provient des réseaux sociaux, selon le site, contre 10 % au New York Times.

3. La culture du papier reste prédominante
Le rapport souligne que “les habitudes et traditions construites depuis un siècle et demi autour de la publication quotidienne du journal constituent une puissante force conservatrice à l’heure où nous migrons vers le numérique – notamment l’attraction gravitationnelle de la Une”.

Symptômes de cet enracinement culturel : les sujets sont publiés surtout en fin de journée (avant le bouclage print), les applications mobiles sont structurées selon les rubriques du journal et l’attention des éditeurs se porte davantage sur la mise à jour de leur page de rubrique que sur la stratégie de promotion des contenus sur les médias sociaux. “Il est essentiel de commencer à questionner nos traditions print-centrées”, recommande le document.

4. On se concentre sur les « grosses » innovations difficilement reproductibles
Les innovations éditoriales du New York Times les plus marquantes sont souvent de grosses productions événementielles, notent les auteurs : par exemple, le Dialect Quiz (un questionnaire sur les accents américains qui serait le contenu le plus consulté de l’histoire du titre avec 21 millions de pages vues) ou Snowfall (webdocumentaire dédié à une avalanche).

Selon l’éditeur du site d’information économique Quartz, cité dans le rapport, il vaudrait mieux « chercher à rassembler des outils qui permettent de créer des Snow Falls tous les jours ». Sont cités en exemple les quizz de Buzzfeed, format récurrent très viral quitte à devenir trop systématique. Ou les « collections » d’articles intéressants, sur un sujet ou un angle choisi, un format que la cellule recherche et développement du New York Times aimerait mettre à disposition des journalistes voire des lecteurs.

5. La rédaction est isolée de la technique, du graphisme, du marketing…
« Considérer le service « Expérience du lecteur » comme une extension de la rédaction devrait être la prochaine étape logique dans la démarche de long terme de Jill Abramson visant à créer une rédaction avec des fonctions numériques intégrées, car ce département possède des savoir-faire numériques importants », écrivent les auteurs.

Le service « Expérience du lecteur » du New York Times rassemble 30 designers numériques, 30 analystes de données, 120 personnes chargée du développement produit et 445 informaticiens et ingénieurs, selon le document.

Ce département est distinct des services marketing et commerciaux mais il semble que pour la rédaction, avoir des contacts avec les autres services reste assimilé à un danger de compromission du contenu. Il faudrait selon les auteurs abandonner les « métaphores » généralement utilisées pour séparer la rédaction des autres services : « le mur » de séparation entre « l’église et l’Etat ».

Le risque de collusion entre rédactionnel et marketing ou publicité demeure mais le rapport estime que l’urgence du moment est de décloisonner. Il cite en exemple des projets innovants intéressants et nés hors du seul orbite de la rédaction : l’application mobile d’actualité sélectionnée NYTNow ou la section Cuisine. Un responsable de The Upshot, le projet de décryptage pédagogique de l’actualité lancé par le New York Times dit dans le rapport qu’il avait du mal à trouver des gens pour discuter de plateforme, d’ergonomie…

6. Promouvoir et garder les connaisseurs du numérique est difficile
Les auteurs ont demandé leurs motivations à cinq personnes ayant quitté le New York Times. « Je regardais autour de moi dans l’organisation et je voyais les meilleurs jobs – même certains avec des profils de postes spécifiquement numériques – être attribués à des personnes ayant peu d’expérience dans le numérique. Pendant ce temps, des journalistes avec d’excellentes références dans le domaine restaient employés à bouger des articles sur la page d’accueil du site », dit l’une d’elles.

Il y a trop peu de connaisseurs du numérique dans les postes à responsabilité du titre, selon le rapport. Et aussi trop peu de designers, informaticiens, analystes, responsables produit…

7. L’innovation ne fait pas l’objet d’une attention constante
Comme dans la plupart des rédactions, l’équipe de direction est accaparée par le travail quotidien et n’a pas le temps de travailler sur les sujets de long terme, selon les auteurs. Le rapport suggère la constitution d’une équipe stratégique dédiée qui puisse conseiller la direction et échanger avec la rédaction. Et pousser la rédaction à être présente dans les projets d’innovation développés dans d’autres services.

Les auteurs suggèrent aussi que l’innovation et les expérimentations soient encouragées, au niveau des employés. Que bloquer une innovation soit moins facile qu’aujourd’hui et qu’on soit moins perfectionniste au moment de tester des choses.

NYT Innovation Report 2014 by BuzzFeedDocs
Alexis Delcambre et Alexandre Piquard

http://medias.blog.lemonde.fr/2014/05/16/new-york-times-les-8-lecons-du-memo-severe-sur-le-numerique/

« Le Monde diplomatique » disparaît…

vendredi 9 mai 2014

A l’évidence, il s’agissait d’une anomalie. Comme nous l’avions rapporté l’année dernière, Le Monde diplomatique figurait à la 178e place des 200 titres de presse les plus aidés par les pouvoirs publics en 2012, très loin derrière Le Monde (1er), Le Figaro (2e), mais aussi Le Nouvel Observateur (8e), L’Express (9e), Télé 7 jours (10e), Paris Match(12e), Valeurs Actuelles (66e), Télécâble Satellite Hebdo (27e), Point de Vue (86e), Closer (91e), Le Journal de Mickey (93e), Gala (95e), Voici (113e), Prions en église (121e), Auto Moto (124e), Mieux vivre votre argent (131e), Détente Jardin (167e), Spirou (172e)…

Entre les deux premiers titres, dotés de plus de 18 millions d’euros chacun, et Le Monde diplomatique avec 188 339 euros, l’écart allait de 1 à 100. De 1 à 36 entre Le Monde diplomatique et Télé 7 jours. Dès lors que l’argent des contribuables doit servir, selon la volonté du législateur, à aider les publications qui concourent au débat public, une telle discordance entre les sommes rondelettes offertes à un titre du groupe Lagardère lardé de publicité et destiné à annoncer les programmes de télévision, et celles, fluettes, dévolues à un journal comme le nôtre, ne pouvaient que résulter d’une erreur…

Il n’en est rien. En 2013, Le Monde diplomatique a purement et simplement disparu de la liste des deux cents titres les plus aidés, rendue publique le 5 mai par le ministère de la culture et de la communication.

L’an dernier, Le Figaro a battu Le Monde d’une courte tête pour devenir médaille d’or des publications aidées par l’Etat (un peu plus de 16 millions d’euros chacun). Et Télé 7 jours… a gagné une place (9e en 2013, avec 6 947 000 euros, soit 27 000 euros de plus qu’en 2012).

JPEG - 87.8 ko
Quelques « unes » de journaux subventionnés

Il faut féliciter l’Etat pour sa scrupuleuse impartialité : les publications les plus scandalisées par le montant des dépenses publiques, celles qui matraquent le thème du « ras-le-bol fiscal » et se montrent les plus enthousiastes quand les retraites sont gelées, n’ont pas pour autant été négligées par la « mama étatique » — une formule de l’hebdomadaire Le Point — lorsqu’elles ont tendu leurs sébiles en direction des ministères.

Le Point, justement, a continué à toucher plus de 4,5 millions d’euros, soit 22 centimes d’aide du contribuable pour chaque hebdomadaire diffusé, bien que le titre appartienne à la famille Pinault, sixième fortune de France (11 milliards d’euros). M. Serge Dassault, cinquième fortune de France (12,8 milliards d’euros), sénateur UMP et propriétaire du Figaro, a reçu, lui, 16 centimes de l’Etat pour chaque exemplaire vendu d’un journal qui exalte les vertus de l’austérité budgétaire. Et c’est sans doute parce que le quotidien Les Echos appartient à M. Bernard Arnault, première fortune de France (24,3 milliards d’euros), que ce quotidien économique qui, lui aussi, peste sans relâche contre les dépenses publiques, n’a reçu en 2013 que 4 millions d’euros du contribuable…

Lorsqu’une publication quitte un tableau, un palmarès, une autre s’y substitue. Coïncidence saisissante (c’en est une) : presque à la place qu’occupait Le Monde diplomatique en 2012, et pour un montant à peu près identique, L’Opinion a surgi en 2013 (177e avec 184 000 euros d’aides de l’Etat).

L’Opinion est ce quotidien lancé par M. Nicolas Beytout, avec des concours financiers dont la transparence n’est pas absolue, mais au service d’une ligne rédactionnelle qui, elle, ne laisse planer aucun mystère puisque c’est celle du Medef. La diffusion payée du journal de M. Beytout est confidentielle (de mille à trois mille exemplaires par jour en kiosques), mais sa seule survie permet à son créateur de naviguer d’une antenne à l’autre et d’être très généreusement cité dans la plupart des revues de presse. Ce qui, là encore, n’est pas donné à tout le monde.

Le ministère de la culture et de la communication, à qui il faut savoir gré de la publication, très pédagogique, du montant annuel des aides publiques à la presse, prétend que celles-ci « concourent à la modernisation et la diffusion partout dans le pays d’une presse pluraliste et diverse. »

En nous versant un don, que vous pourrez partiellement déduire de vos impôts, vous disposez d’un moyen infiniment plus efficace de concourir à l’objectif que s’est assigné l’Etat — avec un humour qu’on ne lui soupçonnait pas…

http://www.monde-diplomatique.fr/carnet/2014-05-09-le-diplo-disparait

Comment notre ordinateur nous manipule

LE MONDE | 10.04.2014 à 17h00 • Mis à jour le 13.04.2014 à 14h05 | Par Yves Eudes

Pistés par les cookies.

Tout a commencé avec une géniale invention, celle du cookie. Une simple ligne de code – par exemple MC1:UID = 6daa554691bd4 f9089dc9d92e5cdadf4 – déposée sur votre navigateur par les sites Web que vous visitez, et des publicités ciblées s’affichent sur votre écran.

Appelé ainsi en référence aux biscuits que les restaurants offrent au moment de l’addition, le cookie apparaît dès 1994, l’année où le Web s’ouvre au public. Vingt ans plus tard, il reste le socle de la publicité en ligne, une industrie qui a réalisé en 2013 un chiffre d’affaires mondial de 102 milliards de dollars.

Fiché 108 fois en 3 clics

Les cookies sont gérés par des sociétés spécialisées qui les déposent, les récoltent, les classent, les analysent, les agrègent et les revendent. Ils servent à vous identifier, à vous pister de site en site, à retenir vos mots de passe, à gérer vos paniers d’achat, à déterminer si votre navigation est lente ou rapide, hésitante ou déterminée, systématique ou superficielle…

L’objectif est de vous « profiler », c’est-à-dire de créer des fichiers personnalisés, stockés dans des bases de données. En d’autres termes, de mieux vous connaître afin de vous présenter le bon message publicitaire au bon moment et dans le bon format. Vous pouvez effacer les cookies, mais de nouveaux arriveront dès que vous reprendrez la navigation. Et si vous les bloquez, la plupart des sites ne fonctionneront plus. Certains cookies ont la vie dure : ceux que dépose Amazon aujourd’hui sont conçus pour durer jusqu’en 2037.

Un exemple : dès la page d’accueil du site de e-commerce Priceminister, votre navigateurreçoit d’un coup 44 cookies provenant de 14 agences spécialisées – telles que RichRelevance, Doubleclick, Exelator… Rendez-vous à la rubrique « Téléphonie mobile », vous récoltez 22 nouveaux cookies. Et en cliquant sur la photo d’un smartphone Samsung, vous déclenchez une nouvelle rafale de 42 cookies provenant de 28 sources : en trois clics, vous voilà fiché 108 fois par une quarantaine de bases de données. Si vous commencez à acheter le téléphone mais abandonnez en cours de route, vous serez repéré par la société française Criteo, spécialisée dans le « reciblage ». Des publicités pour le produit que vous avez failli acheter s’affichent sur votre écran pendant des jours, et vous suivront sur tous les sites que vous visiterez.

Criteo a besoin de machines puissantes : pour identifier un internaute, contacter la plate-forme qui gère ses espaces publicitaires, proposer un prix, conclure l’affaire et lancer l’affichage de la bannière, elle dispose de 13 centièmes de seconde – faute de quoi l’espace sera vendu à un concurrent.

Entreprise de taille moyenne, Criteo reçoit 20 teraoctets (vingt mille milliards) de données par jour, et touche 850 millions d’internautes par mois, certains des centaines de fois. On ignore le volume de données traitées par un géant comme Google, mais on sait qu’il possède plus d’un million de serveurs dans le monde. Pour rendre compte de cette réalité, les mathématiciens ont inventé une nouvelle unité de compte, le zettaoctet (mille milliards de milliards).

Profils détaillés

Afin d’affiner le ciblage, les publicitaires croisent les cookies avec d’autres données récoltées sur Internet : votre adresse IP (Internet Protocol, qui identifie et localise votre ordinateur), votre langue usuelle, vos requêtes sur les moteurs de recherche, le modèle de votre ordinateur et de votre navigateur, le type de votre carte de crédit… Si vous avez livré des informations nominatives – en faisant un achat ou en remplissant un questionnaire –, elles seront également exploitées. Parfois, vos données Internet seront croisées avec d’autres, provenant du monde réel – relevés de cartes bancaires, tickets de caisse, déplacements de votre téléphone…

La société Acxiom, spécialisée dans le croisement des cookies et des données obtenues par d’autres moyens, vend aux annonceurs des profils triés selon 150 critères, parmi lesquels « fait de la couture », « héberge un parent âgé » ou « possède un chat ». Un fichier de mille personnes contenant des données de base est vendu en moyenne 60 centimes, mais le prix peut grimper à 250 euros pour des profils détaillés – comme, pour un laboratoire pharmaceutique, une liste d’adultes obèses ayant déjà acheté des produits amincissants. Ces données sont « anonymisées » car, pour vous cibler, les ordinateurs n’ont pas besoin de votre nom – il leur suffit de connaître vos revenus, vos envies, vos besoins, votre sexe, votre âge, votre métier, vos loisirs, votre origine ethnique, votre code postal, vos maladies, votre situation de famille, votre logement, votre voiture, votre religion, vos voyages…

Le web marchand vous surveille.

Le ciblage va jusqu’à modifier le prix d’un produit en fonction du profil. Quand un site de voyage voit que vous venez de consulter un comparateur de prix, il baisse ses prix pour s’aligner sur ceux de ses concurrents, quitte à se rattraper sur les « frais de dossier ». Si vous vous connectez avec un ordinateur à 3 900 euros, le site affichera des chambres d’hôtel plus chères que si vous utilisez un portable à 300 euros. Le libre choix du consommateur, apparemment décuplé par la puissance de l’informatique, semble en fait amoindri. L’homme numérique aurait-il accepté de se laisser dominer par les machines dans le seul but de faire ses courses de façon moins fatigante ? 

« Nous laissons les technologies nous façonner »

Le philosophe William Bates, professeur d’histoire des technologies à l’université de Californie, à Berkeley, note que les professionnels du big data exploitent une caractéristique essentielle de l’être humain : « Ils nous font comprendre que nous ne contrôlons pas notre propre comportement et, en un sens, ils ont raison. Statistiquement, les humains réagissent de façon très prévisible à certaines situations, selon des mécanismes cérébraux qu’ils ne maîtrisent pas. » 

Une situation qu’amplifie l’accélération de l’innovation : « D’un côté, les technologies de l’information influent sur notre cerveau : nous ne pensons plus de la même façon que les générations précédentes, souligne William Bates. Mais par ailleurs, très peu d’entre nous, y compris les jeunes, comprennent comment fonctionne un ordinateur. Nous laissons les technologies nous façonner, mais nous n’avons pas encore créé les outils intellectuels pour nous aider à comprendre ce qui nous arrive. »

Le philosophe relativise cependant cette angoisse existentielle : « Depuis les débuts de la civilisation, les humains sont construits par la culture dans laquelle ils évoluent, et donc par la technologie qui en fait partie. C’est ce qui nous distingue des animaux. Il serait naïf de croire que le cerveau humain était jadis plus “naturel” ou plus “libre”, et que les nouvelles technologies nous auraient dépossédé de quelque chose. »

Pour influer sur nos cerveaux, les publicitaires disposent d’une énorme puissance de calcul. Ils emploient des mathématiciens pour concevoir les algorithmes, des développeurs pour les traduire en langage informatique, des ingénieurs pour construire l’architecture des bases de données, des analystes pour capter et exploiter des données…

Algorithmes auto-apprenants

Or, le secteur vit déjà une nouvelle révolution grâce aux constants progrès techniques. La dernière mode est à « l’analyse prédictive » : au lieu de réagir au comportement des internautes, les publicitaires veulent les prévoir afin d’agir par anticipation. Pour cela, ils font appel à une discipline encore expérimentale : le machine learning, ou apprentissage automatique, une branche de l’intelligence artificielle. Il s’agit de doter les ordinateurs de la capacité à améliorer leurs performances sans intervention humaine. Selon Franck Le Ouay, directeur scientifique de Criteo, « le machine learning désigne la capacité d’un programme à s’adapter à une nouvelle situation. Nous mettons au point des algorithmes auto-régulés et auto-apprenants ».

Si un soir, vers 18 heures, le programme détecte que les Parisiens utilisent moins Internet que d’habitude, il modulera les affichages publicitaires en conséquence. Mieux : bientôt, le système pourra constater, en consultant un site de trafic routier, qu’un gros embouteillage bloque la capitale, et en déduire que les Parisiens arriveront chez eux en retard, ce qui décalera leur usage d’Internet… Criteo, qui emploie déjà 160 mathématiciens, va en embaucher une centaine en 2014. Franck Le Ouay place la barre très haut : « Nous devons réussir l’exploit de faire plus de prédictions avec la même masse de données. »

Les expériences se multiplient. Le mathématicien Erick Alphonse, de l’université Paris-XIII, met au point un système baptisé Predictive Mix. Il étudie d’abord deux échantillons d’internautes : l’un verra une bannière publicitaire s’afficher sur son écran, l’autre non. En comparant le taux d’achat du produit dans chaque groupe, il quantifie l’efficacité du message.

Armé de ces premiers résultats, Predictive Mix répartit les profils en quatre groupes. L’internaute qui achète un produit sans voir de publicité est un « captif » : inutile de gaspiller de l’argent pour le convaincre ; celui qui achète quand il ne voit pas de publicité, mais cesse d’acheter quand il en voit est un « réfractaire » : il faut le laisser tranquille ; celui qui n’achète jamais rien est à oublier – trop difficile à convaincre ; enfin, celui qui n’achète rien quand il ne voit pas de publicité mais se met à acheter quand il en voit est un « réceptif », la cible la plus digne d’intérêt.

Etape suivante, l’ordinateur compare l’échantillon des « réceptifs confirmés » avec la population générale contenue dans une base de données. Tous les internautes dont le profil est similaire à ceux des « réceptifs » seront à leur tour classés comme tels. Et l’annonceur éliminera de sa campagne les trois autres groupes. « Grâce à ce ciblage fin, explique Erick Alphonse, l’annonceur économise de l’argent, puisqu’il achète moins d’espaces tout en réalisant un meilleur retour sur investissement. » 

Taxonomie du Web

Une autre société française, Weborama, s’est lancée dans une aventure encore plus lourde : exploiter le « Web des mots ». Grâce à des programmes robotisés, elle collecte les textes publiés sur un vaste choix de sites et de forums. A partir de ces données brutes, les linguistes de Weborama ont extrait un lexique de six mille termes pertinents dans le contexte de la publicité.

Dans un second temps, les mathématiciens organisent le Web comme un « espace métrique » : ils calculent la distance relative entre les mots, selon qu’ils sont plus ou moins souvent associés dans la même phrase. Puis ils rassemblent ces mots associés en 177 groupes thématiques – assurances, jeux d’argent, nourriture, sport, animaux domestiques… Le patron de Weborama, Alain Levy, résume ainsi son approche : « Cette taxonomie devient notre vision du Web. La référence n’est plus le site, mais le mot. »

On passe alors à l’exploitation commerciale. Grâce à des accords avec des agences, Weborama place des cookies sur des millions de navigateurs. Puis elle les piste à travers le Web, et collecte les mots publiés sur tous les sites qu’ils vont visiter : « Chaque profil se voit ainsi attribuer un nuage de mots qui lui est propre », explique Alain Levy. Les ordinateurs vont ensuite projeter ce « nuage » sur la base de données contenant les groupes de mots, et attribuer à chaque profil une note par catégorie.

En croisant les notes – par exemple 13 sur 14 (le maximum) pour les mots associés à la mode, 12 pour le design, mais seulement 2 pour le sport, 1 pour les voitures – Weborama va pouvoir dire à l’annonceur qui se cache derrière chaque cookie: « Ce sera par exemple une femme de 34 à 49 ans, passionnée de mode, indifférente au sport, détaille Alain Levy. Elle sera sans intérêt pour certains annonceurs et très désirable pour d’autres. L’Oréal sera prêt à payer 2 euros pour afficher une bannière sur son écran. » Weborama possède à ce jour 62 millions de profils pour la France – il y a des doublons, car une même personne peut utiliser plusieurs appareils (PC, smartphone, tablette). La mise à jour est permanente, chaque clic provoquant de nouveaux calculs.

Espoir suprême

L’analyse prédictive envahit tous les secteurs d’activité. Des start-up se créent pour faciliter la migration de ces nouvelles compétences vers les industries traditionnelles. En France, la société Dataiku a mis au point une suite logicielle qui permettra à des cadres sans formation informatique pointue de se lancer dans la gestion de bases de données et l’analyse prédictive : « Nos clients potentiels, affirme Florian Douetteau, patron de Dataiku, sont les entreprises industrielles qui possèdent des stocks de données dont ils ne font rien, et qui veulent les exploiter pour résoudre des problèmes de façon innovante. » Il cite comme exemple un gestionnaire de parcmètres souhaitant, à partir des données de stationnement, modéliser la circulation automobile dans des milliers de villes.

L’espoir suprême des chercheurs est que les ordinateurs donnent du sens à des données diffuses et chaotiques, livrées en vrac. En découvrant des modèles et des corrélations qu’aucun humain n’aurait imaginé, ils répondront à des questions que personne ne leur a posées.

De ce fait, le débat sur l’existence d’une « intelligence » chez ces ordinateurs auto-apprenants est déjà obsolète. Pour les professionnels du secteur, l’important n’est pas de savoir si la machine fonctionne comme un cerveau humain, mais de constater qu’elle obtient, par des voies différentes, des résultats égaux ou supérieurs à celui qu’aurait obtenu un humain.

Quant au rapport entre l’homme et la machine, divers penseurs américains l’ont résumé en une question que chacun devra bientôt se poser : votre savoir-faire est-il complémentaire du savoir-faire de votre ordinateur, ou votre ordinateur fait-il un meilleur travail sans vous ? De fait, les mathématiciens ont commencé à détruire certains métiers de la publicité – analystes, media-planners, etc. Reste à savoir si la montée en puissance de ces techniques de plus en plus invasives va entraîner une réaction des populations visées.

Stratégie d’auto-défense

Le philosophe William Bates rappelle que rien n’est jamais joué : « Le fait même que notre cerveau soit malléable signifie que la technologie ne nous prédétermine pas entièrement. A certains moments historiques, nous pouvons décider de ce que nous allons devenir. Mais pour cela, il faut réfléchir et agir. Or, c’est peut-être ce qui nous effraie le plus. Si nous décidons que l’innovation est devenue incontrôlable, nous nous déchargeons de toute responsabilité, c’est plus confortable. »

De son côté, Melanie Swan, une créatrice de start-up californienne qui se définit comme une « philosophe de la technologie », remarque que de nombreux internautes commencent à déployer des stratégies d’auto-défense : « Ils éparpillent leurs données sur plusieurs sites – leurs photos chez un prestataire, leurs e-mails chez un autre, leurs requêtes chez un troisième – dans l’espoir qu’aucune de ces sociétés ne pourra établir leur profil complet. Ce comportement est l’indice d’une “proto-sensibilité” à ce problème. Ils sentent que quelque chose ne va pas, mais restent impuissants. Mais c’est en train de changer. » 

Selon Melanie Swan, on assiste aux Etats-Unis à la naissance d’un mouvement intellectuel visant à inciter les internautes à devenir des sujets actifs dans cette affaire : « Quand nous laissons une entreprise s’emparer de nos données personnelles, nous effectuons une transaction, nous livrons une matière première qui a de la valeur. Or, nous n’avons aucun pouvoir de négociation, nous acceptons les conditions imposées par l’industrie. » La solution est évidente : « Je pense que les internautes vont s’unir et s’organiser pour défendre leurs intérêts en tant que fournisseurs de données. Pour cela, ils vont s’inspirer des associations de défense des consommateurs, ou même des syndicats ouvriers. Seule une réponse collective et solidaire pourra rétablir l’équilibre. » Si les internautes parviennent à changer le rapport de force avec l’industrie, ils pourront exiger d’être payés pour leurs données, ou imposer des conditions et des restrictions à leur usage. Pour les penseurs de la Silicon Valley, cette stratégie sera sans doute plus efficace que des lois imposées par les Etats, souvent en retard d’une guerre.

http://www.lemonde.fr/technologies/article/2014/04/10/big-brother-ce-vendeur_4399335_651865.html

Numérique : le retour de bâton

http://meta-media.fr/2014/02/09/numerique-le-retour-de-baton.html

Partager:

L’inexorable essor du numérique dans nos sociétés fait désormais l’objet d’une légitime et croissante inquiétude sur la menace qu’il fait peser sur les emplois des classes moyennes.

Ajoutez à cela l’arrivée d’une société de surveillance par les gouvernements et les géants du web, les vols de données personnelles, les atteintes à la vie privée, et vous obtenez un cocktail détonant pour laisser libre cours à un contrecoup majeur sur le numérique et Internet.

La « Une » cette semaine du Journal du Dimanche, judicieusement publiée à quelques jours du voyage de François Hollande dans la Silicon Valley, symbolise ce mouvement classique de réaction au futur qui vient.

JDD

Mais le problème est bien plus vaste que le seul Google. Tous les géants du numérique, forts de leurs immenses fermes de serveurs, sont aujourd’hui engagés dans une course vers l’intelligence artificielle, l’automatisation, via les algorithmes, qui non seulement digèrent et traitent des milliards de données, mais sont désormais capables d’apprendre (« machine learning »), d’anticiper et de remplacer de plus en plus de fonctions humaines pour un coût très réduit.

« Les lois de Moore* continuent de fonctionner à plein, explique le capital-risqueur américain Joe Schoendorf. La technologie est entrée dans la seconde moitié de l’échiquier avec 5 milliards de transistors sur une puce. La prochaine étape – qui va se produire– ce sera 10 milliards. Nous pourrons alors concevoir des machines qui pourront tout faire. » Attention: les avancées ne s’additionnent pas mais se multiplient. 

Microchip1-rileyporter

En gros, jusqu’ici, les ordinateurs calculaient, aujourd’hui ils apprennent, demain ils feront.

« En ce moment, ils ajoutent de la matière grise à leurs muscles », ajoute Schoendorf de la firme Accel Partners, qui s’exprimait à la conférence DLD à Münich. « Nous avons créé des technologies qui vont être bien plus intelligentes que nous le pensons ».

Le problème est qu’elles seront en mesure de remplacer non seulement des tâches humaines manuelles, mais aussi les tâches intellectuelles, avertit ce vétéran de la Silicon Valley. Et de nombreux emplois vont disparaître.

Un de ses confrères de la côte est, Albert Wenger (Union Square Ventures) renchérit :

  « L’innovation technologique change tout de manière très disruptive, complémentaire et surtout non linéaire (…) La trajectoire est positive à long terme mais la transition est difficile (…) et nous ne sommes pas très bons dans ces périodes de transitions».

La révolution agricole et industrielle a fait disparaître les chevaux. La révolution numérique et l’ère de l’information feront-elles disparaître les conducteurs ? demande-t-il en substance. Autrement dit, allons-nous disparaître ?

Aujourd’hui les nouveautés ce sont les ordinateurs et les réseaux, la robotique et les machines intelligentes, la 3D et l’imagerie, les « Big Data » et la biologie cellulaire. Elles permettent toutes de traiter non pas 10% de plus de données mais des millions de fois plus. « La promesse aujourd’hui est celle de l’abondance, après une époque où la rareté était le paradigme ».

Les signaux se multiplient en ce début d’année :

A Davos, Eric Schmidt, l’un des patrons de Google, qui a investi en 2013 plus de 7 milliards de dollars dans des capacités supplémentaires d’ordinateurs, et rachète des firmes de robots à tour de bras, a exhorté fin janvier les participants à surveiller de près cette course entre l’homme et la machine afin d’assurer la victoire du premier. Rappelons que Ray Kurzweil, le père de « la singularité », qui prévoit la prise de contrôle des humains par les machines pour 2045, travaille aujourd’hui pour… Google !

google-coldaisle

Le grand risque actuel, estime Schoendorf, c’est de voir les pays riches se réindustrialiser, mais sans créations d’emplois. Ce que le JDD appelle « la casse sociale ».

Internet détruit pour l’instant plus d’emplois qu’il n’en créé. Pour résoudre ce problème majeur, ajoute le « VC », il faudra non seulement le faire savoir au monde, utiliser justement les technologies, mais aussi et surtout se servir de l’intelligence collective de la foule reliée en réseaux.

ff_nsaskull_large1

C’est donc fort légitiment du côté de l’emploi que les inquiétudes sont les plus nombreuses et les solutions pour l’instant inexistantes. Rappelons que, porteurs d’une productivité démultipliée, l’agriculture intensive, comme le taylorisme, avait aussi provoqué de très nombreuses suppressions d’emplois au 20ème siècle.

Ce n’est donc pas un hasard si Barack Obama a fait porter, il y a quelques jours, l’essentiel de son discours annuel sur l’Etat de l’Union, sur la nécessité de renforcer les classes moyennes américaines qui s’érodent progressivement, malgré une reprise, qualifiée récemment de « lugubre » dans les pays riches par le prix Nobel d’économie Joseph Stiglitz.

Pierre Bellanger fait le même constat alarmiste dans son dernier ouvrage, « La souveraineté numérique » : « la mondialisation a dévasté nos classes populaires, l’internet va dévorer nos classes moyennes ». Le fondateur et président de Skyrock insiste surtout sur l’absence de souveraineté française et européenne sur les fermes de serveurs des géants du web, tous américains.

Mais c’est surtout l’ouvrage du scientifique américain Jaron Lanier, (« Who owns the future »), qui a lancé un appel l’an dernier pour avertir de l’impact destructeur et déflationniste d’Internet sur les classes moyennes, de la disparition progressive des usines et des banques, et de l’enrichissement faramineux d’une poignée de géants du web qui contrôlent désormais les machines quasi-autonomes qui sont en train progressivement de prendre le pouvoir.

41

* Les Lois de Moore prévoient que la puissance des microprocesseurs double environ tous les 18 mois ou deux ans.