Archives de Catégorie: Internet

Big Brother is Watching

Social media pitfalls for jobseekers #infographic from Career Savvy

While some kids believe their biggest problem regarding social media is blocking their parents to prevent the occasional embarrassing « mom comment, » they will one day or another realize there are concerns of much greater magnitude when it comes to outside parties monitoring their Facebook or Twitter accounts.
Universities and employers have recognized the prevalence of social media in the lives of prospective students or staff members. Recently, they have begun to utilize social media as a tool for performing background checks on their applicants.
According to a 2013 study done by Kaplan Test Prep, high school students applying to universities are under greater online scrutiny than they may know; 31 percent of the 381 college admissions officers who responded to Kaplan’s questionnaire answered that they had visited an applicant’s social media page to acquire insight into his or her background. In 2012, that number was capped at 26 percent. Some admissions officers have rejected an applicant or even rescinded an admission due to inappropriate content they found on that applicant’s social media account.
Whether or not they realize it, students have an easily navigable online footprint that grows each time they post on the Internet.
Many students, especially rising seniors who are mired in the college application process, understand the repercussions that may follow their social media trail.
« I share mostly personal information on social media, but never something I would regret my parents or a college admissions officer seeing, » said rising Acalanes High School senior Zach Kramer. « I think it’s reasonable that colleges screen social media because they have a right to see it just like everyone else does. »
Just because students understand they are under close online scrutiny, however, doesn’t mean they agree with the reality.
« I don’t believe anyone should be judged based off their posts [on social media], » said rising Acalanes senior Sarah Moore. « Somebody could post a weird picture or say something strange on social media, but that doesn’t necessarily mean they’re less qualified or less likely to be academically successful. »
Michael K. McKeon, dean of admissions at Saint Mary’s College offers an insightful rejoinder: « You deserve the consequences if you do something mean or stupid on social media. So if you post pictures of yourself doing drugs or drinking alcohol, or if you are writing something hateful about another human being, if you have adverse consequences, you deserve them. You earned them, and you are going to have to live with them. »
Contrary to popular belief, social media consciousness doesn’t end after graduating from school. A person’s social media footprint can have adverse consequences through retirement.
In December 2013, public relations executive Justine Sacco from the prominent Internet media company InterActive Corp was fired less than 24 hours after posting a racist tweet about AIDS in Africa.
According to Juzer Essabhoy, an executive recruiter at CVPartners, a premier staffing and recruiting agency based in San Francisco and Seattle, social media screening of candidates for employees is common practice in headhunting firms everywhere.
« I use social media for information gathering, » said Essabhoy. « It’s not so much about getting to know people or chatting or those types of things. Much of it is just information that’s displayed. And it all depends on each of the users on each of these sites as to how much information about themselves that they share or not. »
Although Essabhoy generally only uses LinkedIn for a social media database when recruiting prospective employees, many of his headhunter colleagues use sites like Facebook and Twitter just as routinely in their recruitment process.
« I know a lot of my colleagues regularly go in and look at potential candidates’ Facebook pages and Twitter accounts, » said Essabhoy. « We work with a lot of companies who just make it a normal point where, when they get to a later stage of interview, they will enter the person’s name into Facebook to do a background check. »
Essabhoy estimates that currently, about 5 percent of potential employee candidates are disqualified due to inappropriate content posted on their social media. Although that percentage is a relatively small ratio, Essabhoy believes that quota will increase dramatically with the maturation and further popularization of social media in contemporary society.
« As social media continues to get even more mainstream, it’s going to [be] even more important for people to be very judicious in what they are putting out there or what they may have out on more public sites and things that can be viewable by employers, » said Essabhoy.
The best practice in regard to social media is to keep posts clean and appropriate from the start. It’s impossible to track who may share or archive a post, thereby making it immortal, and sanitizing a social media account mired in sin and slander is a tedious and faulty process.
« I never post anything that I know I would regret, » said rising Acalanes senior Katie McCarty. « I make sure everything I do post isn’t too risqué because I know that college admissions officers look at social media accounts and I wouldn’t want to jeopardize my future over a silly picture just for more likes on Facebook. »

http://www.lamorindaweekly.com/archive/issue0813/Big-Brother-is-Watching-Growing-trend-to-monitor-social-media-in-application-process.html

Publicités

Danah Boyd, anthropologue de la génération numérique Ils Feront Le Monde

LE MONDE | 20.08.2014 à 11h26 • Mis à jour le 20.08.2014 à 14h54 | Par Alexandre Léchenet
Danah Boyd.
Danah Boyd. | JEAN-CLAUDE DHIEN POUR LE MONDE

Enfant d’Internet, l’Américaine a fait de cette passion le lieu de ses recherches sur la vie connectée des adolescents.

Au début des années 1990, on disait que le Web était peuplé de freaks, geeks et queers, bref, de gens à la marge. danah boyd, qui a découvert Internet à cette époque, aime à rappeler que c’est l’endroit idéal pour elle, qui est tout cela à la fois. C’est sur Internet que la chercheuse de 37 ans s’est construite à l’adolescence, avant d’en faire son métier. Aujourd’hui, ses études sur la vie connectée des jeunes ont fait de cette anthropologue une universitaire respectée.

Les freaks sont les gens différents. Avec ses mitaines et son piercing sur la langue, elle détonne au milieu de ses pairs enseignants. Cette différence, danah boyd la cultive sur ses papiers d’identité. A 23 ans, elle a officiellement adopté le nom de jeune fille de sa mère, divorcée de son père, puis en a même ôté les majuscules par la suite. Une démarche parmi d’autres pour ajuster le monde à sa manière de voir les choses.

A ceux qui s’étonnent de voir son nom sans majuscules, elle répète, inlassablement : « Non, je n’ai pas oublié de mettre les capitales. Mais je me suis très vite rendu compte que la plupart des gens ne comprennent pas ma décision de ne pas utiliser de majuscules à mon nom. » Et de renvoyer, systématiquement, à une note de son blog où elle détaille les raisons « personnelles et politiques » qui l’ont poussée à faire cela.

Lire aussi : Six clés pour comprendre comment vivent les ados sur les réseaux sociaux

Adolescente dans une ville étriquée, religieuse et conservatrice

Bonne élève, danah boyd ne se sentait pas à sa place à Lancaster, en Pennsylvanie. Pour survivre au lycée étriqué d’une ville « religieuse et conservatrice », elle s’échappe sur les forums de discussion. Elle se souvient particulièrement d’un échange avec un jeune soldat de retour de la guerre du Golfe, alors qu’elle envisageait d’entrer dans l’armée. Ces discussions en ligne vont lui permettre de se découvrir queer. Soit une personne qui ne souhaite pas se voir définie par son sexe, son orientation ou ses pratiques sexuelles. Sur IRC – un service de messagerie instantanée –, elle échange avec une femme transgenre : « Elle m’a permis de lui poser toutes les questions que je voulais, surtout les plus indiscrètes. »

Le premier billet de son blog, ouvert en 1997, rapporte la conversation avec son copain de l’époque, où elle lui explique pourquoi elle est queer. Son blog suit son parcours : aux billets adolescents évoquant les rave parties auxquelles elle participe succèdent des écrits plus universitaires.

J’ai pris conscience que comprendre les adolescents permet de comprendre la technologie »

Le terme « geek » s’applique aux passionnés de science-fiction et d’informatique. Ce qu’elle est aussi, et qui l’amène à suivre des études d’informatique à l’université Brown, dans le Rhode Island, puis au Massachusetts Institute of Technology, à Cambridge. C’est là, au début des années 2000, que danah boyd commence à se pencher sur les réseaux sociaux. Friendster, MySpace, Facebook : suivant les modes, les usagers se déplacent de l’un à l’autre. La chercheuse les étudie en se concentrant sur les utilisateurs les plus jeunes. « J’ai pris conscience que comprendre les adolescents permet de comprendre la technologie », dévoile-t-elle.

En 2007, elle publie une étude sur les adolescents utilisant Facebook et MySpace qui va à l’encontre des clichés traditionnels. Elle démontre que le réseau de Mark Zuckerberg, épuré et blanc, est à l’époque peuplé plutôt par des adolescents blancs et aisés. MySpace, personnalisable et clinquant, est au contraire fréquenté par les enfants des classes populaires et noirs. Son étude est reprise par les médias, et d’autres de ses écrits sont traduits et relayés sur des blogs francophones, des médias en ligne ou des revues de recherche.

Danah Boyd.
Danah Boyd. | JEAN-CLAUDE DHIEN POUR LE MONDE

« Avec la sociologue Eszter Hargittai, elle a été parmi les premières à avoir une voix dissonante sur les adolescents à la fin des années 2000 », dit Elisabeth Clément-Schneider, qui a soutenu une thèse sur la vie en ligne des jeunes, en octobre 2013, à l’université de Caen. « Dans ses travaux, il y a l’idée qu’il ne faut pas se fier aux apparences. En général, on analysait les comportements et on en déduisait des usages. Elle se distingue en montrant que des usages différents existent pour le même comportement. »

Ce travail sur les jeunes et les médias sociaux la mène en 2009 chez Microsoft, au sein du département de recherche de Boston. Depuis le début de ses recherches, danah boyd n’a cessé d’aller à la rencontre des jeunes afin de comprendre leurs usages des nouvelles technologies. Après avoir parcouru pendant plusieurs années les Etats-Unis, l’anthropologue sillonne à nouveau le pays pour présenter cette fois le fruit de ses entretiens, dans un livre dont le titre – It’s Complicated (Yale University Press, 296 pages, 25 dollars, soit environ 18,70 euros) – est un clin d’œil au statut de Facebook décrivant les relations amoureuses ambiguës et compliquées (une traduction sera disponible en septembre aux éditions C&F).

Il faut embrasser la technologie plutôt que la craindre »

Au fil de ses rencontres, elle a acquis une connaissance aiguë des comportements adolescents. Au début de son ouvrage, elle relate qu’après des heures passées avec un jeune pour qu’il lui raconte son utilisation de YouTube celui-ci lui a demandé de parler à sa mère. « Vous avez l’air de mieux comprendre qu’elle. Expliquez-lui que je ne fais rien de mal. » Son livre se veut ainsi un guide pour faire le lien entre les adolescents et leurs parents, afin que ces derniers comprennent leur vie connectée. Vie privée, addiction, harcèlement en ligne, mauvaises rencontres ou selfies sont autant de clichés déconstruits en se fondant sur les utilisations des jeunes. L’auteure prodigue aux adultes un conseil qu’elle s’applique à elle-même depuis longtemps – « Il faut embrasser la technologie plutôt que la craindre » – et tente de rassurer des parents souvent dépassés par les nouveaux sites et applications.

La dernière occasion qu’elle a trouvée d’appliquer cette maxime concerne la vie privée. Sa protection et le respect de la confidentialité sont des éléments-clés dans ses recherches. Elle a ouvert, avec le soutien de Microsoft et de plusieurs fondations, un centre d’action et de réflexion : Data & Society. Entre les révélations sur les écoutes de l’Agence nationale de sécurité américaine et l’apogée du « Big Data », l’analyse massive des données par tous, la structure veut proposer des projets pour s’adapter à un monde imbibé de données. Un défi qui l’enthousiasme.

http://www.lemonde.fr/festival/article/2014/08/20/danah-boyd-anthropologue-de-la-generation-numerique_4473731_4415198.html

Le numérique expliqué à Suzanne et à quelques autres…

Bon, je vais essayer de t’expliquer tout cela. Si tu ne comprends pas tout, ce n’est pas grave, dis-moi « Ah ! » comme tu le fais d’habitude, je recommencerai plus tard.

C’est parce qu’on entend ou lit tellement de sornettes sur le numérique, Suzanne ! Tout d’abord, ne te trompe pas de mots ! N’écoute en aucun cas ceux qui, curieusement encore nombreux, ne cessent, la bouche en cœur et le doigt dans l’œil, de nous parler de « digital » — les sots ne perçoivent même pas le ridicule accompli et monumental de l’anglicisme. Il existe aussi la catégorie de ceux qui prétendent ne pas savoir ce que c’est — « le numérique ? cela ne veut rien dire… », combien de fois a-t-on entendu cette affirmation péremptoire et dédaigneuse dans la bouche même de gens dont c’est justement le métier ? Il y a ceux enfin, toujours en retard d’un train, qui continuent à nier sa dimension paradigmatique en usant, pour en parler, d’autres vocables à la fois réducteurs, abscons et surannés…

Suzanne, je vais donc essayer de te dire ce que le numérique représente pour moi… ce qu’il porte d’espoirs pour toi. Te dire que c’est à la fois simple… et complexe. Je suis certain que tu es capable de comprendre.

Le numérique, c’est d’abord et surtout de l’humain !

Tu vas le comprendre aisément. Le numérique, vois-tu, ce sont des femmes et des hommes qui le mettent en œuvre, qui le vivent au quotidien, qui s’expriment, qui échangent et partagent, le plus souvent de pair à pair, dans des microcosmes multiples qui s’interpénètrent et desquels la figure classique des experts s’efface peu à peu. Ce sont des femmes et des hommes qui portent fièrement leurs opinions à la face du monde et ne craignent pas de les voir contredites ou censurées, même s’ils ont parfois à exercer à ce dernier sujet une grande vigilance. Le numérique, ce sont des valeurs et des attitudes nouvellement renforcées, celles du partage, de la connivence, de la collaboration, de l’amitié, du désir, de la responsabilité, de l’écoute de l’autre, de l’attention à ses préoccupations, de la tolérance… Ce sont encore des libertés, celles de l’expression et de l’opinion, de la création, du choix et des orientations, de nouvelles navigations possibles… Ce sont des droits et des devoirs, de la culture, de la raison enfin… Ah ! la raison !

Le numérique, c’est un nouveau modèle d’humanisme, citoyen, social et politique…

Contrairement à ce que pensent nombre des marchands et des politiques qui nous gouvernent et rêvent d’asservir les citoyens au seul profit de leurs idéologies dépassées, en faisant d’eux des usagers passifs, dociles et consommateurs, tu seras une citoyenne du numérique et de l’Internet, Suzanne, si tu fais confiance à tes parents et si le loup ne te mange pas. Oui, ma Suzanne préférée, tu seras une citoyenne engagée sur le réseau. Tu collaboreras à des projets pour le bien commun et public, au partage des connaissances et des savoirs. Tu t’engageras pour la défense de ces biens culturels communs en défendant comme il convient la création et les auteurs, artistes, plasticiens, écrivains, musiciens… dont tu seras, je l’espère, contre ceux qui abusent et profitent de leur travail.

Oui, Suzanne, en toute conscience et en toute raison, j’en suis certain, tu sauras protéger ta personne, en ce qu’elle a de plus intime, contre ceux qui tentent de l’asservir.

Suzanne

Le numérique, c’est aussi de la culture, la plus complète et transversale possible… pour te  permettre d’exercer ta citoyenneté.

C’est avec tes parents et à l’école que tu devras l’apprendre… Je fais pour cela entièrement confiance en les premiers mais l’école de la République, tu le sais, je t’en ai déjà parlé, tarde à prendre le grand virage… C’est si compliqué pour elle, comprends-la. Pourtant, à l’heure où elle se penche sur la réforme de ses programmes disciplinaires, à l’heure où elle réfléchit aux connaissances et aux compétences nécessaires à la formation d’un jeune citoyen, à la formation qu’elle te devra, Suzanne, il est temps pour elle d’intégrer dans tous les apprentissages la culture numérique transversale minimale et nécessaire. Cette culture numérique doit devenir objet d’enseignement, au-delà des peurs et des fantasmes qu’elle suscite à tort, au-delà des tensions qu’elle fait émerger, au-delà des archaïsmes qu’elle peut mettre en évidence, contre ceux à qui le mot de « culture » fait hérisser le poil.

C’est nécessaire, Suzanne, pour t’exercer à mieux comprendre plus tard et déchiffrer l’information et tous les codes et messages, en particulier ceux des médias, pour mieux éclairer ta réflexion sur le monde et ses évolutions, pour mieux comprendre les enjeux philosophiques, sociétaux, économiques aussi et surtout, pour tout ce qui touche la création des œuvres, quelles qu’elles soient.

C’est nécessaire aussi, Suzanne, pour faire de toi cette jeune citoyenne émancipée et engagée, je le répète, capable de s’adapter sans difficulté aux métiers de demain, dans quelque secteur professionnel que ce soit, dont personne — oui, personne, pas même les prospectivistes les plus pertinents — ne sait ce qu’ils seront !

Le numérique, c’est d’abord de l’humain et de la culture, mais aussi, bien sûr, des technologies, des sciences et de l’économie.

Le numérique croît des sciences qui le mettent en œuvre, dans un domaine multiple et complexe qui s’enrichit d’apports divers, des mathématiques et de l’informatique bien sûr, aux sciences de la communication, à l’algorithmique, la cybernétique, la robotique… et bien d’autres, jusqu’au design même sans oublier les champs nouveaux et vertigineux de l’organisation et du traitement des données. Le numérique, ce sont aussi des technologies sans cesse renouvelées, en perpétuelle évolution, merveilleuses et si prometteuses.

Et c’est aussi un enjeu économique considérable, pour l’emploi, pour le développement, disent les spécialistes. Je veux bien les croire.

Mais le numérique est transversal, définitivement transversal, il touche, éclaire et contribue à rapprocher chacune des disciplines d’enseignement, chacun des champs du savoir et de la culture. C’est bien ce qui embête ceux qui n’y comprennent goutte, ceux qui contribuent à confisquer le débat public au point de le rendre inintelligible, ceux dont j’ai dit qu’ils étaient les néo-obscurantistes de ce nouveau millénaire, ceux qui tentent de nous faire prendre des vessies pour des lanternes et, par exemple, l’enseignement du code — lequel, d’ailleurs ? — pour l’éducation au numérique.

C’est juste pitoyable… et si dérisoire.

Là, Suzanne, je sens que tu décroches  un peu ! As-tu mieux compris ce qu’est le numérique ? C’est déjà gentil de ta part de m’avoir écouté jusqu’au bout, alors que tu préfères d’habitude faire ta propre musique en frappant les touches de ce clavier virtuel, là, sur ma tablette… Rassure-toi, dans quelques mois, quand je te  reparlerai de tout cela, toute cette agitation aura disparu aussi vite qu’elle est venue et il ne restera plus à l’école et à la société qu’à se préoccuper de l’essentiel.

Et puis, Suzanne, bientôt, je te raconterai ce qu’en pensait Socrate. Sois patiente…

Michel Guillou @michelguillou

Naturaliste tombé dans le numérique et l’éducation aux médias… Observateur du numérique éducatif et des médias numériques. Consultant, conférencier. #ovei

http://www.culture-numerique.fr/

Activating Latent Knowledge Capacity

Last week, we wrapped up another successful Learning Analytics Summer Institute at Harvard. The recordings of most of the talks and panels can be found here. Since we were already in town, Dragan Gasevic and I were invited by edX to give a talk to their staff and member institutions (we are running a course on edX in fall on Data, Analytics, & Learning).

The focus for the talk at edX, slides below, was to try and get at what is wrong with MOOCs and education in general. To answer the challenge of “what is wrong with education” it’s helpful to step back a bit and consider two challenges.

1. We aren’t connecting

Historically, society has created knowledge institutions that mirror what is done with information in a particular era – see McNeely & Wolverton. In this line of reasoning, we can best understand the future of education by understanding what is being done with information today. After about a decade of experience with web 2.0, social media, participative technologies, it’s not unreasonable to state that at least a segment of society today recognizes information as multi-authored, participative, distributed, and networked.

In education, many of us have been advocating for networked learning (or as Stephen Downes and I have been articulating it, connectivism). Academic conferences and even the K-12 space has turned to networks as a way to describe what learning is and how it happens. The one draw back to networked learning is that while we have managed to advance conversation on the fragmentation of learning so that it is not a cohesive whole created solely by the instructor, we have not yet advanced the process of centring or stitching together fragmented parts into cohesive wholes for individuals. Some rudimentary progress includes the use of #hashtags to stitch together distributed conversations but this only provides a one medium aggregation. The best implemented model for pulling together multi-platform conversations that I’ve seen to date is Downes’ gRSShopper. That leaves us at a difficult point educationally. Progress has been made on pulling centralized information elements apart (this is particularly evident in media with newspapers or TV news programs – I get the majority of my news in bits and pieces through a mess of different tools and sites), but we haven’t yet developed the technologies that will allow pulling things back together into coherent, personally owned, wholes.

This is no small challenge. In many ways, this is where computing was in two separate phases: pre-Microsoft Office and pre-Facebook. I remember when I used to work with distinct software tools like Quattro and WordPerfect (before they were owned by one company). Moving data between different software was a pain. MS came along and blessed society with Office – an integrated suite. It pulled together what I used to do in several different tools. Facebook plays a similar integrative role for participative technologies. For people who had been blogging since late 1990′s or early 2000′s, Facebook wasn’t of much value. Between flickr, del.icio.us, blogs, RSS readers, and wikis, we were living the distributed, networked, learning dream. Unfortunately, only a small percentage of society wants to deal with a range of 10 different tools. Ease of use and low-barrier to entry rules the day. Facebook allowed anyone to start sharing images, ideas, and form social networks and to do so in a single tool with similar functionality across different activities. My social network used to consist of the people in my RSS reader. Facebook made connecting easy and they were rewarded as a billion+ people joined. The key lesson here is that integrative technologies, in spite of the current app trend, draw greater numbers of users than single functionality tools.

The importance of integrative toolsets for learners cannot be overlooked. It is unreasonable to expect a learner to care about the same issues that an instructor of a participatory course cares about. While concerns of access, participation, and equity might be important to me, a learner may well enter a course with the primary goal of learning a skill or concept. My values may not be her values.

2. Latent Capacity

Technology cannot be reduced to a single narrative or outcome. While “web 2.0″, as a term, symbolized participation and collaboration, it is really a multi-narrative strand where some people were enabled and others were shut out, some were given a platform and others lost a platform, some connected with their readers/fans and others were exposed as [insert label] to their fans/readers. There are many narratives to describe the tools that today define how people interact. I have been grappling with understanding the prominent or even dominant impact of technology – i.e. what is one aspect of technology that is most pronounced and most misunderstood? Keeping in mind that a single narrative has shortcomings, I’ll argue that activation of latent capacity is the driving element of every successful technology of the past 15 years. Uber uses latent car capacity. Airbnb, latent physical space capacity. Twitter/Facebook, activate multiple latent capacities: sharing, social connections, and images. The Arab Spring, now sadly turned into a rather harsh winter, and Occupy Wall Street activate the latent power capacity of individuals. A system of control and oppression can be challenged when people take up their power, their voice.

In education exists the most substantive latent capacity in society. A classroom consists of 30 (or sometimes 300) people listening to a teacher teach. The knowledge and creative capacity of any class is stunning. Unfortunately, this knowledge is latent as the system has been architected, much like a dictatorship, to give control to one person. In many cases, students have become so accustomed to being “taught” that they are often unable, at first, to share their knowledge capacity. This is an experience that I have had in every MOOC that I’ve taught. The emphasis in MOOCs that I’ve been involved with is always on learners taking control, learners joining a network, or learners becoming creators. In a Pavolovian sense, many learners find this process disorienting and uninviting. We have been taught, after a decade+ of formal schooling, to behave and act a certain way. When someone encourages a departure from those methods, the first response is confusion, distrust or reluctance.

I’ll call my theory of knowledge and learning “100 people in a room”. If we put 100 people in a room, the latent knowledge capacity of that room in enormous. Everyone in this room has different life experiences, hobbies, interests, and knowledge. We could teach each other math, physics, calculus. We could teach poetry, different languages, and political theory. The knowledge is there, but it is disconnected and latent. Much of that knowledge is latent for two reasons: 1) We don’t know what others know, 2) connections aren’t made because we are not able with our current technologies to enable everyone to speak and be heard.

Personal Knowledge Graph

To address these shortcomings, I’ve been arguing for the development of something like a Personal Knowledge Graph (PKG). The main idea is that learners need a way to express and articulate what they know. This can be done through someone explicitly stating “I know this” or it could be mined or inferred. Learners need to own their PKG but it should be shareable with schools, companies, and peers.

Once we know what people know, we have a chance to activate latent knowledge through social and technological approaches. The work that Dragan Gasevic has done with his doctoral students indicates that learners begin to use hashtags as a cognitive agent. In some cases, a hashtag becomes a more important agent than a faculty member. In other instances, recommender systems could connect individuals who have complimentary and/or opposing knowledge graphs. This leads to new pedagogical models and changing roles for universities, notably a transition from spraying the same content to all learners to a more nuanced (knowledge gap filling?) approach.

Education is approaching where the web was in mid-2000′s – a growing range of technologies providing certain opportunities for learning and interaction, but largely fragmented. Education is waiting for it’s latent capacity activating tool, or at minimum, a means of giving each learner the ability to stitch together a coherent interpretation of a knowledge domain. Of course we need feedback loops and systems of recognition. It is not enough that I state I know something. Peers, faculty, and employers should be able to comment on my claims and I should be able to provide evidence. When I do not understand a concept correctly, there should be processes for correction.

If, when, education begins to focus on activating the knowledge of individuals rather than primarily focusing on single point knowledge pontification, new concerns will arise. For example, how can creativity be encouraged when learners receive personalized content addressing knowledge gaps? What happens to formal assessment? What role does expertise play in a room of 100 knowledgeable people? The transitions underway in society, in knowledge, and in universities, are long term and won’t be played out in the next few years. It’s a decades long transition. But it is important to begin challenging legacy assumptions and start considering, however imperfect our ability to see it today, what an education system looks like when we activate latent capacities of all participants.

This was written by gsiemens. Posted on Saturday, July 5, 2014, at 12:53 pm. http://www.elearnspace.org/blog/2014/07/05/activating-latent-knowledge-capacity/

Au-delà de l’espionnage technologique

Mise en données du monde, le déluge numérique

Amitiés, pensées, échanges, déplacements : la plupart des activités humaines donnent désormais lieu à une production massive de données numérisées. Leur collecte et leur analyse ouvrent des perspectives parfois enthousiasmantes qui aiguisent l’appétit des entreprises. Mais la mise en données du monde risque aussi de menacer les libertés, comme le montre le tentaculaire programme de surveillance conduit aux Etats-Unis.

par Kenneth Cukier et Viktor Mayer-Schönberger, juillet 2013

Au IIIe siècle avant notre ère, on disait de la bibliothèque d’Alexandrie qu’elle renfermait la totalité du savoir humain. De nos jours, la masse d’informations disponibles est telle que, si on la répartissait entre tous les Terriens, chacun en recevrait une quantité trois cent vingt fois supérieure à la collection d’Alexandrie : en tout, mille deux cents exaoctets (milliards de milliards d’octets). Si on enregistrait le tout sur des CD, ceux-ci formeraient cinq piles capables chacune de relier la Terre à la Lune.

L’hyperinflation des données est un phénomène relativement nouveau. En 2000, un quart seulement des informations consignées dans le monde existaient au format numérique. Papier, film et support analogique se partageaient tout le reste. Du fait de l’explosion des fichiers — leur volume double tous les trois ans —, la situation s’est renversée dans des proportions inouïes. En 2013, le numérique représente plus de 98 % du total. Les Anglo-Saxons ont forgé un terme pour désigner cette masse devenue si gigantesque qu’elle menace d’échapper au contrôle des gouvernants et des citoyens : les big data, ou données de masse.

Devant leur démesure, il est tentant de ne les appréhender qu’en termes de chiffres. Mais ce serait méconnaître le cœur du phénomène : l’immense gisement de données numériques découle de la capacité à paramétrer des aspects du monde et de la vie humaine qui n’avaient encore jamais été quantifiés. On peut qualifier ce processus de « mise en données » (datafication). Par exemple, la localisation d’un lieu ou d’une personne a d’abord été mise en données une première fois par le croisement de la longitude et de la latitude, puis par le procédé satellitaire et numérique du Global Positioning System (GPS). A travers Facebook, même les goûts personnels, les relations amicales et les « j’aime » se changent en données gravées dans la mémoire virtuelle. Il n’est pas jusqu’aux mots qui ne soient eux aussi traités comme des éléments d’information depuis que les ordinateurs explorent des siècles de littérature mondiale numérisée.

Les bases ainsi constituées se prêtent à toutes sortes d’usages étonnants, rendus possibles par une mémoire informatique de moins en moins coûteuse, des processeurs toujours plus puissants, des algorithmes toujours plus sophistiqués, ainsi que par le maniement de principes de base du calcul statistique. Au lieu d’apprendre à un ordinateur à exécuter une action, comme conduire une voiture ou traduire un texte — objectif sur lequel des cohortes d’experts en intelligence artificielle se sont cassé les dents durant des décennies —, la nouvelle approche consiste à le gaver d’une quantité d’informations suffisante pour qu’il déduise la probabilité qu’un feu de circulation soit vert plutôt que rouge à chaque instant, ou dans quel contexte on traduira le mot anglais light par « lumière » plutôt que par « léger ».

Pareil usage suppose trois changements majeurs dans notre approche. Le premier consiste à recueillir et à utiliser le plus grand nombre possible d’informations plutôt que d’opérer un tri sélectif comme le font les statisticiens depuis plus d’un siècle. Le deuxième implique une certaine tolérance à l’égard du désordre : mouliner des données innombrables, mais de qualité inégale, s’avère souvent plus efficace qu’exploiter un petit échantillon impeccablement pertinent. Enfin, le troisième changement implique que, dans de nombreux cas, il faudra renoncer à identifier les causes et se contenter de corrélations. Au lieu de chercher à comprendre précisément pourquoi une machine ne fonctionne plus, les chercheurs peuvent collecter et analyser des quantités massives d’informations relatives à cet événement et à tout ce qui lui est associé afin de repérer des régularités et d’établir dans quelles circonstances la machine risque de retomber en panne. Ils peuvent trouver une réponse au « comment », non au « pourquoi » ; et, bien souvent, cela suffit.

Google et l’algorithme de la grippe

De même qu’Internet a bouleversé les modes de communication entre individus, la manière dont la société traite l’information se trouve radicalement transformée. Au fur et à mesure que nous exploitons ces gisements pour élucider des faits ou prendre des décisions, nous découvrons que, à bien des égards, nos existences relèvent de probabilités davantage que de certitudes.

Ce changement d’approche à l’égard des données numériques — exhaustives et non plus échantillonnées, désordonnées et non plus méthodiques — explique le glissement de la causalité vers la corrélation. On s’intéresse moins aux raisons profondes qui président à la marche du monde qu’aux associations susceptibles de relier entre eux des phénomènes disparates. L’objectif n’est plus de comprendre les choses, mais d’obtenir une efficacité maximale.

Prenons l’exemple de United Parcel Service (UPS), la plus grande compagnie mondiale de livraison. Elle a installé des capteurs sur certaines pièces de ses véhicules pour identifier les problèmes de surchauffe ou de vibration corrélés aux défaillances que ces pièces ont présentées par le passé. En procédant ainsi, elle peut anticiper la panne et remplacer les pièces défectueuses au garage plutôt que sur le bord de la route. Les données n’identifient pas le lien de causalité entre augmentation de la température et dysfonctionnement de la pièce ; elles ne diagnostiquent pas la source du problème. En revanche, elles indiquent à UPS la marche à suivre pour prévenir des incidents coûteux.

La même approche peut s’appliquer aux défaillances de la machinerie humaine. Au Canada, des chercheurs ont ainsi trouvé le moyen de localiser les infections chez les bébés prématurés avant que les symptômes visibles n’apparaissent. En créant un flux de plus de mille données par seconde, combinant seize indicateurs, parmi lesquels le pouls, la tension, la respiration et le niveau d’oxygène dans le sang, ils sont parvenus à établir des corrélations entre des dérèglements mineurs et des maux plus sérieux. Cette technique devrait permettre aux médecins d’intervenir en amont pour sauver des vies. Au fil du temps, l’enregistrement de ces observations pourrait également les aider à mieux comprendre ce qui provoque de telles infections. Cependant, lorsque la vie d’un nourrisson est en jeu, il est plus utile d’anticiper ce qui pourrait se produire que de savoir pourquoi.

L’application médicale illustre bien cette possibilité d’identifier des corrélations, même lorsque les causes qui les sous-tendent demeurent obscures. En 2009, des analystes de Google ont publié dans la revue Nature un article qui a fait sensation dans les milieux médicaux (1). Ses auteurs affirmaient qu’il était possible de repérer les foyers de grippe saisonnière à partir des archives du géant de l’Internet. Celui-ci gère pas moins d’un milliard de requêtes par jour sur le seul territoire américain, et conserve scrupuleusement trace de chacune de ces opérations. Il a sélectionné les cinquante millions de termes les plus fréquemment saisis sur son moteur de recherche entre 2003 et 2008, puis les a croisés avec le fichier de la grippe des centres pour le contrôle et la prévention des maladies (Centers for Disease Control and Prevention, CDC). Objectif : découvrir si la récurrence de certains mots-clés coïncidait avec les apparitions du virus ; en d’autres termes, évaluer la possible corrélation entre la fréquence de certaines recherches sur Google et les pics statistiques enregistrés par les CDC sur une même zone géographique. Ceux-ci recensent notamment les consultations hospitalières des malades de la grippe à travers tout le pays, mais ces chiffres brossent un tableau souvent en décalage d’une semaine ou deux : une éternité dans le contexte d’une pandémie. Google, lui, peut fournir des statistiques en temps réel.

La société ne disposait d’aucun élément pour deviner quels mots-clés pouvaient fournir une indication probante. Elle s’est contentée de soumettre tous ses échantillons à un algorithme conçu pour calculer leur corrélation avec les attaques du virus. Son système a ensuite combiné les termes retenus pour tenter d’obtenir le modèle le plus fiable. Après cinq cents millions d’opérations de calcul, Google est parvenu à identifier quarante-cinq mots-clés — comme « mal de tête » ou « nez qui coule » — dont la réitération recoupait les statistiques des CDC. Plus leur fréquence était grande sur une zone donnée, plus le virus faisait de ravages sur ce même périmètre. La conclusion peut paraître évidente mais, à raison d’un milliard de recherches par jour, il aurait été impossible de l’établir par d’autres moyens.

Les informations traitées par Google étaient pourtant imparfaites. Dans la mesure où elles avaient été saisies et stockées à bien d’autres fins que l’altruisme sanitaire, fautes de frappe et phrases incomplètes pullulaient. Mais la taille colossale de la banque de données a largement compensé sa nature brouillonne. Ce qui en ressort n’est qu’une simple corrélation. Elle ne livre aucun indice sur les raisons qui ont poussé l’internaute à effectuer sa recherche. Etait-ce parce qu’il avait la fièvre lui-même, parce qu’on lui avait éternué au visage dans le métro, ou encore parce que le journal télévisé l’avait rendu anxieux ? Google n’en sait rien, et peu lui chaut. Il semble d’ailleurs qu’en décembre dernier son système ait surestimé le nombre de cas de grippe aux Etats-Unis. Les prévisions ne sont que des probabilités, jamais des certitudes, surtout lorsque la matière qui les alimente — des recherches sur Internet — est de nature aussi mouvante et vulnérable aux influences, en particulier médiatiques. Reste que les données de masse peuvent identifier des phénomènes en cours.

Nombre de spécialistes assurent que leur utilisation remonte à la révolution numérique des années 1980, lorsque la montée en puissance des microprocesseurs et de la mémoire informatique a rendu possibles le stockage et l’analyse de données toujours plus pléthoriques. Ce n’est vrai qu’en partie. Les progrès technologiques et l’irruption d’Internet ont certes contribué à réduire les coûts de la collecte, du stockage, du traitement et du partage des informations. Mais les données de masse constituent surtout la dernière manifestation en date de l’irrépressible désir humain de comprendre et de quantifier le monde. Pour sonder la signification de cette étape nouvelle, il faut jeter un regard de côté — ou plutôt, vers le bas.

Koshimizu Shigeomi est professeur à l’Institut avancé de technologie industrielle de Tokyo. Sa spécialité consiste à étudier la manière dont ses contemporains se tiennent assis. C’est un champ d’études peu fréquenté, et pourtant riche d’enseignements. Lorsqu’un individu pose son postérieur sur un support quelconque, sa posture, ses contours et la distribution de sa masse corporelle constituent autant d’informations quantifiables et analysables. Grâce à des capteurs placés sur un siège d’automobile, Koshimizu et son équipe d’ingénieurs ont mesuré la pression exercée par le fessier du conducteur sur un réseau de trois cent soixante points, chacun indexé sur une échelle de zéro à deux cent cinquante-six. Les données ainsi recueillies permettent de composer un code numérique propre à chaque être humain. Un test a démontré que son système permettait d’identifier une personne avec une précision de 98 %.

Ces travaux sont moins saugrenus qu’il n’y paraît. L’objectif de Koshimizu est de trouver une application industrielle pour sa découverte, par exemple un système antivol pour l’industrie automobile. Une voiture équipée de ces capteurs fessiers pourrait reconnaître son propriétaire et exiger de tout autre conducteur un mot de passe avant de démarrer. La transformation d’une paire de fesses en un bouquet de données numériques représente un service appréciable et une affaire potentiellement lucrative. Elle pourrait d’ailleurs servir à d’autres fins que la protection du droit de propriété sur un véhicule : par exemple éclairer le lien entre la posture de l’automobiliste et la sécurité routière, entre sa gestuelle au volant et le risque qu’il provoque un accident. Les capteurs pourraient aussi déclencher une alerte ou un freinage automatique lorsque le conducteur s’assoupit au volant.

Prévention des incendies à New York

Koshimizu s’est emparé d’un objet qui n’avait encore jamais été traité comme une donnée, ni même perçu comme recelant le moindre intérêt en termes d’information, pour le convertir en un format numériquement quantifié. La mise en données désigne autre chose que la numérisation, laquelle consiste à traduire un contenu analogique — texte, film, photographie — en une séquence de 1 et de 0 lisible par un ordinateur. Elle se réfère à une action bien plus vaste, et aux implications encore insoupçonnées : numériser non plus des documents, mais tous les aspects de la vie. Les lunettes élaborées par Google — équipées d’une caméra, d’un micro et connectées à Internet — changent notre regard en données ; Twitter met en données nos pensées ; LinkedIn fait de même avec nos relations professionnelles.

A partir du moment où une chose subit ce traitement, il est possible de changer son usage et de transformer l’information qu’elle recèle en une nouvelle forme de valeur. IBM, par exemple, a obtenu en 2012 un brevet pour la « sécurisation de bureaux par une technologie informatique de surface » : une formule savamment absconse pour désigner un revêtement de sol équipé de récepteurs, à la manière d’un écran de smartphone que l’on actionnerait avec les pieds. La mise en données du sol ouvre toutes sortes de perspectives. Votre plancher pourrait réagir à votre présence, déclencher l’allumage de la lumière lorsque vous rentrez chez vous, identifier un visiteur à partir de son poids ou de sa manière de bouger. Il pourrait sonner l’alarme lorsque quelqu’un fait une chute et ne se relève pas — une application susceptible d’intéresser les personnes âgées. Les commerçants pourraient suivre le cheminement de leurs clients dans leur boutique. A mesure que toute activité humaine devient enregistrable et exploitable, on en apprend davantage sur le monde. On apprend ce qu’on n’aurait jamais pu apprendre auparavant, faute d’outils commodes et accessibles pour le mesurer.

M. Michael Bloomberg a fait fortune dans l’industrie des données numériques. Il n’est donc pas étonnant que la ville de New York, dont il est le maire, les utilise pour renforcer l’efficacité des services publics et, surtout, pour en diminuer le coût. La stratégie de prévention de la ville contre les incendies fournit un bon exemple de cette démarche.

Les immeubles illégalement sous-divisés en parts locatives présentent plus de risques que les autres de partir en flammes. New York enregistre chaque année vingt-cinq mille plaintes pour des bâtisses surpeuplées, mais ne compte que deux cents inspecteurs pour y répondre. A la mairie, une petite équipe d’analystes s’est penchée sur le problème. Afin d’atténuer le déséquilibre entre besoins et ressources, elle a créé une banque de données recensant les neuf cent mille bâtiments de la ville, complétée par les indicateurs de dix-neuf agences municipales : liste des exemptions fiscales, utilisation irrégulière des équipements, coupures d’eau ou d’électricité, loyers impayés, rotations d’ambulances, taux de délinquance, présence de rongeurs, etc. Les analystes ont ensuite tenté de dresser des correspondances entre cette avalanche d’informations et les statistiques relatives aux incendies survenus en ville au cours des cinq années précédentes. Sans surprise, ils ont établi que le type de bâtiment et sa date de construction jouaient un rôle important dans son exposition aux incendies. Plus inattendue a été la découverte que les immeubles ayant obtenu un permis pour des travaux de ravalement extérieurs présentaient nettement moins de risques d’incendie.

Le croisement de ces données a permis à l’équipe municipale d’élaborer un schéma susceptible de déterminer les critères en fonction desquels une plainte pour surpopulation nécessitait une attention particulière. Aucune des caractéristiques retenues par les analystes ne peut être considérée en soi comme une cause d’incendie ; mises bout à bout, elles sont pourtant étroitement corrélées avec un risque accru de départ de feu. Cette trouvaille a fait la joie des inspecteurs new-yorkais : alors que, par le passé, 13 % seulement de leurs visites donnaient lieu à un ordre d’évacuation, la proportion a grimpé à 70 % après l’adoption de la nouvelle méthode.

Les données de masse peuvent aussi contribuer à plus de transparence dans la vie démocratique. Un vaste mouvement s’est formé autour de la revendication d’ouverture des données publiques (open data), laquelle va au-delà d’une simple défense de la liberté d’information. Il s’agit de faire pression sur les gouvernements pour qu’ils rendent accessibles à tous les montagnes de données qu’ils ont accumulées — du moins celles qui ne relèvent pas du secret d’Etat. Les Etats-Unis se montrent plutôt en pointe dans ce domaine, avec la mise en ligne des archives de l’administration fédérale (expurgées de leurs éléments sensibles) sur le site Data.gov. D’autres pays leur emboîtent le pas.

A mesure que les Etats promeuvent l’utilisation des données de masse, une nécessité se fait jour : la protection des citoyens contre la prédominance de certains acteurs du marché. Des compagnies comme Google, Amazon ou Facebook — auxquelles il faut ajouter le milieu plus discret mais non moins redoutable des « courtiers de données », comme Acxiom ou Experian — amassent jour après jour des quantités colossales d’informations sur n’importe qui et n’importe quoi. Il existe des lois qui interdisent la constitution de monopoles dans l’industrie des biens et des services, tels que les logiciels ou les médias. Cet encadrement porte sur des secteurs relativement faciles à évaluer. Mais comment appliquer la législation antimonopoles à un marché aussi insaisissable et mutant ? Une menace pèse donc sur les libertés individuelles. Et ce d’autant plus que plus les données s’amassent, plus leur utilisation sans le consentement des personnes qu’elles concernent devient probable. Une difficulté que le législateur et la technologie paraissent incapables de résoudre.

Les tentatives pour mettre en place une forme de régulation du marché pourraient conduire à une foire d’empoigne sur la scène internationale. Les gouvernements européens ont commencé à réclamer des comptes à Google, dont la position dominante et le mépris pour la vie privée suscitent une certaine inquiétude, un peu à l’image de la société Microsoft, qui s’était attiré les foudres de la Commission européenne il y a dix ans. Facebook aussi pourrait se retrouver dans le collimateur judiciaire de plusieurs pays, en raison de la quantité astronomique de données qu’il détient sur ses usagers. La question de savoir si les flux d’informations doivent bénéficier des lois encadrant le libre-échange laisse augurer quelques âpres batailles entre diplomates. Si la Chine persiste à censurer l’utilisation des moteurs de recherche sur Internet, on peut imaginer qu’elle soit un jour ou l’autre poursuivie par une juridiction internationale, non seulement pour violation de la liberté d’expression, mais aussi, et peut-être surtout, en raison des entraves qu’elle impose au commerce.

En attendant que les Etats apprennent à considérer les libertés individuelles comme un bien digne d’être protégé, l’industrie des données de masse réactualise en toute quiétude la figure de Big Brother. En juin 2013, les journaux du monde entier ont révélé que M. Edward Snowden avait rendu publiques des informations concernant les activités de surveillance de son employeur : la National Security Agency (NSA), principale agence de renseignement américaine. Outre les télécommunications, étaient concernés les requêtes sur les moteurs de recherche, les messages publiés sur Facebook, les conversations sur Skype, etc. Les autorités américaines ont expliqué que les données, collectées avec l’aval de la justice, ne concernaient que des individus « suspects ». Mais, comme toutes les activités de la NSA demeurent secrètes, nul n’est en mesure de le vérifier.

L’affaire Snowden souligne le pouvoir des Etats dans le domaine des données. Les collecteurs-exploitants de données numériques menacent en effet de générer une nouvelle forme de totalitarisme, pas si éloignée des sombres fantaisies de la science-fiction. Sorti en 2002, le film Minority Report, adapté d’une nouvelle de Philip K. Dick, imagine la dystopie d’un monde futur régi par la religion de la prédiction. Le héros, interprété par Tom Cruise, dirige une unité de police capable d’arrêter l’auteur d’un crime avant même que celui-ci soit commis. Pour savoir où, quand et comment ils doivent intervenir, les policiers recourent à d’étranges créatures dotées d’une clairvoyance supposée infaillible. L’intrigue met au jour les erreurs d’un tel système et, pis encore, sa négation du principe même de libre arbitre.

Identifier des criminels qui ne le sont pas encore : l’idée paraît loufoque. Grâce aux données de masse, elle est désormais prise au sérieux dans les plus hautes sphères du pouvoir. En 2007, le département de la sécurité intérieure — sorte de ministère de l’antiterrorisme créé en 2003 par M. George W. Bush — a lancé un projet de recherche destiné à identifier les « terroristes potentiels », innocents aujourd’hui mais à coup sûr coupables demain. Baptisé « technologie de dépistage des attributs futurs » (Future Attribute Screening Technology, FAST), le programme consiste à analyser tous les éléments relatifs au comportement du sujet, à son langage corporel, à ses particularités physiologiques, etc. Les devins d’aujourd’hui ne lisent plus dans le marc de café, mais dans les logiciels de traitement des données (2). Dans nombre de grandes villes, telles que Los Angeles, Memphis, Richmond ou Santa Cruz, les forces de l’ordre ont adopté des logiciels de « sécurisation prédictive », capables de traiter les informations sur des crimes passés pour établir où et quand les prochains pourraient se produire. Pour l’instant, ces systèmes ne permettent pas d’identifier des suspects. Mais il ne serait pas surprenant qu’ils y parviennent un jour.

Redécouvrir les vertus de l’imprévisibilité

Il arrive cependant que les dirigeants américains se mordent les doigts d’avoir tout misé sur l’infaillibilité des chiffres. Ministre de la défense sous les présidences de John Kennedy et de Lyndon Johnson, Robert McNamara ne jurait que par les statistiques pour mesurer les exploits de ses troupes au Vietnam (lire « Tout savoir sans rien connaître »). Avec son équipe, il scrutait la courbe du nombre d’ennemis éliminés. Transmis aux commandants à titre de réprimande ou d’encouragement, diffusé quotidiennement dans les journaux, le comptage des Vietcongs morts devint la donnée cardinale d’une stratégie et le symbole d’une époque. Aux partisans de la guerre, il donnait l’assurance que la victoire était proche. Aux opposants, il apportait la preuve que la guerre était une infamie. Mais les chiffres étaient souvent erronés et sans rapport avec la réalité du terrain. On ne peut que se réjouir lorsque l’interprétation des données améliore les conditions de vie de nos contemporains, mais elle ne devrait pas conduire à remiser son sens commun…

A l’avenir, c’est par elle que va passer toujours davantage, pour le meilleur ou pour le pire, la gestion des grands problèmes planétaires. Lutter contre le réchauffement climatique, par exemple, impose de réunir toutes les informations disponibles sur les phénomènes de pollution, afin de localiser les zones où intervenir en priorité. En disposant des capteurs tout autour de la planète, y compris dans les smartphones de millions d’usagers, on permet aux climatologues d’échafauder des modèles plus fiables et plus précis.

Mais, dans un monde où les données de masse orientent de plus en plus étroitement les pratiques et les décisions des puissants, quelle place restera-t-il au commun des mortels, aux réfractaires à la tyrannie numérique ou à quiconque marche à contre-courant ? Si le culte des outils technologiques s’impose à chacun, il se peut que, par contrecoup, l’humanité redécouvre les vertus de l’imprévisibilité : l’instinct, la prise de risques, l’accident et même l’erreur. Pourrait alors se faire jour la nécessité de préserver un espace où l’intuition, le bon sens, le défi à la logique, les hasards de la vie et tout ce qui compose la substance humaine tiendront tête aux calculs des ordinateurs.

De la fonction attribuée aux données de masse dépend la survie de la notion de progrès. Elles facilitent l’expérimentation et l’exploration, mais elles se taisent quand apparaît l’étincelle de l’invention. Si Henry Ford avait interrogé des algorithmes informatiques pour évaluer les attentes des consommateurs, ils lui auraient probablement répondu : « Des chevaux plus rapides. »

Kenneth Cukier et Viktor Mayer-Schönberger

Respectivement journaliste et professeur à l’université d’Oxford, auteurs de Big Data : A Revolution That Will Transform How We Live, Work, and Think, Houghton Mifflin Harcourt, Boston, 2013.

http://www.monde-diplomatique.fr/2013/07/CUKIER/49318

The Internet’s Own Boy

 

Téléchargement, Culture par Olivier Ertzscheid

Le téléchargement illégal est positif et Aurélie Filippetti n’y a rien compris

http://www.slate.fr/tribune/73707/redlist-telechargement