“Maintenir les principes [du droit d'auteur] en les adaptant”. C’est la philosophie de la mission confiée par le gouvernement à Pierre Lescure, qui a fait en fin de matinée un très chic rapport d’étape [PDF] dans les salons du ministère de la Culture, en présence de sa locataire, Aurélie Filippetti.
Le point presse, révélé dans ses grandes largeurs quelques heures plus tôt sur le site du Monde, était surtout destiné à occuper le terrain dans un agenda gouvernemental chargé sur les questions numériques : les conclusions sur le rapprochement du CSA et de l’Arcep devrait arriver “dans les prochains jours” a indiqué la ministre, suivies de près par celles du rapport dit “Colin et Collin” sur la fiscalité numérique.
L’occasion pour la ministre et son chargé de mission de rappeler, badges officiels vissés sur le cœur, leurs priorités pour un “Acte 2 de l’exception culturelle”. Mais aussi de commencer à ruer dans les brancards. Seule annonce véritable de la matinée, Pierre Lescure a en effet fait part de son intention de “revenir sur certains statuts, dont celui des hébergeurs”.
Et par hébergeurs, il fallait en fait entendre Google : la mission Lescure s’inscrit pleinement dans la guerre que mène le gouvernement français à l’encontre du géant du web, dans un objectif de reconquête de sa “souveraineté numérique”. Une souveraineté qui doit également être “culturelle” a signalé le fondateur de Canal +, déclarant :
Quand l’hébergeur a un service comme YouTube et qu’il recommande des choses à l’utilisateur, il est plus qu’un hébergeur.
Interrogé sur une éventuelle incompatibilité avec le droit européen, qui fait autorité en la matière, Pierre Lescure a indiqué que “l’Europe n’a pas toujours raison” et qu’elle “peut évoluer”. Sans en dire davantage sur les modalités concrètes de cette évolution du régime de responsabilité des hébergeurs, véritable serpent de mer du secteur. Ce qui est sûr, c’est que la mission souhaite “responsabiliser” davantage ces acteurs, qui ne peuvent être considérés comme des “tuyaux neutres”. Pour pourquoi pas, aussi, mieux les taxer, même si l’ancien boss de Canal s’est défendu de vouloir mettre en place “le meilleur système “ permettant d’y parvenir.
Contacté par Owni, Google n’a pour le moment pas répondu à nos sollicitations.
Sur les autres orientations de la mission, mise en place d’une offre légale et lutte contre la contrefaçon, le temps a surtout été à la répétition.
Pierre Lescure a plaidé une nouvelle fois pour une offre légale made in France, en particulier dans le cinéma, où les tarifs, la diversité des catalogues et la chronologie des médias actuelle laissent encore à désirer.
Évidemment, pas un mot ou presque sur Hadopi, avec laquelle Pierre Lescure assure néanmoins travailler en bonne intelligence. En matière de défense de la propriété intellectuelle en ligne, outre la responsabilisation des hébergeurs, il indique vouloir agir de manière plus globale, en “luttant contre les sites illégaux en amont” et en “tarissant leurs sources de financement”.
La mission a par ailleurs confirmé son intention de ne pas aller vers une légalisation des échanges non marchands, “via une ‘licence globale’ ou une ‘contribution créative’”, soulignant que cette mesure “fait l’objet d’un rejet assez général”. Le collectif de la Quadrature du Net et l’UFC Que Choisir, favorables à ce mécanisme, déclaraient fin septembre leur intention de boycotter la mission.
La mission poursuivra ses auditions jusqu’à fin décembre. Ce sera alors l’heure de la réflexion et de l’émission de propositions concrètes. “Entre nous” a précise Pierre Lescure, qui dit néanmoins veiller à l’écoute des différentes voix de la culture et du numérique. Un remue-méninges qui devrait durer “deux à deux mois et demi” avant la confrontation publique.
Pour le moment, le bilan semble bon : la presse (Le Monde ou Libération ce jour) salue par exemple l’effort de consultation, face aux “simulacres” de discussions des “missions Olivennes ou Zelnik lancées sous l’ère Sarkozy, qui ont surtout masqué des décisions prises d’avance (Hadopi en tête)”. Mais au-delà de l’intention, restent à voir les arbitrages concrets et la manière dont le gouvernement tranchera (ou pas) les “contradictions” observées par Pierre Lescure dans un bouillon de culture toujours aussi agité.
]]>“Cette année, la campagne s’est jouée sur Internet”. Effet de bord des “buzz” et autres “clashs” politiques 2.0, la formule est désormais une tarte à la crème des élections. De la présidentielle à la nomination d’un chef de clan, chaque rendez-vous du genre est censé marquer l’avènement d’une nouvelle approche politicienne du Net, forcément plus fine et plus adéquate – sans que les faits suivent vraiment le discours.
Le marronnier a explosé après 2008, et la campagne très web-friendly de Barack Obama, dont commentateurs et politiques de tout pays — la France en tête — se seraient inspirés avec plus ou moins de succès. Quatre ans plus tard, le bruit se fait moins entendre. Pourtant, la campagne américaine s’est jouée plus que jamais sur Internet. Ou plus exactement en son cœur. C’est moins visible mais autrement plus impressionnant. Et efficace.
The Atlantic explique ainsi dans une longue enquête comment l’infrastructure du Net a été mieux considérée et exploitée par l’équipe de campagne d’Obama en 2012.
Contrairement à l’épisode précédent, celle-ci est allée chercher des techniciens de réseau. Une quarantaine d’ingénieurs, de “nerds”, comme ironise le magazine américain, qui ont “bâti la technologie dont ils avaient besoin pour faire réélire le Président”. Des mecs “de Twitter, Google, Facebook, Craigslist, Quora” détaille entre autres The Atlantic, dont les portraits viennent renforcer l’imaginaire geek : grosses lunettes, barbe fournie et belle bedaine.
Autoportrait d'Harper Reed, style Obama par Obey (CC by nc nd)
Il suffit de jeter un œil au chef de cette e-brochette pour comprendre : Harper Reed, codeur binoclard à moustache rousse et ancien directeur technique de Threadless, un site de vente de tee-shirts et goodies geeks – les amateurs reconnaîtront.
“Il soutient l’open source. Aime le Japon. Dit ‘fuck’ sans arrêt. Va dans des bars de hipsters qui servent de la nourriture végétarienne mexicaine, où le quart des employés et des clients ont des moustaches. [...] Il est ce à quoi un roi des nerds pourrait ressembler”, décrit The Atlantic. Et Reed de conclure sur son site personnel qu’il est :
Probablement l’un des mecs les plus cools de la Terre
Bref, drôle d’attelage au sein du bestiaire politique. Pour un résultat pourtant édifiant : la mise en place d’un panel d’outils informatiques dont le clou du spectacle, “Narwhal” (“Narval” en français), permettait de brasser en temps réel toutes les informations disponibles sur la campagne, les votants et les bénévoles. Une plate-forme d’organisation et de communication gigantesque, mise à disposition de l’équipe d’Obama. Face à cette baleine unicorne, le camp républicain avait choisi de déployer “Orca” (“Orque” en français), car, explique The Atlantic qui cite les soutiens de Mitt Romney :
L’orque est le seul prédateur connu du narval.
Sauf que cette fois-ci, Willy n’a pas pu être sauvé : l’outil de Mitt Romney a crashé aux premières heures du jour J. Et ne faisait de toute façon pas le poids face à l’envergure de celui d’Obama.
L’équipe du Président américain a appris de ses erreurs, poursuit le magazine américain. Quatre ans auparavant, sa plate-forme s’effondrait à la manière de celle de Romney en 2012. “L’échec de 2008, entre autres besoins, a poussé la version 2012 de l’équipe d’Obama à internaliser des techniciens”, poursuit The Atlantic.
Rien n’a été laissé au hasard. Des simulations ont même été lancées pour parer au pire des scénarios susceptibles de se produire le D-Day. Plusieurs sessions intensives pendant lesquelles les nerds d’Obama tentaient d’éviter la paralysie de leurs outils de campagne en ligne, en trouvant des remèdes à une succession de pannes sortie de nulle part ailleurs que leur esprit génial.
Ils “détruisaient tout ce qu’ils avaient construit”, comme le raconte Harper Reed au magazine américain. A l’instar d’astronautes surentraînés, ils avaient une checklist pour chaque incident, le tout compilé dans un “runbook”. Ce petit jeu leur a par exemple permis de ne connaître aucun temps mort au passage de l’ouragan Sandy, fin octobre, qui a noyé bon nombre de serveurs situés sur la côte Est des États-Unis.
Les nerds d'Obama avec le boss de Google, Eric Schmidt, le jour de l'élection. YOLO ! (CC by nc nd)
Au final, aucun cyclone ou aucune attaque extra-terrestre n’est venu perturber le cours de l’élection. Les mecs ont même eu le temps de “concocter un petit badge pour fêter ça” raconte The Atlantic. Badge reprenant la dernière expression branchée “YOLO”, “You Only Live Once” (“On n’a qu’une vie” en français) en version Obama. De quoi renforcer l’image déjà so cool du Président américain sur Internet.
Mais la plupart du temps, les techos d’Obama n’ont fait que peu d’incursions sur le terrain. IRL ou sur Internet. D’autres équipes s’occupaient à plein temps de ces champs. Il a fallu travailler avec chacune et ça n’a pas toujours été simple. Loin de là.
Les nerds ont même été à deux doigts de se prendre la porte. Équipes de terrain, politiciens et techniciens ne parvenaient pas à s’entendre, en particulier dans l’étape de réalisation des outils de campagne. Une étape pourtant cruciale. “Alors que l’équipe technique luttait pour traduire en un logiciel utilisable ce que voulaient les gens, la confiance dans l’équipe technique – déjà chancelante – continuait de s’éroder”. Et pourtant, “la campagne a produit exactement ce qu’on attendait d’elle”, conclut le journaliste de The Atlantic :
Une hybridation des désirs de chacun dans l’équipe d’Obama. Ils ont levé des centaines de millions de dollars en ligne, réalisé des progrès sans précédent dans le ciblage des électeurs, et ont tout construit jusqu’à l’infrastructure technique la plus stable de l’histoire des campagnes présidentielles.
Un ingénieur informaticien dans les bras du Président des États-Unis (cc by nc nd)
Pour The Atlantic, le cru 2012 de la présidentielle américaine s’est donc bel et bien joué sur Internet. En 2008, commente le magazine, on pataugeait encore dans le “low tech”. “La technique d’une campagne était dominée par des gens qui se souciaient de l’aspect politique de la chose, et non de la technologie de la chose”.
Bien sûr il y avait Facebook, ou Twitter. Mais ils ne représentaient pas grand chose à l’époque. “Ce n’était pas le cœur ou même une annexe de notre stratégie”, confie Teddy Goff, “digital director” des campagnes d’Obama, à The Atlantic.
C’est une nouvelle étape dans l’intégration du Net dans la politique. Qui permet aussi de comprendre, au moins en partie, l’habile appropriation des codes du web par le Président réélu. D’une réinterprétation de mèmes aux sorties sur Twitter ou Instagram, l’équipe de Barack Obama compose avec Internet. L’intègre avec souplesse à sa communication bien huilée, au lieu de le plier aux codes traditionnels du discours politique.
À cent mille lieues de l’expérience made in France. Malgré les sempiternelles promesses d’e-révolution, les campagnes des candidats à la présidentielle n’ont pas brillé par leur fulgurance sur Internet. De l’aveu même de certains, Internet n’était alors qu’un canal de com’ supplémentaire, aux côtés de la télévision, de la presse écrite ou radio.
Il y a bien eu quelques trouvailles, mais elles restent bien maigres face au tableau général : une équipe web recrutée à 100 jours de l’échéance côté Hollande, un panzer en partie externalisé pour Sarkozy. Quelques polémiques aussi, sans oublier l’abandon, sur le fond, des thématiques numériques par les candidats. En France, l’avènement des ingénieurs informaticiens en politique n’est pas pour demain.
Nathalie Kosciusko-Morizet en 2010 à Vilnius pour l'Internet Governance Forum (cc) V.Markovski
La loi contre la consultation des sites terroristes revient par la petite porte. Nathalie Kosciusko-Morizet (UMP) l’avait annoncé dans une tribune parue la semaine dernière dans Le Monde : elle propose de réintroduire ce délit par amendement.
En reprenant les dispositions suggérées par le précédent gouvernement : 2 ans d’emprisonnement et 30 000 euros d’amende en cas de consultation habituelle de sites terroristes, sans motif légitime (journalisme, recherche universitaire, travaux de police).
Petit retour en arrière. L’assaut contre Mohamed Merah à peine terminé, Nicolas Sarkozy annonce depuis l’Elysée sa volonté de lutter contre “les sites Internet qui font l’apologie du terrorisme”. A deux mois de l’élection présidentielle, un projet de loi [PDF] est déposé au Sénat par le Garde des Sceaux d’alors, Michel Mercier.
L’article 2 punit alors “de deux ans d’emprisonnement et 30 000 euros d’amende le fait de consulter de façon habituelle [un site internet] soit provoquant directement à des actes de terrorisme, soit faisant l’apologie de ces actes”. La sanction ne s’applique pas “lorsque la consultation résulte de l’exercice normal d’une profession ayant pour objet d’informer le public, intervient dans le cadre de recherches scientifiques ou est réalisée afin de servir de preuve en justice.”
Avec le changement de gouvernement et de majorité, le projet de loi prend la poussière au Sénat. Jusqu’en septembre, lorsque Manuel Valls, ministre de l’Intérieur frais émoulu, annonce une nouvelle batterie de mesures. Le projet de loi relatif à la sécurité et à la lutte contre le terrorisme est déposé au Sénat. Mais sans le délit de consultation.
Lors de son examen, le sénateur Hyest (UMP) propose de le réintroduire par amendement. Il reprend mot pour mot l’article rédigé quelques mois plus tôt par la majorité précédente. Contacté par Owni, il le justifie par l’existence de mesures équivalentes pour lutter contre les sites pédophiles.
L’amendement est rejeté, même si les sénateurs s’accordent sur l’importance de lutter contre le cyberterrorisme. Lors des débats, Michel Mercier le regrette, mais reconnait “que la réflexion n’était pas mûre.”
Nathalie Kosciusko-Morizet ne l’entend pas ainsi et le fait savoir : “le terrorisme doit être aussi pourchassé sur Internet” tonne-t-elle dans sa tribune. Dont acte. Deux amendements ont été déposés [PDF].
Outre les sanctions (deux ans de prison et 30 000 euros d’amendement), le texte proposé par l’ancienne secrétaire d’État à l’économie numérique “[permettra] la cyber-infiltration dans les enquêtes relatives à ce nouveau délit.” Depuis l’adoption de la loi dite LOPPSI en 2011, les autorités ont déjà la possibilité de participer “sous un pseudonyme” aux échanges sur des sites soupçonnés de provoquer des actes terrorisme ou d’en faire l’apologie.
Nathalie Kosciusko-Morizet semble donc décidée à entretenir sa flamme numérique. Chargée du dossier de 2009 à 2010, l’ancienne ministre entend réaffirmer et imposer son expertise sur le sujet. Dans la continuité des positions de Nicolas Sarkozy.
Interrogé par Owni, son entourage précise que l’amendement est de son fait, et non du groupe UMP. Elle fait d’ailleurs cavalier seul aux côtés d’autres députés de la même famille politique, dont Éric Ciotti, qui ont déposé un amendement similaire. Pas suffisamment encadré selon Nathalie Kosciusko-Morizet. Pour éviter une “censure” du Conseil Constitutionnel, elle préconise le “principe de proportionnalité”. L’exclusion de certaines profession et des mesures les plus liberticides de l’antiterrorisme, comme elle l’a détaillé cet après-midi en ces termes devant la commission des lois de l’Assemblée nationale :
organiser des dérogations pour les professions qui ont besoin d’aller sur ces sites (journalistes, chercheurs, services de police) ; écarter de la consultation l’application de certaines mesures pour les faits relevant du terrorisme (garde à vue supérieure à 48h, prescription de 20 ans, perquisition de nuit).
Interrogé sur les motivations de Nathalie Kosciusko-Morizet, son entourage indique encore qu’elle détaillera “sa philosophie sur le sujet” après la présentation des amendements à Manuel Valls, toujours en cours à l’Assemblée Nationale.
Ce lundi soir, Philippe Marini, président de la commission des finances du Sénat, répondait aux questions des internautes sur une bulle vidéo Google+ (ce qui est assez drôle en passant, au vu de ce que Google encaisse en ce moment) et sur YouTube. Modéré (et motivé ?) par Erwann Gaucher, Antoine Bayet, Richard Menneveux et Guillaume Champeau, le sénateur de l’Oise présentait sa “fiscalité numérique neutre et équitable”. Florilège des questions sur la concurrence, l’optimisation fiscale des géants du web et leurs bénéfices records.
La position de Marini est assez claire (sur le site du Sénat en tout cas) : les profits qu’engrangent les grandes entreprises du Net grâce à la fiscalité est devenue “une véritable question de société”. Il explique :
Les médias ont popularisé le sujet et évoquent de plus en plus les montages fiscaux et les sommes soustraites par ces entreprises, du fait des insuffisances de législation.
Les insuffisances de législation taclées par Marini ne sont autres que la facilité (la dextérité ?) avec laquelle les géants du Net vont chercher de meilleurs taux d’imposition au Luxembourg et en Irlande, et jouent avec la TVA sur les biens immatériels. Stratégies infaillibles. Le cas d’Apple ayant payé 7 millions d’euros d’impôts en France alors qu’il ne déclare “que” 257 millions d’euros de chiffre d’affaires (officiellement, puisqu’officieusement, ses revenus français avoisinent 3,5 milliards), est édifiant. Google l’est tout autant et il y a fort à parier que Microsoft, sous le coup d’un contrôle fiscal – et d’une descente musclée d’officiers de police judiciaire – en juin dernier, fasse les frais d’un redressement du même ordre que celui demandé à Google.
Philippe Marini, interrogé par Antoine Bayet, précise dès le départ : l’origine des travaux émerge de la situation des finances publiques et du souci de “voir les assiettes fiscales les plus modernes (sic) échapper à une taxation”. La poursuite de cette mission a été le jeu d’auditions des acteurs : Dublin pour Google, Londres et Rome pour rencontrer les parlementaires et Bruxelles au lendemain de la Lex Google allemande pour participer à un forum organisé par des professionnels de grands groupes de services d’information et de culture. Devenu président de la commission des finances, Marini ne chôme pas et il l’assume.
Quelle est la ligne à ne pas franchir pour un parlementaire concernant la Lex Google a été le premier point soulevé par Guillaume Champeau de Numerama : pour justifier une redevance, la Lex Google oblige à créer un droit voisin, supérieur au droit d’auteur pour protéger les oeuvres et ajouter des interdictions. Effectivement, Cédric Manara, juriste spécialiste de la propriété intellectuelle et d’Internet, expliquait sur Owni :
C’est la création d’un droit qui protège les sociétés de presse. Même si elles publient trois ou quatre lignes sur n’importe quelle actualité, elles sont de fait protégées. Non pas pour leur contenu, mais en leur qualité d’organisme de presse. C’est la création d’un droit équivalent au système de l’Ancien régime, la création d’un privilège. Pourquoi protéger un organisme de presse plutôt que d’autres contenus ? C’est un problème. Et si c’est ça la politique actuelle à l’heure du débat sur la propriété intellectuelle à l’heure du numérique, alors ce n’est pas bon signe.
La ligne rouge, expliquée par le sénateur, est surtout la possibilité de faire comme les Allemands en créant un droit à l’indemnité : “si les deux parties, éditeurs et agrégateur ou moteur de recherche, sont d’accord, c’est très bien”. Si les deux parties ne s’entendent pas, les tribunaux pourraient intervenir pour valoriser ce que “l’agrégateur devra reverser à l’éditeur ou l’auteur du contenu, le texte ne se prononce en rien sur la valorisation ou l’évaluation des droits”. Ah.
Mais “si Google réplique ?” demande Erwann Gaucher, et supprime les sites d’informations de son moteur de recherche ? “Quand on écoute Google, et il faut toujours écouter toutes les parties dans un sujet complexe, la réalité apparait elle-même quelque peu nuancée” répond Marini. Nuancée ? Oui, parce que Google dit que son moteur de recherche et Google News ne font pas apparaître d’insertion de publicité de manière directe ou systématique. Mais la réponse de Google ne tient pas compte du fait qu’elle est aussi une société dont la finalité est “la captation du marché publicitaire” précise le sénateur :
L’exploitation des supports publicitaires sur la toile est le coeur du réacteur Google, tout le monde le sait et c’est une évidence et il y a là une réalité qui peut rendre complexes les évaluations des dommages versés à des éditeurs dont les contenus seraient exploités à des fins différentes de celles pour lesquelles ils ont été conçus. La menace de représailles qui émane de Google et qui a un carcatère très antipathique est à l’opposé de l’image que voudrait donner la firme. La menace publique est assez difficile à accepter et je mesure mes mots. Cette réaction assez déplorable a été un peu comme un masque qui tombe, un masque de bonne intention.
Nous n’aurons pas la réponse du cas où Google répliquerait. Dommage.
À la Lex Google succède celui sur la fiscalité numérique, enchaînement limpide : après discussion sur la possibilité de taxer une entreprise telle que Google pour son indexation des sites de presse et les enjeux d’une telle mesure, rien de tel pour continuer que de définir les politiques fiscales. En l’occurrence Philippe Marini attend avant tout de l’exécutif (en félicitant “le pouvoir” de la mission dite Collin et Colin – du nom de leur rapporteurs – et la mission “très ambitieuse” confiée à Pierre Lescure sur l’acte II de l’exception culturelle à la française) qu’il prenne position et agisse sur trois plans distincts : national, européen “qui suppose d’exprimer une volonté et de se placer clairement dans la logique de l’axe franco-allemand” et mondial “pour faire évoluer les concepts de la fiscalité”. Le chantier est bien vaste.
Richard Menneveux a fait parvenir une question sur les pouvoirs de l’État en matière d’action pour développer une fiscalité européenne ou pour appliquer une autre fiscalité. Développer une fiscalité européenne c’est avoir un poids conséquent donc. Appliquer une autre fiscalité c’est utiliser la législation française en prenant garde de ne froisser aucun des acteurs. La diplomatie reste de mise, même quand il s’agit de milliards et pour Philippe Marini, rien ne différencie l’optimisation fiscale et la fiscalité du secteur numérique aux autres secteurs. Seulement :
Il existe des interlocuteurs très puissants avec une claire conscience de leurs intérêts et qui font de l’arbitrage de législation. On ne saurait leur reprocher, peut-être d’un point de vue moral, mais ce n’est pas leur première motivation. D’après ce que nous savons d’un journal satyrique du mercredi, l’administration fiscale française a entrepris une campagne de vérification auprès d’un certain nombre de groupes et pas seulement Google. S’agissant de Google, on évoque un enjeu supérieur au milliard d’euros en droit à redresser. Mais ayant lu l’article je crois que ces informations sont puisées auprès d’une bonne source. [...] Le fisc français est tout à fait dans son rôle lorsqu’il s’efforce de reconstruire la réalité économique au-delà des apparences juridiques et s’appuie sur la notion d’abus de droits.
La question – pour Guillaume Champeau – se pose aussi hors les optimisations fiscales et autres manipulations de trésorerie “scandaleuses” : même en s’attaquant à la fiscalité des grands groupes, “c’est pas plus facile que d’aider les petites entreprises à devenir grandes ?”
La tentation de glisser sur la Google à la française – ou à l’européenne – est bien grande, tentation sur laquelle ne glissera pas le sénateur. Il expliquera quand même que l’Europe “bat sa coulpe” parce que les problèmes économiques et le système ont fait défaut pour concurrencer le géant de la recherche en ligne. Et ce, même si certains régimes fiscaux favorisent l’innovation “comme pour les entreprises innovantes” et que le sénateur reste sceptique sur ces mesures d’une “grande complexité” :
Un écosystème permettant de faire émerger de grands acteurs est-il possible ? C’est une question qui demeure ouverte. On ne peut pas se satisfaire d’une situation où l’on dépend complètement d’un algorithme fait ailleurs ou de clés d’accès pour certains programmes qui peuvent être utilisées et où les conditions peuvent varier de façon arbitraire.
Mais le calendrier de la législation est un calendrier lent, loin de celui du web ; et le sénateur est bien impuissant à expliquer que les discussions avec l’OCDE peuvent prendre 5 à 10 ans avant d’aboutir, quand la directive qui permettra de taxer les entreprises vendant de l’immatériel dans le pays de l’acheteur commencera à entrer en vigueur en 2015 jusqu’en 2019. “Le différentiel entre le taux de TVA français et celui du Luxembourg, c’est une hémorragie” pour la France ajoute le sénateur.
Et de préciser suite à une question Twitter que l’État perd 500 millions en ressources et un peu moins d’un milliard en TVA. Soit pour Philippe Marini, 1,3 milliard d’euros de manque à gagner. Mais le temps numérique encore une fois est un temps rapide et “ces chiffres progressent vite parce que le marché publicitaire sur le net est en forte expansion – 15% par an en ordre de grandeur – donc les enjeux sont extrêmement croissants”.
Conclusion “le sujet est extrêmement difficile [...] mais en même temps c’est un sujet qui concerne l’ensemble des internautes, donc le grand public et c’est même presque un sujet de société car des entreprises, aussi remarquables soient-elles, qui créent et imposent leurs lois sur notre territoire dans une pure logique économique et d’optimisation fiscale, c’est une négation de la démocratie”.
À l’expression négation de la démocratie, il fallait entendre que les bénéfices devraient être également répartis grâce à une régulation et une politique bien à sa place.
“- L’album de Charlotte Gainsbourg est la grâce quintessenciée – Je suis tellement d’accord avec toi !” Ah ils sont nombreux ces moments gênants sur Internet ! Ces discussions qui dérapent malgré nous pour cause de sarcasme trop crédible ou à l’inverse pas assez grossier pour être détecté.
En ligne, personne ne vous entend rire. Ou ne voit la malice scintiller au fond de vos yeux au moment de balancer une vanne pincée. Résultat : Internet est une grosse mare dans laquelle les quiproquos s’enfoncent comme de gros pavés.
Au-delà des petits ajustement relationnels imposés par le sarcasme incompris (“hihi, mais je plaisantais pour Charlotte, mais les goûts, les couleurs ;D”), ce dernier pose des problèmes autrement plus conséquents. Notamment auprès de la communauté des linguistes, experts en informatique et autre spécialistes désireux de déchiffrer tous nos messages laissés sur Facebook et Twitter – pour ne citer que les gros.
C’est la “science étrange de la traduction du sarcasme en ligne” écrit le Wall Street Journal dans un article paru fin octobre.
Par définition, ce genre de plaisanterie dit “le contraire de ce qu’on veut vraiment dire”, poursuit la journaliste. Le sarcasme s’avère donc “être un obstacle pour les chercheurs et les spécialistes en marketing qui créent des programmes informatiques pour analyser les importantes réserves de bavardages en ligne pour mesurer l’opinion publique sur des produits ou des politiciens.”
L’humour en ligne comme pare-feu aux dernières trouvailles du marketing “digital”. Comme antidote à la récolte des données que l’on laisse sur les services a priori gratuits du web. Qui s’en servent en retour comme potentielle machine à cash. Troll ultime : 4chan n’aurait pas fait mieux.
Alors bien sûr, des stratégies existent pour déceler la malice. En particulier les smileys, ou émoticônes, ces petits visages de travers, avec ou sans nez, si pratiques pour se rendre clairs. Ou désamorcer une situation embarrassante (cf. supra).
Mais le smiley ne suffit pas. Kate Paulin, responsable dans une agence marketing et interrogé par le WSJ, est formelle. “Travailler pour des marques telles que Coca-Cola lui a appris qu’il ne faut pas se fier aux apparences d’un smiley”, détaille le journal. Qui ajoute :
Ados et twittos utilisent des émoticônes de manière sarcastique, à l’en croire. Et un simple point d’exclamation – contrairement à plusieurs – peut en fait traduire un manque d’enthousiasme.
Les ravages de l’humour en ligne sont plus grands encore. Ils se constatent jusque dans les labo de recherche, où l’on s’arrache les cheveux à systématiser la compréhension des double, triple sens des tweets et posts. “Le sarcasme est l’un des problèmes les plus difficiles en informatique”, confie ainsi un professeur d’une université californienne, qui conduit un programme d’analyse des “sentiments” exprimés sur les réseaux sociaux. Ce qui fait dire au Wall Street Journal :
Les programmes informatiques suivent des règles strictes, alors que le langage naturel, en particulier la culture ‘private joke’ du web, non.
Mais les casse-têtes des uns font le bonheur des autres. Ou presque. Pour certains, comme Doug Sak, cette absence de signalétique sarcastique est une mine d’or. Il y a 10 ans, il a créé “SarcMark”, une sorte de spirale avec un point au milieu, qu’il souhaite imposer comme marqueur universel du sarcasme. A en croire le Wall Street Journal, il aurait même contacté plusieurs opérateurs pour imposer son sigle dans les claviers des téléphones.
Contacté par Owni pour en savoir plus, Doug Sak ne nous a toujours pas répondu. Il semblerait néanmoins que le succès se fasse attendre. Mais l’homme d’affaire garde espoir. Et son sens de l’humour : “je ne sauve pas le monde mais cela a un véritable intérêt”. Du sarcasme, évidemment.
Vincent Montagne, président du Syndicat national de l'édition - Photo par Claire Berthelemy (cc)
Hier avaient lieu les 9e assises du livre numérique, organisées par le Syndicat national de l’édition (SNE) à l’Institut Océanographique de Paris. La salle – pleine – a donc eu le privilège d’assister à trois conférences : le livre numérique en bibliothèque, les livres indisponibles, et les DRM/MTP. Avec, en bonus, les résultats du sondage SNE/SGDL/SOFIA et OpinionWay sur les usages du numérique.
Les DRM et MTP et leurs enjeux, la dernière conférence de la journée, tombait à point nommé alors que le Syndicat national de l’édition et 6 éditeurs dont Albin Michel, Hachette et Editis entre autres portent plainte contre la TeamAlexandriz, site de mise en ligne de livres numériques, pour l’amour de l’art et des livres gratuits et “bien numérisés”.
“Quels enjeux pour la protection ?” (vaste question), laissait en réalité apparaître en filigrane de toute la journée la crainte – qui a secoué en amont l’industrie du disque et touche l’industrie de l’édition, sans possibilité de quantifier – celle du piratage. Tout au long de la journée, a été évoquée cette peur latente pour les éditeurs de voir les oeuvres spoliées et distribuées gratuitement, courant à leur perte. Comme le numérique aurait tué l’industrie du disque, le piratage en premier responsable, tuerait celle du livre.
Vincent Montagne, président du SNE entamait la journée par une courte introduction en apostrophant les géants du Net – qui n’étaient pas présents – et déclarait surtout l’ouverture des hostilités contre les pirates-pilleurs :
Face à la gratuité, le droit d’auteur n’est pas un obstacle à la diffusion des connaissances mais la juste rémunération de la propriété intellectuelle. Pourquoi le travail de l’esprit aurait moins de valeur que la production de matériel ?
On vous offre ici la métaphore de l’éditeur et du jardinier, le “métier est complexe et aux multiples facettes, il s’efface devant ce qu’il promeut comme un jardinier qui planterait une graine qu’il aiderait à grandir, jusqu’à devenir un arbre magnifique et solide”. De rien c’est cadeau et c’est joliment dit.
Mais très vite, la baseline de la journée s’est surtout reposée sur cette assertion du président du SNE : “nous défendons le droit d’auteur contre le piratage et le mythe de la gratuité”. On l’aura compris le mal est un pirate. Même si se remettre en question comme peuvent l’expliquer certains éditeurs à Owni est en cours d’élaboration, la prégnance de la peur du piratage, qu’on pourrait voir comme sporadique est bien là. Et bien ancrée. Comme l’industrie musicale, qui a déclaré la guerre à toute une génération de jeunes, les éditeurs se tournent à présent vers la répression. Et ont fini par récemment attaquer la TeamAlexandriz, dont la manifestation sauvage sur Twitter a rassemblé (au départ) des comptes majoritairement inactifs ou presque, un ou deux abonnés, un ou deux tweets à leur actif.
Des comptes “plus sérieux” se sont ensuite joints au hashtag #aln et ils ont dénoncé l’inaction des éditeurs, la pauvreté du catalogue légal et la qualité des ouvrages. En y ajoutant #alexandriz.
Après 20ans on en a pas fini de la guerre au partage mais que c’est triste! #sne #alexandriz
— Silvae (@Silvae) Novembre 8, 2012
Mais Geoffroy Pelletier, intervenant au cours du bonus-sondage “les usages du numérique”, et par ailleurs délégué général de la Société des gens de lettres (SGDL), l’exprimera pourtant assez rapidement :
#aln “Point sites illicites : les offres légales sont majoritaires, le piratage semble modeste dans le livre” Geoffroy Pelletier, SGDL — CBerthelemy (@CBerthelemy) Novembre 8, 2012
L’illicite minoritaire, c’est 4% seulement de peer-to-peer pour l’acquisition de livres numériques et 1% en streaming, contre 41% d’achats sur Amazon, Apple et Google (28% pour la Fnac, Cultura et autres). Dans le même sondage, 17% des lecteurs de livres numériques ont déjà eu recours à une offre illégale de livre numérique. Parce que l’offre légale est trop chère (pour 69%) et que l’offre numérique légale n’était pas disponible (40%). De façon minoritaire, le piratage concerne les lecteurs ayant un problème d’usage lié aux DRM (14%).
Dans cette conférence pour le moins attendue et “alléchante” est intervenu pour les problématiques techniques des DRM, Bill Rosenblatt de GiantSteps. Qui a passé quelque temps sur le côté technique des moyens de protéger les oeuvres immatérielles contre les pirates. Jean Martin, avocat conseil pour le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – celui qui s’est étouffé au moment où le SNE a déclaré qu’il portait plainte contre la Team AlexandriZ – s’est quant à lui exprimé sur les enjeux juridiques de ce type de protection.
“Aujourd’hui la définition est plus succinte : c’est une technologie [les DRM] qui utilise le cryptage pour protéger du contenu numérique d’utilisation non autorisée”, a attaqué Bill Rosenblatt avant de passer à l’histoire des DRM, les technologies découlant aujourd’hui de celles qui étaient en cours dans les années 90. Un petit décalage pour Le Labo de l’édition :
#aln Bill Rosenblatt de Giantsteps fait un historique des DRM : le système n’a pas changé depuis 11ans – normal si décalé des usages!
— Labodeledition (@labodeledition) Novembre 8, 2012
Le système n’a pas changé donc. Rien de rassurant, mais d’un point de vue marketing, les ouvrages sans-DRM peuvent aussi être un argument de vente. Et si à l’origine les watermarks (filigrane) ou empreintes sont deux procédés techniques différents, pour Bill Rosenblatt, le système de surveillance (utilisé notamment par Hadopi permet de vérifier les contenus non autorisés) ne sont pas des systèmes de protection et sont “easy to circumvent”, autrement dit facilement hackable, en général, quel que soit le média. Et il précise même :
Les filigranes pour les ebooks sont faciles à hacker.
En attendant, qu’ils soient facilement hackable ou pas, les DRM, qualifiées de “ralentisseurs de rues pour les hackers” par Rosenblatt, provoquent un certain nombre de difficulté d’interopérabilité notamment. Et de conclure :
Les éditeurs qui croient dans les DRM présupposent que ça ait une utilité même si elle est difficile à mesurer.
C’est une histoire tirée d’un roman d’espionnage, plutôt à la mode OSS 117. Un État fabrique un logiciel espion, le lance sur sa cible, un autre État. Celui-ci s’en rend compte, dissèque ledit logiciel dans le plus grand secret. Il décide ensuite de piéger l’attaquant, y parvient. À la fin, il publie un rapport avec les photos du pirate ennemi, obtenues en entrant dans son ordinateur.
Fin de la fiction. L’histoire est réelle. Le rapport a été publié en anglais la semaine dernière par l’agence d’échange de données géorgienne. Il pointe la main de la Russie dans une cyberattaque importante contre la Géorgie découverte en mars 2011. “Un acte de cyberespionnage” écrit l’agence dans son rapport qui détaille le modus operandi sophistiqué de l’attaque.
Première étape : des sites d’informations géorgiens sont piratés. Le script malveillant placé sur ces pages infecte les ordinateurs des visiteurs. La pêche aux “informations confidentielles et sensibles” peut commencer. Étape deux : les ordinateurs piratés sont criblés pour dénicher les précieuses informations qui sont renvoyées (c’est l’étape trois) vers un serveur distant. Malins, les artisans de l’attaque changent régulièrement l’adresse du serveur.
Non content d’obtenir ces documents – principalement word, powerpoint et pdf à propos des questions des relations avec les États-Unis ou l’Otan – les pirates peuvent avoir accès aux micros et caméra de l’ordinateur infecté. Des fonctionnalités sophistiquées, mais pas hors du commun à en croire le catalogue de certains marchands d’armes de surveillance…
390 ordinateurs ont été infectés détaille le rapport de l’agence géorgienne. Une immense majorité en Géorgie, et quelques 5% en Europe et en Amérique du Nord. Les autorités géorgiennes affirment avoir reçu l’aide de services étrangers (américains et allemands) ainsi que l’assistance de grandes entreprises comme la division cybersécurité de Microsoft. Une fois disséqué, le logiciel malveillant a permis de remonter à la source. Les autorités géorgiennes sont parvenues à identifier le pirate, et le prendre en photo avec sa webcam.
Pas peu fière, l’organisation chargée de la cybersécurité géorgienne raconte :
Nous avons trouvé un PC infecté dans notre lab, avons envoyé une fausse archive ZIP, intitulée “Georgian-Nato agreement’, qui contenait le virus. L’attaquant a dérobé cette archive et a exécuté le fichier malveillant. Nous avons maintenu le contrôle sur son PC, puis capturé une vidéo de lui, personnellement.
La prise est évidemment jointe au dossier : deux photos d’un homme moustachu, sans uniforme, dans ce qui ressemble à un appartement.
Pour la Géorgie, l’origine de l’attaque ne fait aucun doute : Moscou est derrière. Ce ne serait pas une première. Lors de la guerre entre les deux pays à l’été 2008, le Russie avait mené des cyberattaques concomitamment aux attaques sur le terrain. Le rapport ne manque pas de le rappeler, citant “deux organisations indépendantes américaines”. Les cyberattaquants avaient alors pu compter sur “certaines ressources” appartenant à l’Institut de recherche du ministère de la défense russe.
Toujours pour rendre visibles les expulsés invisibles, nous diffusons nos motifs DANS LE MONDE RÉEL.
Le projet Expulsés.net, dont nous avions déjà parlé en grand bien, évolue pour sensibiliser davantage à la politique de reconduite à la frontière menée par la France en 2012. Outre une base collectée auprès des association, en particulier RESF, détaillant le profil, partageable sur Twitter et Facebook, de chaque homme, femme ou enfant, Julien, le Bordelais à l’origine du projet a rajouté une couche IRL :
J’ai créé un kit de fabrication de figurines en argile reprenant les motifs du site. Il est produit avec une imprimante 3D et peut être reproduit et expédié sur demande à quiconque veut participer au projet. J’ai commencé à l’utiliser, à la plus grande surprise des passants qui emportent chez eux un petit totem mystérieux marqué d’une URL. Comme quoi la RepRap, ça sert pas qu’à faire des space invaders…
Cliquer ici pour voir la vidéo.
Il est aussi possible de télécharger des stickers. Julien donne le mode d’emploi pour que ce hack urbain soit efficace : “il est toujours préférable, afin de vous éviter divers ennuis et également pour éviter que votre installation ne soit vue que par l’agent d’entretien chargé de la détruire, de diffuser sur des emplacements sinon autorisés, au moins non-affectés à des usages précis. Les centres-villes sont pleins de vitrines condamnées, de barrières provisoires en contreplaqué, etc. Choisissez des modes de diffusion alternatifs, voire n’accrochez pas votre installation et laissez les passants l’emporter chez eux en petits morceaux (c’est clairement la meilleure solution avec les figurines en argile) !”
La semaine dernière, le ministre de l’Intérieur Manuel Valls a annoncé qu’il y aura “un peu plus” de reconduites à la frontière cette année qu’en 2011, battant le “record” de 33 000. Le gouvernement précédent avait affiché un objectif de 40 000 en 2012 en cas de réélection de Nicolas Sarkozy. La baisse des expulsions constatées depuis mars “n’est pas la résultante de consignes, mais découle de l’impossibilité de recourir à la garde à vue pour les sans-papiers depuis des décisions de la justice européenne et de la Cour de cassation”, selon une source du ministère citée par l’AFP.
“Il y a de la part de ce gouvernement, une volonté de mener une politique humaine, juste, mais très ferme sur les reconduites à la frontière”, a précise Manuel Valls, qui se dit opposé à une “politique du chiffre qui pèse énormément sur les forces de l’ordre. Elle amène à des comportements, à des tensions qui ne conduisent pas à l’efficacité.”
Le changement de gouvernement n’est donc pas rendu caduc Expulsés.net. Julien prévoit d’ailleurs de faire une installation de grande envergure avec plusieurs centaines de figurines à Bordeaux en novembre.
À ma connaissance, c’est la première fois qu’une telle masse de données, avec une telle précision, a été utilisée en prévalence de maladies infectieuses pour cartographier ces facteurs de risque et de mobilité. – Caroline Buckee
C’est sans doute, en effet, la première fois : la totalité des appels et des SMS générés par 15 millions de Kényans entre juin 2008 et juin 2009 a été analysée pour faire progresser la science. Quitte à semer le trouble sur l’épineuse question de la vie privée des utilisateurs.
Les migrations humaines contribuent à la propagation du paludisme, bien au-delà du rayon d’action du moustique Anopheles, son principal agent de transmission. Il s’agit d’un véritable casse-tête, notamment sur de vastes zones géographiques lorsque les ressources sont limitées – tant pour les soins que pour le contrôle des insectes.
Partant de l’observation selon laquelle il est impossible de cerner la façon dont cette maladie se propage sans des informations précises sur l’endroit où vivent les populations, une équipe de chercheurs américano-kényans a donc démontré, à travers cette étude menée en Afrique sub-saharienne, que les données enregistrées sur des téléphones portables pouvaient être utilisées dans le but d’identifier les régions à cibler en priorité dans le combat contre la maladie. L’étude a été publiée dans la revue Science parue le 12 octobre dernier.
Selon le Rapport 2011 sur le paludisme dans le monde publié par l’OMS, les décès associés en 2010 au paludisme – sont encore estimés à près de 700 000, soit l’équivalent, pour cette année, de la disparition des habitants des communes de Lyon et de Lille réunies. Plus de 90% des décès se situent en Afrique, et 86% des victimes à travers le monde sont des enfants de moins de 5 ans. En guise d’espoir, des réductions de plus de 50% des cas signalés ont été enregistrées dans la moitié des 99 pays touchés par la transmission au cours de la première décennie de ce siècle. Principale raison : le nombre de moustiquaires imprégnées d’insecticide livrées par les fabricants dans cette région de l’Afrique a considérablement augmenté et est passé, entre 2004 et 2010, de 5,6 millions à 145 millions d’unités.
Toutefois, ces mesures sanitaires sont loin d’être suffisantes. Raison pour laquelle la recherche se penche aujourd’hui sur des voies alternatives pour endiguer le fléau. “Les programmes de lutte contre le paludisme ont des outils très efficaces pour prévenir la transmission aujourd’hui, mais malheureusement, les ressources pour leur mise en oeuvre sont très limitées”, selon Justin Cohen, conseiller technique principal de l’équipe de contrôle du paludisme du Clinton Health Access Initiative. La technique utilisée dans cette étude nous donne un moyen d’optimiser l’impact de nos ressources limitées.
Plus de 30 pays à travers le monde ont déclaré un objectif national d’élimination du paludisme, mais il est difficile d’éliminer la maladie quand de nouveaux cas sont constamment importés. – Andy Tatem
Andy Tatem est professeur agrégé de géographie à l’Institut des Pathogènes Emergents de l’Université de Floride et co-auteur de l’étude. Il a fourni des cartes de population indispensables grâce à son projet AfriPop, qui utilise de l’imagerie satellitaire, des données de recensement et des cartes d’occupation du sol pour créer une cartographie détaillée de la répartition de la population de l’Afrique sub-saharienne.
Représentation en 3D d'une résolution spatiale à 100 mètres, version alpha, population d'Afrique de l'Est 2009 - afripop.org
Son équipe a ensuite utilisé les données fournies par une compagnie kényane de téléphonie mobile pour identifier les itinéraires les plus empruntés entre les différents coeurs de population, données où figurait une année pleine d’informations sur la localisation, les déplacements, la destination ou même les transferts d’argent de 14 816 521 utilisateurs de téléphones portables à travers le Kenya.
Professeur assistante en épidémiologie à Harvard et co-auteur de l’étude, Caroline Buckee s’est évidemment réjouie des perspectives offertes par la réunion du “big data” et de la cartographie des populations :
Déterminer où les gens vivent peut paraître trivial, mais c’est en fait une chose très difficile à faire en Afrique sub-saharienne. Des chercheurs avaient utilisé des GPS, des sondages et des flux de circulation sur les routes principales pour essayer de comprendre comment les gens se déplaçaient, mais ça nous fournissait des informations sur quelques centaines de personnes, tout au plus. Notre utilisation des informations issues de téléphones portables a apporté des milliards de données.
Carte de la pression clinique du Plasmodium falciparum en 2007 au Kenya - Malaria Atlas Project
Et c’est bien grâce à ces données et à son travail de cartographie que les chercheurs d’Afripop ont réalisé un modèle de transmission du paludisme qui, appliqué à la population et ses mouvements, prédit les risques d’infection grâce à l’utilisation de la théorie mathématique des probabilités. Les résultats ont clairement montré que l’éruption du paludisme durant la période d’étude avait eu lieu dans la région du Lac Victoria et que la maladie s’était étendue vers l’est, en direction de la mégapole de Nairobi. Une cartographie qui démontre comment le paludisme est susceptible de se déplacer entre les différentes régions du Kenya. Et quelles régions, précisément ciblées par les équipes de lutte contre la maladie, produiraient le meilleur résultat au niveau national.
Reste une question – sinon la question qui taraude y compris les professionnels du mHealth. L’opérateur kényan Safaricom – qui appartient pour 60% à l’Etat et pour 40% à Vodafone – a-t-il demandé l’autorisation à ses 15 millions de clients pour permettre aux chercheurs majoritairement américains de fouiller, scruter, analyser un si grand nombre de données les concernant ? Rien n’est moins sûr. Contactée par Owni, la Fédération des Consommateurs Kényans (Cofek) dit avoir approché Safaricom à ce sujet sans jamais avoir reçu de réponse. “Du point de vue de la loi kényane, de telles études – qu’elles soient à but commercial ou de charité – utilisant des données de possesseurs de téléphones mobiles, sont inacceptablement intrusives”, nous a déclaré Stephen Mutoro, son secrétaire général. En ajoutant, fermement :
Nous espérons que ceux qui ont conduit cette étude, s’ils souhaitent être pris au sérieux, ressentiront le besoin d’éclaircir certains points mystérieux concernant la méthodologie employée, notamment si une autorisation en bonne et due forme de Safaricom et de la Commission des Communications du Kenya a été délivrée. Si, comme on le redoute grandement, il existe une brèche sur les questions de vie privée, alors les coupables se feront certainement taper sur les doigts, avec une énorme compensation financière pour les consommateurs. Nous attendons également que la Commission des Communications du Kenya [CCK] agira de manière proactive et demandera les informations nécessaires au sujet de la méthodologie employée pour cette étude.
Au Kenya, où 84% de la population est couverte par les réseaux mobiles, la pénétration du téléphone portable atteignait 42% en 2008 (source ITU), et les abonnés étaient plus de 18,5 millions (selon la CCK) en 2009 pour une population totale de 40 millions – soit plus de 46%. Les prévisions de l’époque indiquaient que ces chiffres seraient susceptibles de doubler en cinq ans ; plus de 25 millions en 2011, comme le montre le graphique ci-dessous.
Le Kenya est l’un des pays d’Afrique pionnier en matière de téléphonie mobile, ce qui s’explique notamment par la pauvreté du réseau cuivré. À titre d’exemple, le pays s’est doté depuis 2007 d’un système de paiement électronique innovant, M-Pesa, prévu au départ pour les transferts d’argent depuis l’international et devenu en quelques années un véritable système monétaire quasi-privé aux allures de potentielle monnaie parallèle. Ce qui rend la question de l’analyse des données de Safaricom d’autant plus sensible, vu que ces transactions financières sécurisées faisaient partie du lot de la “big data” passée entre les mains des chercheurs.
Dans ce contexte de baisse des revenus et de part de marché drastique, nous avons interrogé Safaricom afin de savoir dans quelles conditions ce “big data” (une année des données de 15 millions d’utilisateurs) avait été cédé à l’étude. Contrepartie financière ? Open Data ? Les clients “cobayes” ont-ils été prévenus ? Nous n’avons pas reçu de réponse à ce jour. Et nous espérons que l’opérateur ne se soit pas tout simplement endormi sur ses principes.
Au centre de la modélisation de cette masse colossale de données, Amy Wesolowski, jeune étudiante de l’Université Carnegie Mellon, travaille avec Caroline Buckee. Elle a déjà été interpellé sur cette question [pdf, page 15] de vie privée au sujet des données traitées au Kenya. Sa position de chercheur est sensée, polie, de bon aloi, mais pas forcément très claire sur la méthodologie employée par l’étude s’agissant de la récupération des données. Nous avons cherché à la joindre, elle est restée muette à nos questionnements, et nous en resterons donc à cette réponse de 2010 :
Ces données peuvent être utilisées pour de mauvaises choses, mais nous essayons de rester du côté du bien.
Professeur au département de médecine préventive de l’Université Vanderbilt, William Schaffner ne dit pas autre chose :
Je me doute bien que certains seront nerveux à l’idée d’un “big brother” qui nous suivrait partout. Pour ma part, je suis bien plus excité par les possibilités de nous prévenir d’une sérieuse affection.
Au vu des différents éléments que nous avons en notre possession et du mutisme appliqué de l’opérateur, il est donc probable que les 15 millions de clients de Safaricom aient été des cobayes à leur insu. Mais que ces innombrables données étudiées, manipulées pour la science, l’aient été dans un état d’esprit qui laisse peu de place à la paranoïa. Pour preuve, sans doute, ce document de travail “Du fair use de données comportementales, agrégées et anonymes” [pdf] réalisé par Nathan Eagle, doux-dingue ingénieur-informaticien passionné de béhaviorisme et de bien commun, PDG de txteagle qui pige de temps à autre pour le MIT et Harvard. Il a participé à la rédaction de l’étude parue dans Nature. Il est marié à la ville à… Caroline Buckee. Et qui, en évoquant son travail à Harvard, le résume ainsi :
En fin de compte, notre programme de recherche consiste à déterminer comment nous pouvons utiliser ces données pour améliorer activement la vie de milliards de personnes qui génèrent ces données et améliorer les sociétés dans lesquelles ils vivent.
C’est beau comme une keynote de Google.
La représentation en 3D d’une résolution spatiale à 100 mètres, version alpha, population d’Afrique de l’Est 2009 est issue du site afripop.org. Les régions zoomées sont celles de Bujumbura (a), Kigali (b), Kampala(c), Nairobi (d) et Dar Es Salaam (e) ; la carte de la pression clinique du Plasmodium falciparum (parasite qui cause le paludisme) en 2007 au Kenya est issue du site Malaria Atlas Project.
]]>En Haute-Savoie, la première twittclasse du département a dû fermer sa timeline fin septembre, peu de temps après son ouverture, un rétropédalage qui semble inédit.
Il existe actuellement plus de 200 twittclasses en France qui fonctionnent sans problème, en accord avec leur hiérarchie. Il est fini le temps des expérimentations audacieuses de la pugnace Laurence Juin, la première à avoir utilisé le site de micro-blogging Twitter dans un cadre pédagogique en France. Le Centre national de documentation pédagogique donne même la marche à suivre.
@classe_acou @cm1cm2auve @classe_fulleren Nous sommes désolés, mais nous n’avons plus l’autorisation de twitter pour le moment. A bientôt
— Classe_Pasquier (@Classe_Pasquier) Septembre 27, 2012
Un lien vers YouPorn ou des insultes auraient-ils atterri dessus ? Rien de tout cela. Dès le début, tout a été fait dans les règles, nous a expliqué Aurélie, la jeune institutrice de La Roche-sur-Foron à l’origine de l’initiative :
Pour préparer le terrain, j’ai pris contact avec ma conseillère pédagogique en juin, pour savoir à qui m’adresser et quel projet fournir. Je me suis aussi renseignée auprès de collègues ayant des twittclasses pour savoir la procédure qu’ils avaient suivie. Puis, nous avons attendu les recommandations du chargé TICE du recteur de mon académie. Après ce feu vert hiérarchique, la réponse de mon inspectrice de l’Éducation nationale (IEN) a vite été positive.
La procédure peut sembler lourde, mais la maison Éducation nationale fonctionne ainsi, a fortiori quand il s’agit d’Internet, souffre-douleur d’une partie du corps enseignant, lassé des copié-collé Wikipedia et fermé aux charmes des liens faibles de Facebook, ce pourvoyeur de cyber-harcèlement. Les premiers pas sur le réseau social se font sans souci, en respectant bien des règles pour éviter des dérapages : les élèves ne possèdent pas le mot de passe – qui n’est pas la date de naissance d’Aurélie… -, ils ont pour l’instant accès au compte via un projecteur, et plus encore,“ils ne tweetaient quasiment jamais en temps réel par manque de matériel en classe, nous enregistrions tous les messages dans des documents OpenOffice, puis ils étaient copiés-collés dans Twitter”, souligne Aurélie. Difficile de contrôler davantage. Certains parents s’y mettent même puisque cinq élèves créent un compte dans la foulée, précise-t-elle.
@classe_acou Une fée sur sa baguette perchée tenait dans ses mains son chapeau. Lilou
— Classe_Pasquier (@Classe_Pasquier) Septembre 25, 2012
Et puis patatras, l’expérience est suspendue :
J’ai reçu l’ordre de cesser temporairement de tweeter avec la classe, au prétexte initial du pseudo-bug Facebook, et en attendant un avis des services juridiques… du Rectorat.
Le même rectorat qui avait donné son accord peu avant. La suspension sera transformée en arrêt total, pour des questions de sécurité. Contactée, l’inspectrice de l’Éducation Marie-Françoise Casanova nous a expliqué :
Les serveurs de Twitter sont à l’extérieur et l’entreprise n’a pas de convention avec l’Éducation nationale. Le projet n’a pas été autorisé, il l’était au début. D’autres logiciels qui ne respectent pas les conventions de sécurité sont interdits, ça n’a rien à voir avec Twitter. J’avais juste donné un avis pédagogique, le projet était, est toujours intéressant. La sécurité est la seule raison.
Jusqu’à nouvel ordre, les twittclasses sont désormais interdites dans le département. Et le nouvel ordre, c’est donc des conditions de sécurité satisfaisantes. On en conclut que l’Éducation nationale devra héberger des serveurs de Twitter.
Dans le petit milieu des professeurs qui <3 les Internets, la décision parait absurde. Stéphanie de Vanssay, contributrice d’Elab (laboratoire-éducation-numérique), s’emporte : “Je suis outrée de cette fermeture sous de faux prétextes, c’est emblématique de la défiance généralisée de la hiérarchie envers les enseignants et d’une grave méconnaissance de tout ce que peut apporter le web à notre enseignement et à nos élèves.”
François Meroth, le président de l’association des Amis et défenseurs de l’école publique (ADEP), basée en Haute-Savoie, y voit un “décalage entre le discours affiché, avec la volonté affirmée d’ouvrir l’école et les politiques locales fermées.” Le ministre de l’Éducation nationale Vincent Peillon vient en effet de remettre sa feuille de route quinquennale pour refonder l’école en 10 points. Et “L’école et les nouvelles technologies” occupent le 8erang :
Les nouvelles technologies devront être utilisées comme “un levier de changement, d’ouverture“. Pour réussir le déploiement de l’e-éducation, le président de la République a demandé que les établissements soient équipés des matériels, ressources et réseaux nécessaires.
On comprend d’autant plus l’agacement de François Meroth en se penchant sur la presse locale. La sécurité n’a peut-être rien à voir là-dedans, mais plus des enjeux de pouvoir microcosmiques. Le Dauphiné libéré relate dans un article surtitré “la seule classe Twitter du département, qu’il devait visiter, a été suspendue” :
Pierre Frackowiak, pédagogue et toute une carrière passée au sein de l’Éducation nationale, était invité par l’association des Amis et défenseurs de l’école publique (ADEP) pour s’exprimer devant le public, vendredi à La Roche-sur-Foron. Avant cela, il devait rendre visite à la seule classe Twitter du département située dans la même ville. Il n’en a pas reçu l’autorisation.
Quoi qu’il en soit, Aurélie et ses petits élèves peuvent se consoler en lisant les messages de soutien sur Twitter, qui eux circulent librement :
RT @lyclic: @fmeroth relève la question de la hiérarchie et des intérêts partisans des IEN #RDE // Pensons à une #twittclasse interdite !
— Stéphanie de Vanssay (@2vanssay) Octobre 13, 2012
#ff @ajeanjda qui se lance dans #twittclasse (baume au coeur) #ff @aurelielucius qui aimerait en faire autant, bloquée par Dasen et Ien 74
— meroth (@fmeroth) Octobre 12, 2012
Pour tenter de faire évoluer la situation, l’ADEP et e.l@b ont envoyé une lettre ouverte au recteur, signé par “les personnalités et mouvements syndicaux ou pédagogiques suivants : Education et Devenir; Prisme; La Ligue de l’Enseignement; SE-UNSA; SGEN-Cfdt; SGEN-Cfdt 74; SNUipp 74; CRAP-Cahiers pédagogiques; Pierre Frackowiak, (IEN honoraire); Michel Guillou, (consultant spécialiste en éducation numérique); Jean-Jacques Hazan, (président de la FCPE); Philippe Joutard, (ancien recteur); François Taddei, (généticien, membre du Haut Conseil de l’Education).”
Lettre qui sera envoyée si rien ne bouge ce jeudi “pour un écho aussi large que possible dans la presse”.
C’est la twitt-guerre.
Owni a reçu des nouvelles de cette affaire par l’intermédiaire de l’ADEP :
“L’affaire de la ‘Twitt-Classe’ se règle ce jour, sans que nous devions publier la ‘lettre ouverte’. Nous avions dit au Recteur que nous espérions une solution dans les 48 heures. C’est en cours, les choses s’étant accélérées de façon significative. Nous vous remercions de l’intérêt que [...] vous avez porté sur cette affaire qui était nettement moins anecdotique qu’il n’y semblait. Et les articles parus dans la presse et les réseaux locaux ou nationaux auront eu leur importance.”
Dans un message pervenu aux signataires de la lettre, l’ADEP se félicite que “l’enseignante a[it] reçu ce jour une forte délégation “de luxe”, (IEN, DASEN, IANA…), pour un examen approfondi du projet” et que “la classe Twitter [puisse] redémarrer, moyennant quelques aménagements qui permettent à tout le monde de sortir avec les honneurs de cet imbroglio.”