Affichage des articles dont le libellé est wearable. Afficher tous les articles
Affichage des articles dont le libellé est wearable. Afficher tous les articles

vendredi 27 juillet 2018

Les sciences cognitives, sciences rigoureuses de la publicité ?


La cognition. Du neurone à la société, sous la direction de Thérèse Collins, Daniel Andler et Catherine Tallon-Baudry, Paris, essais Folio, Gallimard, 2018, 727 p., Index des noms, bibliographie (hélas, pas d'index des notions), 14,9 €

David Vernon, Artificial Cognitive systems. A Primer, 2014, MIT Press, Boston, 266 p. Index (des noms et des notions). 40 $.

Cet ouvrage imposant peut servir de manuel et de carte pour s'orienter dans les multiples disciplines réunies sous le label général de sciences de la cognition. La lecture du sommaire seule (17 p.) donne le vertige : il s'agit donc d'un outil complet, d'une encyclopédie du domaine. Il sera utile aux étudiants mais aussi aux praticiens de la publicité dont ces sciences ne sont pas le domaine de prédilection. La plupart des chapitres recoupent des préoccupations actuelles de la publicité qu'il s'agisse principalement du ciblage sous toutes ses formes ou de l'évaluation des actions publicitaires (décision d'achat, attribution, performance, agrément, prédiction...). Beaucoup de chapitres seront également utiles à certains domaines du journalisme auxquels il apportera un peu de rigueur et de prudence (psychologie générale, santé, conseils aux parents, psychologie de l'enfant, etc.). L'évolution rapide de ce secteur scientifique impose une mise à jour régulière des manuels, défi pédagogique constant.

Quelque uns de ces chapitres :
- l'émotion
- l'intention
- la perception visuelle (computer vision)
- l'action (la rationalité)
- la personnalité et la personnalisation
- l'attention (distraction, multitasking)
- la mémoire (mémorisation, démémorisation, oubli)
- le langage, etc.

L'ouvrage commence par ce que Jean-Paul Sartre appelait "le sérieux" de la cognition, les données physiologiques : "de la molécule au neurone" puis des neurones au cerveau" chapitre qui se termine par un développement sur "le défi des neurosciences cognitives". Un chapitre complet est consacré au développement, un autre à l'évolution, puis à la perception visuelle, au langage, à la décision (apprentissage, rationalité), à la conscience, au raisonnement, à l'émotion, etc. La question éthique est également évoquée.
D'autres dimensions de la cognition peuvent être abordés par l'activité publicitaire, notamment la création. Comment la tester, l'évaluer ? Les réactions aux tests et enquêtes diverses (AB testing), le design des interfaces utilisateur (UI), la gestion des interactions, tout cela relève également, peu ou prou, des sciences de la cognition. Pensons encore à ce qu'apporte et qu'apportera le développement des capteurs portables (wearables divers et fitness trackers, sous forme de bracelets, d'adhésifs, etc.) capables d'enregistrer en continu (donc réduisant bientôt les biais) des données biologiques et biométriques (rythme cardiaque, sudation, tension, température, mouvement des yeux, niveau de cortisol, etc.) et de les analyser en temps réel ou presque. Ces capteurs devraient révolutionner l'observation indispensable à la compréhension de la cognition.

Devant l'ambition totalisante du livre, comment ne pas évoquer le traité des Passions de l'âme (1647) de Descartes, qui s'attaquait alors aux mêmes problèmes, avec les outils anatomiques et mécaniques de son époque. Mais aussi, plus près de nous, évoquer les ouvrages philosophiques de Henri Bergson sur les "données immédiates de la conscience", la mémoire, le rire ou encore les ouvrages de Jean-Paul Sartre sur l'émotion, l'imaginaire, l'imagination qui relevaient et relèvent encore en France du programme des cours de philosophie. L'espoir de comprendre la cognition, la pensée et sa relation au corps, est ancien (Aristote, Περὶ Ψυχῆς, De anima). L'âme a fait place aux neurones. Quelle sera l'étape suivante de cette histoire des sciences "psychologiques" ?

C'est pourquoi nous mentionnons un manuel universitaire qui met l'accent sur l'intelligence artificielle dans ses relations à la cognition : Artificial Cognitive systems. David Vernon part des sciences cognitives pour en dégager les paradigmes et le système (perception, apprentissage, anticipation, action, adaptation). Au terme de cette analyse, l'auteur passe à l'architecture cognitive puis à l'autonomie, notion clef pour la robotique. Avec la cognition artificielle, celle des machines qui apprennent, David Vernon examine ensuite l'articulation des concepts classiques, l'intention et l'attention (shared intentionsjoint attention) ou encore la mémoire et la prospective, la connaissance et la représentation. L'ouvrage se conclut par l'approche de la cognition sociale.

La confrontation de ces deux manuels permet de mieux situer l'ambition des sciences cognitives et ce qu'y apportent l'intelligence artificielle et les machines. Le lien des sciences cognitives avec l'intelligence artificielle est évident : données (capteurs), réseaux neuronaux, algorithmes, apprentissage, robots, etc.
D'Aristote à ces manuels, les sciences de la cognition ont changé de technique, allant de la philosophie générale à l'informatique en passant par les mathématiques (réseaux neuronaux, machine learning). Néanmoins, la question première de Descartes, celle de la relation de la liberté et de la volonté, reste omniprésente.
L'avenir des études et de la recherche publicitaires passe sans aucun doute par les sciences de la cognition. Ces deux manuels constituent un bon point de départ mais le détour par les textes philosophiques anciens donnera aux lecteurs une perspective féconde et prudente, circonspecte. 


Références
Aristote De l'âme, Paris, Les Belles Lettres, bilingue grec / français, index de quelques termes philosophiques grecs, 35 €
Aristote De l'âme, Paris, édition en poche GF Flammarion, traduction, présentation et annotations par Richard Bodéüs, 1993, 9 €
René Descartes, Les Passions de l'âme, prenez l'édition en poche GF Flammarion, présentée et annotée par Pascale d'Arcy, 1996.
et le commentaire par Denis Kambouchner, L'homme des passions. Commentaires sur Descartes, Editions Albin Michel, Paris, 1995, 2 tomes.

lundi 22 mai 2017

The Circle, roman, film : une société numérique très romancée


Dave Eggers, The Circle, a novel, Alfred A. Knopf McSweenney's Books, 2013, San Francisco, 497 p., ebook, $7,13
Le Cercle, traduit en français et publié par Gallimard, 576 p., juin 2017 (Folio), 8,2 €

Le roman met en scène une jeune femme qui obtient par piston un emploi dans une superbe entreprise numérique rêvée, The Circle. Roman de science politique fiction.

L'univers décrit, plus qu'imaginé, emprunte à Facebook, à Google et Apple réunis. Le réseau The Circle transcende tous les réseaux, en intègre toutes les fonctionnalités et particulièrement celle de réseau social qui constitue le cœur de l'intrigue. Méta-réseau. Utopie proclamée : rendre le monde meilleur en en connectant en permanence tous ses individus, à tous ses objets. Le rendre commode aussi grâce à l'effet de réseau. Cet effet culmine dans une utopie politique dont l'idée est ancienne : l'agora athénienne et son théâtre (devenue "town hall"), la République de Platon, l'Utopia de Thomas More(1516), La Nouvelle Atlantide de Francis Bacon (1624), la démocratie directe à la Rousseau, voter à tout moment, à propos de tout, mettre l'abstention hors la loi (mais comment déciderait-on, démocratiquement, d'un mode de scrutin ?). Utopie nostalgique d'un suffrage universel, jamais loin de la tentation totalitaire : car qui dirige The Circle ? L'espace public démocratique y est orchestré par le fondateur du réseau social, qui n'est pas élu. "On ne peut imaginer que le peuple reste incessament assemblé pour vaquer aux affaires publiques", notait déjà Jean-Jacques Rousseau (Du contrat social, III, 4).
The Circle, réseau total, met en chantier la consolidation numérique de toutes les données personnelles, leur synchronisation généralisée, la collecte constante de data aussi bien sociales que médicales. Collecte centralisée (cloud), qui les rend immédiatement et partout disponibles, mobilisables, totalisables.

Phalanstère aussi, car il y du Charles Fourier dans l'utopie des "Circlers". Apologie de la transparence totale qui permet à toute vie privée de devenir publique ("privacy is theft", "All that happens must be known"). L'architecture dit et répète cette transparence, tout mur de verre étant aussi un écran où défilent des messages, des photos... panopticon absolu où chacun peut observer tout le monde, connaître le passé de chacun. Pas de secret ("secrets are lies", les secrets sont des mensonges). A terme, chacun portera sur soi à tout moment une caméra ("to go clear"), les e-mails seront publics, toute communication étant partagée par tout le monde ; il y aura des capteurs partout, pour tout, y compris certains que l'on avale ("Yeah, everything's on sensors") pour révéler l'état de santé mais aussi les émotions, la fatigue, la tristesse... L'Internet des choses est systématisé. Rien n'est perdu, rien n'est oublié, rien n'est effacé, tout est émietté, réagrégeable à volonté. Univers dans lequel il faut tout partager (sharing is caring), où il faut participer sans cesse, en toute hâte (l'isolement est un péché) sans même que les visages ne se rencontrent. Aucun droit à l'oubli. Impératif catégorique ultime : "Get social with us", comme l'intime une appli médicale de Withings/Nokia.

Affiche du film dans une salle REGAL
Mai 2017 (photo fjm)
Certains autour de nous semblent déjà vivre partiellement dans un tel monde : partageant leur emploi du temps, leurs activités et leurs émotions sur des réseaux sociaux, des messageries, partageant leurs photos, leurs opinions, leurs votes, leurs vidéo, leurs goûts et dégoûts. "Community first" "Thanks for Sharing !". La vie quotidienne des Circlers, travail et loisirs, est ainsi quantifiée, ordonnée, classée, hiérarchisée. Benchmarking incessant et "pression statistique". Wearables (bracelets, colliers), "quantified self" (questionnaires à tout propos). Hyperactivité, Fear of Missing Out (FOMO). A lire avec en tête l'éclairage contraire de l'abbaye de Thélème (François Rabelais, Gargantua, Chapitre LVII) et l'idée de volonté (générale, divine ou simple caprice). La réflexion pratique de The Circle et des Circlers aboutit à la remise en question de la critique de la communication politique et des élections, à l'exigence d'une transparence complète de la vie politique et de la démocratie, à l'interdiction de l'abstention...
Les événements récents, illustrés par les taux d'abstention, les fake news et les errances du programmatique, en confirment les attentes et les risques. Réminiscences de 1984 (Georges Orwell). En fait, le début du roman n'exagère guère, ce n'est déjà plus de la fiction ; parfois, le roman semble même en retard sur le présent. En tout cas, les problèmes posés, dont celui de la propension naturelle d'un réseau social au monopole, sont indéniables...

Le roman a été porté à l'écran par James Ponsold ; le film, sorti dans les salles aux Etats-Unis en avril 2017, est servi par Emma Watson, dans le rôle de l'héroïne, et Tom Hanks dans celui du fondateur. Le film calque plus ou moins le roman. Mais une fiction peut-elle rendre compte des réseaux sociaux, de leur rôle social et culturel, politique sans tomber dans les clichés et les simplifications outrancières (cf. The Social Network, 2010) ? Quels sont les chemins de la liberté numérique ? Quelle morale pour une société numérisée, société sans visages (revenir à Emmanuel Lévinas) ?

L'actualité de ce thème est certaine : le partage des photos avec telle ou telle de nos relations, le partage de toute activité, des déplacements, des calendriers sont déjà proposés par Facebook et Google. Chaque appli croit bon de proposer le partage... Nielsen travaille à une mesure portable des audiences radio et TV (wearable PPM)... La vie privée est-elle compatible avec le numérique, et-elle soluble dans la société numérique ?
L'ambition totalisante (et non totalitaire) s'exprime ainsi dans le discours du P-DG de Google, Sundar Pichai, lors de la conférence annuelle des développeurs en mai 2017, Google I/0 : “We are focused on our core mission of organising the world’s information for everyone and approach this by applying deep computer science and technical insights to solve problems at scale”. Ambition a priori différente de celle des réseaux sociaux et des messageries : s'il s'agit d'organiser l'information et non les personnes...

lundi 16 novembre 2015

L'intelligence artificielle des passions de l'âme



Rosalind W. Picard, Affective Computing, Cambridge, The MIT Press, 292 p. 2000, Bibliogr, Index

Descartes voyait dans les émotions des "passions de l'âme" (1649), les effets de l'action du corps sur l'âme. Avec l'analyse des émotions et le "calcul affectif" (affective computing), l'analyse des expressions du visage est devenue une discipline scientifique recourant à l'intelligence artificielle pour déterminer l'humeur, les sentiments d'une personne.
Une telle connaissance, si elle est rigoureuse, peut donner lieu à de nombreuses exploitations commerciales, médicales, éducatives. L'humeur, bonne ou mauvaise, est-elle une variable discriminante du comportement du consommateur, de l'élève, des décideurs, des politiciens ? Que révèle-t-elle de la santé d'une personne, des risques de maladie, de son intention d'acheter ?

Pour celui qui s'émeut, l'émotion, disait Jean-Paul Sartre, est une "transformation du monde" (Esquisse d'une théorie de l'émotion, 1938) : en effet, dans l'émotion tout se mêle et se confond, la pensée (cognition), le corps et la conscience ; aussi l'émotion fait-elle l'objet d'une approche nécessairement interdisciplinaire, combinant à l'anthropologie les sciences cognitives, la robotique, le machine learning, l'oculométrie (eye-tracking ou gaze-tracking) et, bien sûr, la psycho-physiologie, où Jean-Paul Sartre situait le "sérieux de l'émotion" (observation des états physiologiques).
L'analyse de l'émotion fait l'objet d'un projet du MediaLab au MIT (Cambridge) au point de départ duquel se trouvent les recherches de Rosalind Picard, où elle est Professeur. Son ouvrage fondateur, Affective Computing, déclare un objectif que l'on peut résumer en quelques mots : pour les rendre plus intelligents, doter les ordinateurs des moyens de comprendre les émotions pour qu'ils puissent "avoir le sentiment de", voire même, "faire du sentiment". "Computers that recognize and express affect". Avec quels types de données faut-il les alimenter ? Quel rôle peut jouer l'internet des choses que l'on porte sur soi (capteurs, affective wearables) dans cette perspective ?

L'intelligence artificielle peut permettre d'approfondir la compréhension des émotions et des sentiments (feelings). Rosalind Picard met en avant de son travail la déclaration de Marvin Minsky (comme elle, Professeur au MIT auteur de The Emotion Machine et de The society of Mind) : il ne s'agit pas de savoir si une machine intelligente peut avoir des émotions mais si une machine peut être intelligente sans avoir d'émotions. On devine sa réponse.

L'ouvrage commence par l'étude du cadre intellectuel général de l'"affective computing", la description des émotions ; il débouche en seconde partie sur l'ingénierie propre à son développement, aux conditions de la reconnaissance automatique des émotions par un ordinateur.
L'analyse des visages et des émotions exprimées ("emotion recognition") repose sur quelques opérations essentielles à partir d'une base de données de visages, détection des visages, codage des expressions faciales ("facial coding"), catégorisation des émotions de base. Notons que cette catégorisation est sans cesse reprise depuis Descartes qui en distinguait, intuitivement, "six simples et primitives" (art. 69 du Traité des passions : admiration, amour, haine, désir, joie, tristesse), les autres émotions n'en étant que des compositions ou des espèces. L'affective computing devrait rendre possible une analyse plus objective, passive des émotions. Quid de la détection des sarcasmes ?
Le diagnostic final, l'identification d'une émotion, d'une humeur (mood) combine l'analyse de la voix et de celle des expressions du visage.
Science fiction ? On pense au film Ex Machina dont le personnage est un robot, alimenté par toutes données du Web, dont les photos des réseaux sociaux (micro-expressions mémorisées), capable de décoder les émotions humaines. Comprendre des émotions est une étape clé sur le chemin du test de Turing.

Les applications sont nombreuses et des entreprises vendent l'exploitation de l'analyse des émotions. Citons, par exemple, pour le marketing :
  • RealEyes qui se veut "the Google of emotions". Recourant à la reconnaissance faciale, il s'agit d'observer l'effet de stimuli marketing dans les points de vente : produits, agencement des linéaires, PLV. Utilisé par Ipsos.
  • Affectiva (dans laquelle a investi WPP) propose, en temps réel, des emotion analytics issus des travaux du MediaLab (MIT)
  • Innerscope Research (racheté par Nielsen) se réclame de la consumer neuroscience
  • Emotient quantifie l'émotion, l'attention, l'engagement pour prédire le succès d'un message publicitaire, d'une émission. Racheté par Apple en Juin 2016.
  • Virool analyse les émotions des utilisateurs de vidéo sur le Web (eIQ platform)
  • A titre d'exemple, signalons le projet européen de recherche SEMEOTICONS qui vise l'auto-surveillance à l'aide d'un miroir intelligent (wize mirror ou affective mirror) pour l'auto-diagnostic
  • Signalons encore l'analyse des émotions politiques lors des débats électoraux (cf. par exemple, au Canada en septembre 2015 avec le FaceReader du Tech3Lab de Montréal
  • La BBC étudie l'impact émotionnel de la publicité dite "native" avec CrowdEmotion.
  • Vyking recourt à la reconnaissance faciale pour cibler les consommateurs selon les émotions que manifestent les visages.
  • FacioMetrics (née en 2014 de Carnegie Mellon University) a été rachetée en novembre 2016 par Facebook.
L'ouvrage de Rosalind Picard a peu vieilli dans ses principales problématiques. L'hypothèse de l'universalité des émotions de base (cf. les travaux, discutables, de Paul Ekman) qui, pour partie préside à la catégorisation, reste à démontrer. Des travaux d'ethnologie devraient y pourvoir, mais aussi des travaux d'historiens (cf. l'ouvrage de Damien Boquet et Piroska Nagy, Sensible Moyen Âge. Une histoire des émotions dans l'Occident médiéval, 2015, Paris, Seuil, 475 p., Bibiogr., Index) ou celui, plus gloabal, de Jean-Jacques Courtine, Claudine Haroche, Histoire du visage. Exprimer et taire ses émotions (XVIe - début XIXe siècle, Paris, Petite Bibliothèque Payot, 1988, 2007, 287 p.
Enfin, l'analyse de l'émotion doit être rapprochée de l'analyse de sentiments qui compte sur l'étude des expressions langagières pour déceler la tonalité positive ou négative d'un texte, d'un énoncé. 

lundi 20 juillet 2015

La médecine se soigne au numérique



Robert Watcher, The Digital Doctor. Hope, Hype, and Harm at the Dawn of Medicine's Computer Age, 320 p., New York, McGraw-Hill, 2015, Bibliogr., Index.

L'auteur est Professeur de médecine à l'University of California à San Francisco, praticien et théoricien, c'est un "observateur engagé" des changements qui se propagent dans l'hôpital américain.
Parmi tous les secteurs socio-économiques que la transformation numérique affecte, la médecine et l'hôpital sont essentiels, touchant malades et médecins. Tout le monde donc, à un moment ou à un autre, est ou sera concerné. Les ordinateurs prennent une place croissante dans l'hôpital : Robert Watcher cite une étude de 2013 indiquant qu'un interne passe 12% son temps de travail à l'hôpital avec les malades, mais 40% avec les ordinateurs. L'ordinateur est partout chez lui à l'hôpital transformant l'outillage et la pratique, assistant - ou remplaçant - le personnel médical à tout moment.
Collecte de données, préparation des données, analyse de données : la médecine est le territoire des données massives (big data), des statistiques et de l'Internet des choses, capteurs en tout genre, montres, bracelets connectés et applis accroissant bientôt la fiabilité et le volume des données sécrétées en continu par les patients.
Collecter, organiser, analyser... A titre d'illustration historique, convaincante, l'ouvrage présente une étude de cas minutieuse du stockage et du classement informatisés des données de radiologie (PACS) et de ses conséquences sur le métier quotidien des médecins et l'économie de la radiologie (outsourcing des lectures et analyses des radio, télé-radiologie, traitement automatique de l'image avec l'intelligence artificielle et le deep learning, absence de contact et d'échanges avec le radiologue, etc.).

Le secteur de la santé organise une difficile transition numérique que l'auteur décrit, métier par métier : médecin, pharmacien, infirmier, gestionnaire et, bien sûr, le "patient" (real patient), défini encore comme celui qui "subit" un acte médical. Sans doute faut-il revoir cette terminologie avec la numérisation des relations : "connected patient", "iPatient". La passivité n'est plus, ne devrait plus être l'attribut caractéristique de celui qui consulte un médecin et ainsi se soigne, prend soin de lui-même. Le patient de la médecine numérisée jouera un rôle plus important, sera mieux écouté et entendu, pour se soucier de lui-même (epimeleia heautou, dit la philosophie grecque que reprend Michel Foucault). Self reliance ? Le malade doit-il n'être qu'un assisté ?
Décrivant les professions médicales et leur relation à la numérisation de l'information, l'auteur effectue, nolens volens, une critique en règle de l'institution médicale : l'analyse du passage au numérique (health IT) s'avère un analyseur rigoureux, un révélateur sans pitié des dysfonctionnements du secteur.
Notons, parmi les prévisions de l'auteur, l'augmentation de la taille des hôpitaux, la géographie comptant de moins en moins dans l'économie des soins : soins sur place, au domicile, relations numériques via smartphones et tablettes, lits équipés de capteurs, vidéoconférences (télémédecine, téléconsultation), dossiers de santé électronique (entrées automatiques de données, notes orales transcrites, commandes vocales), aides numériques à la décision (big data analytics, algorithmes). On perçoit l'importance de l'équivalent d'une sorte de "case manager", chargé de l'optimisation des soins.
Peut-on transférer cette analyse au secteur éducatif ?

Robert Watcher compare fréquemment la gestion de la santé et de la sécurité médicale à celle de l'aviation commerciale, aux décisions et à la communication dans le cockpit d'un Boeing, soulignant au passage la transversalité, voire l'universalité des problèmes rencontrés par l'économie de la santé. Le risque de deskilling, par exemple, est évoqué, érosion de compétence dûe au manque de pratique régulière : le cas des pilotes d'avion qui ne savent plus piloter sans informatique n'est sans doute pas différent de celui des médecins. L'informatisation peut provoquer un désapprentissage des réflexes ordinaires.

Le passage au numérique met en question des pans entiers de l'économie de la santé, et particulièrement les modalités de rémunération des médecins et des hôpitaux (l'effet des assurances). Sujet sensible ! et crucial. Comment seront mesurés les indicateurs de qualité des soins ? Encore une fois, les problèmes posés par l'économie numérique de la santé recoupent ceux de l'éducation : comment évaluer le travail d'un enseignant, selon quels critères le rémunérer ? Quid pour la médecine de la "pression statistique" sous l'effet du benchmarking ?

A de nombreuses reprises, l'auteur évoque la question des notes prises par le médecin (computerized notes) et qui enrichissent le dossier médical du patient. Il y consacre la première partie du livre : normal, la "note" est au cœur des données et au cœur de la communication interne entre les acteurs de santé (un malade âgé voit 7 médecins différents chaque année : 2 généralistes, 5 spécialistes, rappelle l'auteur). Le dossier médical (medical / health record), ensemble de data, doit être la propriété du patient, qui peut donner accès à ces data : "All patient data will reside in the medical cloud". On entrevoit l'importance à venir de l'analyse automatique des textes (text mining).

L'auteur vante les mérites d'une économie libérale de la santé libérée des dictats bureaucratiques, où l'Etat se limite à définir les règles essentielles assurant l'interopérabilité (standards) et la sécurité.
Le livre est centré sur l'organisation et l'économie de la santé aux Etats-Unis ; en quoi ses diagnostics seraient-ils différents pour l'Europe et pour la France, compte tenu des différences de protection sociale, d'organisation des études et des mécanismes de décision politique (fédéraux, etc.), des différences de culture administrative.
Si ce livre concerne d'abord la santé, la plupart des problèmes évoqués se posent de manière semblable dans d'autres secteurs (éducation, transport, etc.). Ceci ne contribue pas pour peu à la valeur et à l'utilité de l'ouvrage qui, par ailleurs, est toujours clair et agréable à lire. La médecine s'avère à la pointe de l'économie numérique : en témoigne la place qui occupent les acteurs majeurs de l'économie numérique (Apple, Google, Intel, Baidu, IBM, etc.).

lundi 1 décembre 2014

Débranche tout. Paradis perdu ?


Michael Harris, The End of Absence: Reclaiming What We've Lost in a World of Constant Connection, New York, Penguin Group, 2014, 219 p., € 10,99 (eBook), Index, Glossaire.

Jamais seul avec Internet : on ne débranche plus. Phénomène ancien ; en 1984, France Gall chantait déjà "Débranche. Débranche tout. Revenons à nous". "Coupe les machines à rêve", disait la chanson de Michel Berger qui visait la radio (la FM autorisée depuis 1981) et la télévision (Canal Plus lancé en 1984) ! "Rester maîtres du temps et des ordinateurs"... Michel Berger philosophait volontiers.

Trente ans plus tard (juillet 2014), une enquête de CivicScience (juillet 2014, citée par eMarketer), le confirme : deux tiers des personnes de 13 ans et plus ne débranchent presque jamais. La généralisation des appareils mobiles et du multiscreentasking accentuent la tendance, les wearables (montre, etc.) en rajouteront. Technologie, opium du peuple ?
De plus, comme équipements professionnels et personnels se confondent (BYOD), une connexion permanente est souvent nécessaire, notamment pour les cadres des entreprises privées. Devant le risque de généralisation, les syndicats en viennent à réclamer le droit à la déconnexion pour limiter le temps de travail élastique et "protéger le repos et la vie privée".

Michael Harris souligne dans son ouvrage que les nouvelles générations, aujourd'hui les moins de vingt ans, seront les premières à ne pas avoir connu le monde d'avant Internet (1994). Tout comme les générations d'après les années 1960, les moins de cinquante ans, n'auront jamais connu un monde sans télévision. Tout le monde en revanche a toujours connu la radio. Fossés médiatiques entre générations. La connexion continue s'installe davantage dans le quotidien, de génération en génération : elle devient naturelle et déjà l'on s'étonne qu'elle étonne.
L'auteur propose de méditer cette situation créée par l'omni-présence de la communication numérique, comprendre comment elle affecte nos comportements, notre mémoire, notre expérience du monde, et comment y survivre en bonne santé. Nous vivons "la fin de l'absence", craint-il, la perte du manque ("the loss of lack"), de la rêverie et de la solitude : "The daydreaming silences in our lives are filled; the burning solitudes are extinguished". Nous vivons continuellement dans une situation d'attention partielle (multitasking). Les technologies de communication ont été des moyens, ce sont des fins en soi. Tel est le prix à payer pour les nouvelles technologies, leur coût de renoncement. Culte publicitaire de la durée d'écoute, de connexion (dwell time).
Comment comparer le monde avec et sans Internet ? Avoir vécu sous deux règnes technologiques crée une situation d'immigrant (digital immigrant) condamné à regretter souvent sa technologie d'origine, d'avant le Web et le mobile, tandis que les digital natives, nés dans le numérique, n'ont rien à regretter.

Selon Michael Harris, la vie connectée ne serait pas tout à fait "la vraie vie", plutôt "une saison en enfer". Alors il suggère à ses lecteurs de mettre Internet entre parenthèses, de temps en temps au moins, pour retrouver un peu d'authenticité, les renvoyant à Henri D. Thoreau qui, durant un an, s'était mis à l'écart (Walden; or, Life in the Woods. 1854) : "I went to the woods because I wished to live deliberately, to front only the essential facts of life,and see if I could not learn what it had to teach" et, plus loin, "I did not wish to live what was not life".
Rien de bien neuf - Jean-Jacques Rousseau déjà - sinon un étonnement naïf, salutaire. Il faut s'étonner, sans cesse. Pour cela retrouver un monde à l'écart des technologies ; pour en percevoir les effets, retrouver le monde d'avant les technologies de communication. Nostalgie, luddisme, "self reliance" médiatique ? Attention toutefois, l'hostilité de principe à la technique peut conduire aussi vers des philosophies réactionnaires...

samedi 18 octobre 2014

Gestion : statistiques et benchmarking à tout faire


Isabelle Bruno, Emmanuel Didier, Benchmarking. L'Etat sous pression statistique, Paris, 2013, Editions de la Découverte, 212 p. 18 €

La gestion se nourrit de statistique. Les auteurs s'intéressent à l'exploitation des statistiques d'Etat sous forme de benchmarking. Celui-ci apparaît comme un outil de rationalité des organisations et des choix budgétaires.
"Benchmarker", c'était à l'origine marquer d'un signe faisant référence (bench), pour la mesure des altitudes (point géodésique). De là, la notion de benchmarking s'est étendue à l'établissement d'un standard, d'un point de comparaison (référentiel) pour mesurer, étalonner des pratiques moins objectives que la géodésie dans les domaines économiques, politiques ou sociaux, qu'il s'agisse d'entreprises privées ou publiques. Le benchmarking relève des technologies managériales ; il contribue à la gestion des personnes, au pilotage des entreprises.
Ainsi disposant d'un point de repère, on établit par comparaison et classement les meilleures pratiques (best pratices). Celles-ci acquièrent une fonction d'injonction, de commandement sans chef : tout se passe donc comme si l'on se pliait aux statistiques, à leur "neutralité bienveillante", pas au chef et à son éventuel arbitraire. Du coup, l'analyse de la fabrication de l'objectivité, de la neutralité, devient cruciale. Travail critique de type épistémologique.

Les auteurs passent en revue les composantes du benchmarking : les indicateurs et la quantification, les objectifs, la visualisation (tableaux de bord synoptiques, datavision, etc.). Viennent ensuite les exemples d'utilisation du benchmarking, ses mises en œuvre dans trois secteurs : la police, l'hôpital et l'université.
La gestion des sociétés, les formations diverses génèrent de plus en plus de données, de data ; les évaluations de tous ordres, avec notes et classements, inculquent la légitimité et l'universalité du benchmarking. Omniprésence des analytics que l'on observera dans le marketing des médias et la publicité. L'économie numérique secrète et manipule toujours plus de quantification, de statistique, de benchmark par rapport aux concurrents, par rapport à une période précedente (cfla gestion selon Amazon et, bien sûr, le classement continu des livres selon les ventes, "Amazon Sales Rank). "Big" et "small" data partout. Tout travail, toute activité, toute performance passent par l'observation quantificatrice et ses analyses. De plus, le benchmarking, que permet la profusion de statistiques, alimente le journalisme à partir de données (data journalism). Sur ce plan, le journalisme sportif est un modèle, rendant compte d'un univers de pratiques où l'on mesure tout, compare sans cesse, dans la diachronie comme dans la synchronie.

L'attitude des auteurs envers le benchmarking reste ambigüe : d'une part, ils dénoncent dans le benchmarking, un moyen d'oppression ; d'autre part, ils concluent avec le "statactivisme", travail militant pour "se réapproprier les statistiques comme outil de lutte et moyen d'émancipation" ("œil pour œil, nombre pour nombre"). Car reste une question fondamentale : par quoi remplacer le benchmarking et sa "palette managériale" ? Quelle serait l'antidote ? Les auteurs pour conclure leur critique stigmatisent les échecs de la gestion des services publics d'éducation, santé, sécurité. Mais faut-il incriminer le benchmarking ? Sans doute faut-il chercher ailleurs, à la source des objectifs proclamés.

Voici un ouvrage précieux, conçu dans l'esprit des travaux d'Alain Desrosières à qui il est dédié. Précieux car le benchmarking se propage à la gestion de toute activité humaine : sport, loisir, santé, hygiène, commerce, vie sociale... et se construit en temps réel. Grâce à une économie des contextes, aux wearables et autres outils dits de quantified self, chacun peut communiquer ses exploits à ses amis, à ses connaissances, les rendre publics. La compétition personnelle est continue et le stakhanovisme partout, d'ou l'envie de "disparaître de soi".  Et les réseaux sociaux contribuent à généraliser cette culture, distribuant et comptant des like et des retweet à tout va ; le langage en est contaminé...

mercredi 13 août 2014

Epistémologie de la connaissance photographique : Lévi-Strauss, Jullien, Bourdieu


Le smartphone et ses applis diverses transforment radicalement l'économie de la photographie grand public : celle-ci est devenue gratuite et de bonne qualité (cf. "How the smartphone defeated the point-and-shoot digital camera"). Au service du récit quotidien de la vie quotidienne, récit autobiographique surtout, la photographie est devenue outil de narration (storytelling, narrative intelligence), d'expositions de soi (selfiessexting) plus ou moins éphémères (The Time of Snapchat). La photographie est l'écriture des réseaux sociaux (Snapchat, Instagram, Weibo, Facebook, etc.) : fin 2013, Facebook déclarait collecter, en moyenne, 350 millions de photos par jour. Voir, sur les pratiques du smartphone : PhotoPhone, Smartphoto et phonéographie, ou encore fricote, cuisine de la table au portable.

Tout est occasion de photographie : vacances, assiette au restaurant, prise de notes pendant une réunion professionnelle, un cours, et, bien sûr, plus traditionnellement, tout ce qui relève de la célébration domestique : mariages, naissances, anniversaires, etc.
Les "usages sociaux" de la photographie se sont étendus suivant les capacités de l'appareil, de plus en plus automatique, de plus en plus proche et portable (cf. le cas limite du GoPro : "Wear it. Mount it. Love it"). Le smartphone permet une photographie sans longue préparation, "automatique" presque, mais souvent posée (le sourire rituel s'impose de plus en plus spontanément).

Epistémologie de la connaissance photographique. Occasion de voir ou occasion de ne pas voir ? Photographier pour mieux voir ou pour ne pas voir ? Pour faire ou ne pas faire attention ? La photographie est-elle un outil au service de la connaissance ou fait-elle obstacle à la connaissance ?

Dans le livre de photos consacré au Brésil et à ses séjours d'ethnographe (Saudades do Brazil, Paris, Plon, 1994, 224 p.), Claude Lévi-Strauss souligne le risque inhérent à la photographie : «Durant la première expédition j'avais, en plus du Leica, une petite caméra ovale de format 8 mm dont j'ai oublié la marque. Je ne m'en suis presque pas servi me sentant coupable de garder l'œil collé au viseur au lieu de regarder et d'essayer de comprendre ce qui se passait autour de moi. »
Il reprend cette idée dans un entretien avec Véronique Mortaigne (Loin du Brésil, 2005, republié par les éditions Chandeigne) : «Quand on a l'œil derrière un objectif de caméra, on ne voit pas ce qui se passe et on comprend encore moins ». « Je photographiais parce qu'il le fallait, mais toujours avec le sentiment que cela représentait une perte de temps, une perte d'attention ». Pour Claude Lévi-Strauss, la photographie représente un coût de renoncement élevé.

C'est aussi le point de vue de François Jullien, exprimé dans Philosophie du vivre (Editions Gallimard, 2011, Paris). François Julien évoque les touristes qui, sitôt arrivés « repèrent d'un coup d'œil ce qu'ils pourront photographier, le mettent dans la boîte ». « Prendre une photographie, dit-il, c'est se mettre à couvert, interposer ».
Effet de la technique ? François Jullien reprend et commente la formule d'Héraclite : "présents, ils sont absents" (cfson cours sur France Culture et la BNF). « La technique, en multipliant la présence, l'atrophie. En étendant de toute part son appareillage, elle met à l'abri et prémunit. Elle prémunit de l'assaut du présent ». L'enregistrement distrait de l'immédiat, dispense d'être attentif parce qu'il met en conserve, compte sur l'avenir pour voir ou écouter (enregistrement audio ou vidéo). Procrastination, remettre à demain, sorte de multitasking différé, improbable.

S'il a écrit sur sur la photographie comme pratique (Pierre Bourdieu et al. Un art moyen. Essai sur les usages sociaux de la photographie, Paris, Les Editions de Minuit, 1965), - recherche financée par Kodak-Pathé, ouvrage dédié à Raymond Aron -, Pierre Bourdieu a utilisé la photographie comme outil de son travail d'ethnographe. Les photos prises au cours de ses enquêtes, de ses observations, seront publiées beaucoup plus tard. (cfImages d'Algérie. Une affinité élective, éditions Actes Sud, 2003, 222 pages). Epistémologue du regard "armé" de l'ethnologue, Pierre Bourdieu attend surtout de la photographie un moyen, un instrument d'observation différée.
Pour lui, la photographie provoque «  une conversion du regard », « une manifestation de la distance de l'observateur qui enregistre et qui n'oublie pas qu'il enregistre". La photographie enrichit l'observation : "elle suppose aussi toute la proximité du familier, attentif et sensible aux détails imperceptibles que la familiarité lui permet et lui enjoint d'appréhender d'interpréter sur-le-champ... à tout cet infiniment petit de la pratique qui échappe souvent à l'ethnologue le plus attentif ». Toutefois, le regard de l'ethnologue, lorsqu'il photographie, est déjà éduqué, prévenu ("familier") : il n'est pas neutre, il cadre, classe, met dans des boîtes, dirait François Jullien.
Comme tout enregistrement, la photographie présente les bénéfices du différé : observation à retardement, quand on a tout son temps, loin de l'urgence du moment. « Les photos que l'on peut revoir à loisir, comme les enregistrements que l'on peut réécouter...  permettent de découvrir des détails inaperçus au premier regard et qu'on ne peut lourdement observer, par discrétion, pendant l'enquête ».

Pour l'ethnographe, l'appareil photo est un instrument d'observation ; l'ethnographe se trouve dans la même situation scientifique que d'autres chercheurs qui doivent dépasser "l'observation simple".  Ce que soulignait déjà Claude Bernard : « L'homme ne peut observer les phénomènes qui l'entourent que dans des limites très restreintes ; le plus grand nombre échappe naturellement à ses sens, et l'observation simple ne lui suffit pas. Pour étendre ses connaissances, il a dû amplifier, à l'aide d'appareils spéciaux, la puissance de ses organes en même temps qu'il s'est armé d'instruments divers qui lui ont servi à pénétrer dans l'intérieur des corps pour les décomposer et en étudier les parties cachées » (Introduction à l'étude de la médecine expérimentale, 1865).

jeudi 31 juillet 2014

Usages sociaux de la quantification. Analyse critique


Alain Desrosières, Prouver et gouverner. Une analyse politique des statistiques publiques, Paris, La Découverte, 2014, 285 p. Bibliogr. Introduction par Emmanuel Didier.

Ouvrage qui couronne une œuvre consacrée à la statistique publique, œuvre de praticien mais aussi de théoricien qui réféchit sur les pratiques, sur les usages sociaux des statistiques.
Epistémologue donc, Alain Desrosières analyse les statistiques d'un point de vue historique et contribue à une sociologie rigoureuse de la quantification.
"Prouver et gouverner" regroupe de nombreuses interventions de l'auteur à des colloques, dans des revues, etc. Toutes ont en commun d'analyser le fonctionnnement tant technique que politique de la quantification et de la statistique, "science de l'Etat" (selon l'étymologie).
L'auteur est décédé en 2013 ; le texte a été établi par Emmanuel Didier, chercheur (socio-histoire des statistiques), qui y consacre une longue et utile introduction.

Le livre accorde une place centrale à l'analyse des effets de la rétroaction sur les comportements quantifiés des acteurs sociaux ("quand une mesure devient une cible, elle cesse d'être une bonne mesure"). La rétroaction, appliquée à la comptabilité publique ou à la comptabilité d'entreprises (creative accounting, window dressing), voire à l'activité individuelle (benchmarking, "calculating selves", chacun devenant "entrepreneur de lui-même", selon une expression de Michel Foucault ; "calculable spaces" (Peter Miller), environnement qui impose au sujet un calcul constant).
Dans cette perspective, que penser du développement récent du "quantified self", du "wearable computing" ? Où mènent ces quantifications continues de soi-même et des performances de toutes sortes ? Comment vont-elles affecter les raisonnements, les décisions, les choix (santé, éducation, gestion domestique, emploi du temps, etc.) ?
Gouvernement de soi-même - et de son environnement - par les nombres ? Internet des choses ? La lecture d'Alain Desrosières peut servir de mise en garde, non pas contre la statistique mais contre certains de ses usages.

Oppression ou libération ? Statistique du chômage et de l'emploi, indice des prix, évolution des inégalités, indicateurs sociaux, catégories socio-professionnelles (Alain Desrosières a participé à la refonte de la nomenclature des CSP) : les statistiques sont-elles des outils de pouvoir ou bien des "outils de faiblesse aux mains des opprimés" contre les puissants ("ce qui n'est pas compté ne compte pas") ? Autrement dit, sont-elles des outils de coordination et d'administration ou bien des outils de preuve ? Comment concilier ces deux fonctions ?

L'ouvrage approfondit tour à tour de grands moments et bifurcations de l'histoire des statistiques. Le raisonnement probabiliste (Thomas Bayes, Pierre-Simon Laplace) et le raisonnement fréquentiste (Adolphe Quételet), les sondages, le travail d'Antoine-Augustin Cournot, l'histoire des notions de régression et de corrélation (Karl Pearson). L'analyse des données (Jean-Paul Benzécri, Ludovic Lebart) où l'auteur voyait une "cartographie du monde social", avec la multidimensionnalité, chère à la sociologie et aux études de consommation. Alain Desrosières convainc, s'il en était besoin, de l'omniprésence des statistiques et des conséquences sociales multiples de la quantification.

Les études médias et le marketing se repaissent de statistiques. Toutes les questions abordées ici par Alain Desrosières, techniques ou éthiques, peuvent concerner les travaux effectués sur les médias, les opinions, les consommations, les audiences, les panels... L'ouvrage invite à la critique des concepts de la statistique, au doute ; il en montre les enjeux. Alors que la publicité et les médias se jettent à corps perdu dans la data (big data) et l'intelligence artificielle, toute statistique à l'appui, les réflexions d'Alain Desrosières sont salutaires et fécondes.

dimanche 13 juillet 2014

Big Data, notre avenir à présent

Patrick Tucker, The Naked Future. What Happens in a World That Anticipates Your Every Move?, New York, Penguin Group, 2014, 288 p., Index. $11,99 (eBook)

L'objet du livre, c'est le Big Data et son utilisation pour prédire l'avenir, proche ou moins proche, et deviner nos intentions. The Naked Future a le mérite d'explorer et synthétiser de nombreux problèmes à venir, de les faire voir et d'inviter à y réfléchir. C'est un travail de vulgarisation et de sensibilisation, souvent émerveillé et optimiste. L'auteur, spécialiste de technologies numériques, est éditeur de The Futurist, magazine de politique étrangère (sécurité, etc.).

L'originalité du livre est de mettre l'accent sur le futur, sur le rapport au temps. Notre futur proche c'est du privé, du secret ; qu'y a-t-il de plus privé, de plus secret que des intentions ? Avec le Big Data et sa capacité de prédiction et d'anticipation, le futur peut devenir public : les prochaines maladies, les insuccès scolaires ou sentimentaux, la situation bancaire... La connaissance de l'avenir que permet l'analyse de la Big Data est-elle compatible avec la sauvegarde de la vie privée ?
De plus, avec la Big Data, notre futur devient partie prenante, rétro-activement, de notre présent ("causalité du probable"). La Big Data, en prédisant notre futur, altère le présent, devenu du futur passé. C'est comme un destin annoncé, un horoscope qui se lit et se réalise au fur et à mesure du temps qui passe. Le futur mis à nu par la data, de plus en plus probable (raisonnement bayésien), est déshabillé de ses mystères, de ses doutes, de ses erreurs, de ses bifurquations, de ses espoirs ; d'habitude, "on ne sait jamais".
Comment l'avenir, prédit - ou dicté - par la Big Data, affecte-t-il le présent, notre liberté ? On ne sait pas ce que l'on dit (S. Freud), on ne sait pas ce que l'on sait de nous, les traces laissées et oubliées : ainsi s'institue un inconscient numérique refoulé : comment faire advenir un moi libéré à partir d'un "ça" structuré comme de la data ? Big Brother, armé désormais de Big Data, est-il devenu un horoscope totalitaire, où tout est dit, édicté par le passé, par la constellation des astres au moment de la naissance ?

D'où viennent toutes ces données ? Ces données, actes de toutes sortes, actes volontaires et actes manqués (Sigmund Freud), "tropismes" (Nathalie Sarraute), ce sont d'abord des données de la vie quotidienne, données insignifiantes a priori mais qui, traitées en masse, interconnectées, corrélées, peuvent intervenir dans la gestion de nos vies, les éclairer ou les assombrir. Transmutation des données. Les sources sont multiples et de plus en plus nombreuses. L'auteur évoque, entre autres, le quantified self  produit par les capteurs divers notant et quantifiant la santé, les performances sportives (wearables), l'alimentation, les déplacements, les dépenses, les rencontres, les émotions, etc. Il évoque aussi comment peuvent être affectés, positivement, la démographie médicale, les réseaux sociaux, les prévisions météo, le succès d'un film ou d'une série télévisée, les cartes de fidélité, la publicité, l'éducation, la criminalité (on pense à "The Machine" qui signale les dangers à venir pour en protéger de futures victimes innocentes, cf. "Person of Interest", la série télévisée de CBS). Prédire les interactions, les rencontres, les sentiments : est-ce une si bonne idée, si peu romantique ? L'amour ne serait plus aveugle ? "Alors nous regetterons d'avoir médit des anciennes étoiles" (Louis Aragon, Le Progrès, 1931).

L'inventaire des craintes et des possibilités est impressionnant, les réussites semblent plus anecdotiques. Car combien de personnes sont membres régulièrement actifs d'un réseau, combien sont prêtes à partager leur performances sportives, leurs données médicales, leurs déplacements ? N'exagère-t-on pas l'ampleur de cette propension à publier ? Nombre de personnes s'inquiètent du totalitarisme numérique, pire des mondes possibles, certaines résistent, se déconnectent, beaucoup réclament la séparation des data (dimension nouvelle de la séparation des pouvoirs)...
Exemples : dunnhumby et sociomantic (achetés par le distributeur Tesco) "prédisent" l'avenir avec la data

lundi 24 mars 2014

Concevoir les design d'une vie multi-device


Michal Levin, Designing multi-device experiences. An ecosytem approach to user experiences across devices, O'Reilly, Index, 2014, 328 p., 26,81 $ (édition Kindle)

Le monde de nos outils numériques est multiple. Dès lors, comment concevoir des réalisations adaptéees à des outils différents, coordonnés et synchonisés : smartphones, phablets, tablettes, ordinateurs, téléviseurs, DOOH ?
L'auteur, spécialiste du design, travaille chez Google (Senior User Experience Designer), propose la notion d'"écosystème d'outils connectés" et de"multi-device design". Selon elle, la clé de la réussite se trouve dans l'adaptation au support, d'où la métaphore du beau caméléon sur la couverture de l'ouvrage. Mais la difficulté provient de la multiplicité des supports et des O.S., multiplicité qui oblige à concilier les optimisations locales, appareil par appareil, avec l'optimisation totale de l'expérience utilisateur (User experience, UX). Comment passer du responsive web design (RWD), premier degré de l'optimisation, qui fait que le design d'un site Web s'adapte automatiquement à tout écran (CSS3), à une adaptabilité généralisée aux appareils, au-delà des écrans.

Michal Levin caractérise trois approches du multi-device design : consistant, continu et complémentaire. Consistant renvoie à la constance inter-produits du design, observable, par exemple, dans Google Search ou Hulu Plus ; cette approche ignore toutefois les contextes de chaque expérience. Continu renvoie à la successivité coordonnée des opérations conduites avec plusieurs appareils, d'un appareil à l'autre (exemples : Pocket, Kindle). La complémentarité naît des interactions entre appareils, fonctionnant ensemble, comme orchestrés (exemples : jeux vidéo, écrans de l'expérience télévisuelle). Chacune de ces propriétés est illustrée de très nombreux exemples, convaincants, clairement développés. Puis vient le moment final de l'intégration optimisée de ces trois types de design.

Après, l'auteur s'éloigne du strict éco-système des appareils pour élargir son approche à des ensembles d'objets plus vastes : Internet des Choses et domotique (Nest, BiKN, Square, Smartthings), Quantified Self et Wearable notamment (Nike+, Pebble), réalité augmentée (catalogue Ikea).
Enfin, vient le moment des multi-device analytics. Comment évaluer la réussite d'un écosystème (Google Analytics, A/B testing) ? Comment dégager, à partir de ces évaluations, des informations sur les comportements des utilisateurs ? Comment gérer la collecte de data : plus d'appareils signifie beaucoup plus de données.

L'expérience d'un écosytème multi-device constitue un changement radical dans les expériences humaines des outils. Les utilisateurs sont inondés de versions, d'applis qui complexifient et déroutent les apprentissages. D'autant que les appareils et leur design (ergonomies) créent des habitudes, des gestes, des réflexes (affordance), des souplesses aussi, notre esprit s'adaptant à la manière du "responsive web design" (RWD), plus ou moins bien.

L'ouvrage de Michal Levin est bien réalisé ; il est de lecture et de consultation commodes sur un e-reader : le sommaire détaillé est facile à suivre, les liens systématiques facilitent l'accès aux exemples, aux notions (index), aux sites et aux travaux évoqués. C'est un bon outil de travail et de documentation.
En revanche, la mise à jour proposée par l'éditeur (O'Reilly) coûte $4,99 ; c'est exagéré. Expérience utilisateur ratée.

lundi 23 décembre 2013

L'écrit dans la cité : polices de l'écrit et délinquance graphique

.
Philippe Artières, La police de l'écriture. L'invention de la délinquance graphique 1852-1945, Paris, La Découverte, 183 p, 17 €

Grafitti, tags, écrits sur les murs, dessins au long des voies publiques : nous ne nous étonnons pas que ceci soit réglementé et parfois puni. Bien sûr les infractions ne manquent pas.
Certains arbitraires deviennent des lois : l'habitude de les respecter, effet du travail de la police, finit par en faire oublier l'arbitraire. Consentement. A Rome, on écrivait sur les murs.

L'ouvrage de Philippe Artrières s'attache à débusquer les traces du contrôle de l'écriture publique. Au printemps 1871, la Commune reprit le pouvoir sur les murs et afficha en masse. Explosion politique,"explosion graphique". Un siècle plus tard, au printemps de 1968, les murs, dit-on, avaient repris la parole : "Ecrivez partout", "Défense de ne pas afficher", disaient les murs ! (Cf. Slogans et graffiti).

Les premiers chapitres de l'ouvrage traitent de l'affichage. L'histoire de l'affichage témoigne de l'importance de ce média pour la liberté de la communication. Parmi les faits rapportés, citons les chiffonniers qui grattaient les affiches la nuit pour revendre le papier le lendemain. Citons encore le cas des innombrables palissades entourant les grands travaux de Haussmann qui éventraient Paris : les palissades seront rapidement recouvertes d'affiches (aujourd'hui, les communes louent l'espace provisoire des palissades aux afficheurs publicitaires). En 1868, après Berlin, Paris vit l'arrivée des colonnes Morris. Un paysage publicitaire urbain naissait.
Après ces chapitres d'histoire, l'auteur montre comment a proliféré un arsenal de textes de toutes sortes réglementant, encadrant, limitant l'affichage et l'écrit public dans les moindres détails. Partout, jusqu'aux monuments des cimetières, l'écrit public fut mis sous surveillance. Les conséquences de cette reprise en main vont des limitations de l'affichage électoral jusqu'au travail de dénomination des rues et des lieux (plaques, etc.), entre autres dans un but d'éducation civique. A l'écrit, le pouvoir politique nouveau qui a tellement eu peur de la Commune préfère la sémiologie des monuments, des statues...
La deuxième partie de l'ouvrage porte sur la répression de la "délinquance graphique". L'auteur analyse en détail l'organisation de la surveillance graphique de l'espace public confiée aux gardiens de la paix, en attendant les caméras.
La dernière partie traite de la construction d'un "savoir policier de l'écrit", savoir d'experts et de laboratoires : ce que trahissent d'un crime l'écrit, l'écriture.
Manque l'écrit porté par les vêtements (wearable !) dont se sont emparées les marques et qu'arborent fièrement des personnes en mal de distinction et d'appartenance (marque de vêtements, d'équipes sportives ou politiques, d'universités, etc.). Manquent aussi les marquages des esclaves, des condamnés, déportés, etc. auxquels se substitueront les empreintes digitales.

Ouvrage important pour les faits qu'il rapporte sur l'histoire de l'affichage et de sa répression. Où en sommes-nous aujourd'hui ? Société de surveillance policière : l'ouvrage de Philippe Artières peut être lu comme une mise en perspective du droit d'afficher dans le cadre des Droits de l'homme et de la liberté d'expression (Article 11, notamment). Contribution à l'histoire de la censure. La notion de "délinquance graphique" forgée par l'auteur, en disciple de Michel Foucault, est féconde et pourrait trouver de nombreux terrains d'application. Mais elle ne saurait remplacer l'analyse économique : tout espace est désormais vendable comme support aux entreprises publicitaires, donc toute écriture, tout affichage non achetés à un bailleur provoque un manque à gagner pour le propriéaire.
Le passage au numérique pose de manière nouvelle les questions qu'évoque l'auteur, notamment des questions juridiques : qu'est-ce qu'afficher sur le Web et les réseaux sociaux, faut-il / peut-on contrôler cet affichage ? Quid de l'affichage numérique (DOOH), de l'interactivité éventuelle avec les écrans grâce au smartphone ? Et, dans tous ces cas, Web, réseaux sociaux ou DOOH, quel est le statut de la vie privée puisque, puisque, à la différence des écrits et affichages analogiques, il s'agit de médias qui peuvent voir le public qui les regarde ? Va-t-on assister à l'apparition d'une "délinquance" numérique ?
.

mercredi 2 octobre 2013

Capteurs et mobile : l'économie du contexte numérique

Robert Scoble, Shel Israel, Age of context. Mobile, Sensors, Data and the Future of Privacy, Patrick Brewster Press, 2013, $9.99 (version numérique)

Ce livre relève du genre journalistique. Ce n'est ni un livre d'ingénieurs, ni un livre de praticiens. Il ne s'agit pour les auteurs, au terme d'une enquête documentaire et d'interviews, que de repérer, présenter et vulgariser des idées générales sur les évolutions sociales du numérique.
L'enquête s'en tientt à quelques directions technologiques clés : la mobilité, les réseaux sociaux, le big data, les capteurs (sensors), la cartographie et la localisation (pinpoint marketing, geo-fencing). Internet des choses, robots assurant des travaux domestiques, une assistance pour toutes sortes de tâches... S'y ajoute surtout le wearable computing : l'intelligence informatique de ce tout ce que l'on porte, bracelet, montre, lunettes, vêtements.

Les auteurs perçoivent dans cet inventaire quelque peu hétéroclite un point crucial, commun : la prise en compte et l'analyse du contexte par les technologies. Ceci affecte bien sûr le commerce et les lieux publics (stades, taxis, etc.), l'automobile et les déplacements, la vie urbaine, les transports, la pollution, la santé, l'hygiène. Ces secteurs convergent, grâce au cloud computing, dans l'analyse et l'exploitation des données issues des multiples dimensions de l'environnement immédiat, ce dont rend compte la notion unifiante de contexte - qui n'est sans doute pas le meilleur terme pour désigner de ce qui se trouve tout autour de nous, à proximité active, ce qui nous marque et est susceptible de nous interpeler. Umwelt ? Smart city ?

L'ouvrage est délibérément enthousiaste, optimiste. Il inventorie des utopies réalistes, réalisables, déjà presque réalisées pour certaines, science fiction à faible portée et qui fait d'autant plus rêver. Le numérique aurait-il réponse à tout ? Chemin faisant, cette économie du contexte développe une économie de l'intention, qui est aussi une inquiétante économie de la vie privée et qui pose en retour bien des questions, plus morales que technologiques. Manque peut-être une description, qui rassurerait, des moyens de résistance à cette invasion de la vie privée, lorsqu'elle n'est pas voulue, souhaitée.
Notons que l'ouvrage est parrainé par quatre marques (dont Microsoft) : voici le nouveau modèle économique de l'édition numérique, copié sur la presse magazine...