Affichage des articles dont le libellé est facial recognition. Afficher tous les articles
Affichage des articles dont le libellé est facial recognition. Afficher tous les articles

mercredi 21 novembre 2018

Tout pour comprendre le média planning



Jean-François Canguilhem, Marie-Pierre Cueff, Média Planning. Fondements conceptuels et métodologiques, Paris, Editions TECHNIP, 424 p. Bibliogr. (française exclusivement), Index (rerum). 45 €
Table des matières précise (12 pages) pour s'orienter dans l'ouvrage, complête heureusement l'index.

Média Planning, drôles d'expression. Surannée à l'époque des mots clés et des influenceurs, d'Amazon et de YouTube ? Pas sûr, à voir, en tout cas.
Voici un manuel complet qui permet d'y voir clair. Mais allons tout de suite au sous-titre de l'ouvrage qui évoque les fondements conceptuels et méthodologiques : enfin ! Car si le marché compte nombre de bons praticiens du média planning, plus rares sont ceux qui savent en analyser et en critiquer les concepts et méthodologies. Et faire front avec circonspection aux dérapages récents du marché publicitaire, qu'il s'agisse de réseaux sociaux en proie aux misplacement et aux miscalculations ou d'invisibilité, de fraude avec robots, etc... Le monde de la publicité a besoin de talents armés des outils qu'exposent cet ouvrage.

Les auteurs sont deux spécialistes français du média planning. Marie-Pierre Cueff, praticienne confirmée, riche d'une solide expérience de la presse magazine (elle n'en est pas à son premier manuel), Jean-François Canguilhem, statisticien expérimenté, spécialiste reconnu du média planning et de ses logiciels. Il fallait deux pros indiscutables pour oser s'attaquer à un projet aussi redoutable. De plus, la relecture a été confiée à un grand pro du média planning également, mathématicien hors pair, Jean-Luc Stélhé. Les lecteurs peuvent être confiants : pas de fake news ici !

L'ouvrage est d'abord un travail d'exposition rigoureux. Cela en fait un outil indispensable aux étudiants, à celles et ceux qui commencent une carrière publicitaire, mais aussi à ceux qui sont entrés dans la carrière depuis quelque temps et osent enfin s'avouer qu'il est temps d'approfondir leurs connaissances, de démêler l'écheveau des notions et concepts, des chemins à parcourir (méthodes) pour répondre aux demandes de leurs clients, annonceurs, régies publicitaires, instituts d'études.

Média planning ? Planification et budgétisation des actions publicitaires, pour un produit, un service, une marque. L'art d'adresser un message (commercial, mais pas nécessairement) aux personnes que l'on veut atteindre (la cible, terme peu engageant), sous contrainte budgétaire, dans des délais déterminés. L'idéal étant de pouvoir évaluer et valider cette action commerciale en temps réel. Bien sûr, on admet, généralement sans preuve, que le message ("la créa") est adéquat à ses fins.
Notons que les médias rencontrent bien d'autres problèmes de marketing que publicitaires (abonnement, pay-wall, recommandation, etc.). Symptomatique d'une nouvelle époque, Netflix, premier service pluri-national de vidéo à la demande (SVOD), sans publicité, ne s'encombre pas de données d'audience : elles ne lui serviraient de rien.
Tous les concepts du média planning sont explicités minutieusement, sans raccourcis : contact (et distribution de contacts), couverture, GRP, fréquentation, probabilisation, données manquantes, fusion, distance de voisinage, modélisation. Excellents techniciens - les meilleurs - les auteurs décrivent et analysent le fonctionnement du média planning ; ils ne s'attardent pas (pas assez à mon goût, du moins) sur les limites des notions mobilisées. Normal : pour la deuxième édition  ?

Quelques remarques, en vrac, en marge de ma lecture à propos des limites.
  • La notion de déclaration mériterait un développement. Tant de mesures, qu'il faudrait justement mesurer, reposent sur des déclarations. 
  • La mémorisation, aussi, tellement importante, la mémorabilité (A. Morgensztern). Où l'on retrouve la qualité de la création publicitaire ou promotionnelle et l'efficacité. 
  • La notion de contact qu'il faut distinguer de l'occasion (de voir, d'entendre). Ainsi, distinguera-t-on le contact avéré contrôlé par eye tracking ou détection des regards (facial recognition) et le contact probable, déduit des déclarations de passage dans l'environnement d'un support de publicité. Quant à la mesure d'audience de la télévision, elle ne connaît que des probabilités de contact puisqu'elle ne considère que les personnes présentes dans la même pièce que le téléviseur, que celles-ci regardent ou non l'écran (et dans la mesure où elles se déclarent présentes à l'aide d'une sorte de télécommande, déclaration assistée).
  • Ne doit-on pas distinguer voir et regarder, entendre et écouter ? Ainsi pour une affiche dans la rue, un écran dans une vitrine, nous pouvons avoir l'occasion de voir (être passé dans la rue), nous pouvons avoir vu (ou entrevu) et, mieux, avoir regardé (voire lu). De même, quand la fréquentation de la radio est déclarée, il s'agit sans doute d'écoute (puisque l'on s'en souvient), mais, quand elle est détectée (portable people meter), il s'agit seulement d'avoir pu entendre. D'où l'importance d'une définition précise du contact, donnée élémentaire du média planning. 
  • De même qu'un excellent média planning ne peut rien contre un message inadéquat, fût-il mémorable, il ne peut rien faire de données confuses ("garbage in, garbage out"). Tester la création au préalable pour estimer ce que les proctériens ont appelé effective frequency (donc le GRP utile) ? 
  • Les enquêtes de référence citées par les auteurs pour illustrer leurs propos ont presque toutes changé et n'ont pas fini de changer suivant les équipements et les pratiques culturelles : peut-être faut-il réserver cet aspect à un support numérique complémentaire. Au livre de s'en tenir aux fondements, concepts et méthodes.
Un nouveau monde de médias s'installe. Amazon, Google, Facebook, LinkedIn, et autres transforment le monde ancien des médias et de la publicité, radicalement. NLP, computervisionobject detection, etc. peuvent décrire et analyser les contextes où s'insèrent les messages publicitaires ; ces analyses recourent maintenant à des outils basés sur les réseaux neuronaux et le machine learning : contexte langagier (NLP), iconograhique bientôt : image recognition, object recognition, scene recognitionetc. arrivent à grands pas. Métiers d'ingénieur quant à la technique (collecte, analyse, data science), le média planning restera un métier de bon sens et de talent quant aux objectifs : synthèse délicate. Car, si la transformation numérique des médias anciens chamboule toutes les techniques, elle n'affecte pas l'art d'en interpréter les résultats et d'abord d'imaginer des hypothèses, de poser des questions.
Les méga-médias, armés de moyens technologiques et financiers puissants, ont tout intérêt à accélérer l'obsolescence des techniques anciennes, non sans en avoir préalablement débauché les spécialistes. Alors, un ouvrage sur le média planning serait-il bientôt obsolète ? Non, le marché de la publicité et des médias, de plus en plus multi-national, qui compte des milliers de mesureurs, pourvoyeurs en analytics de tous genres (toute technologie média développant ses mesures : wearables, Internet of Things, computer vision, etc.). Pour s'y retrouver, il faut s'appuyer sur des principes fermes, universels, des idées claires. C'est ce qu'apporte l'ouvrage de Jean-François Canguilhem, Marie-Pierre Cueff.

Comme il semble impossible de résister à l'obsolescence actuellement observable dans ce domaine, le manuel universitaire est condamné, et avec lui ses auteurs, à des mises à jour régulières accessibles sur le web ou à l'aide d'une appli. Voyez les manuels de médecine : de nouvelles "recommandations" imposent aux étudiants (et aux médecins en exercice) de mettre à jour leur savoir avant chaque nouveau cas. Voyez le Vidal ! Médecine et marketing, même combat !
Conclusion : cet ouvrage va désormais faire référence en France : aux auteurs de travailler vite à une mise à jour prochaine, coordonnant le livre papier avec une présence sur internet : un étudiant (tout lecteur) veut aujourd'hui pouvoir consulter un tel outil, à jour, sur une appli dans son téléphone. 

mardi 9 août 2016

Histoire culturelle : visage, émotions, sentiments



Jean-Jacques Courtine, Claudine Haroche, Histoire du visage. Exprimer et taire ses émotions (XVIe - début XIXe siècle, Paris, Petite Bibliothèque Payot, 1988, 2007, 287 p.

Travail d'historiens. Travail d'anthropologie culturelle. Les émotions du visage sont le fruit d'une histoire, d'une culture ; les expression des visages varient avec les époques et les classes sociales. Le langage des émotions s'apprend, se transmet, s'inculque : socialisation, éducation y contribuent. Le rôle des médias dans cette inculcation est déterminant désormais, cinéma, réseaux sociaux, variétés, publicité : tout ce qui relaie et propage les gestes des people. Il suffit de voir des jeunes européens espèrer se distinguer en imitant les gestes, en empruntant à la culture américaine des bouts de comportements langagiers, des tons de voix, des expressions, des accents, des gestes, toute une hexis corporelle que révèle la pose des photos.
Jeux d'acteurs ?

Dans leur ouvrage, les auteurs évoquent les philosophies du visage à l'œuvre dans les manuels de civilité et de conversation européens, dans les manuels de savoir-vivre ; on voit dès l'antiquité se développer l'histoire de l'individualisation, de la personnalisation des expressions du visage, de ses gestes : "science des passions", langage du corps, "anatomie du sentiment".
Une attention particulière est accordée à l'histoire de la physiognomonie, discipline qui visait à deviner l'âme, la personnalité derrière les apparences, à percer la dissimulation, le mensonge. A mi-chemin entre technique médicale d'observation et technique divinatoire (astrologie), la physiognomonie apparue en Grèce (Hippocrate), développée par la tradion arabe, s'épanouit aux 17 et 18èmes siècles ; elle concerne l'anatomie des visages mais s'étend également à la conversation ("physiognomonie de la parole") et va jusqu'à la criminologie (Cesare Lombroso).

Le visage, c'est l'homme : in facie legitur homo. Comprendre les sentiments, lire les caractères en analysant les traits du visage est une ambition ancienne. Avec les outils de l'intelligence artificielle, cette ambition est renouvelée (cf. "l'intelligence artificielle des passions de l'âme").
On fait l'hypothèse qu'il existe des données élémentaires des expressions du visage que le machine learning pourrait détecter et interpréter. Le visage, ses traits, sa forme laissent voir la personnalité, l'humeur. L'hypothèse de l'universalité du langage des émotions de base guide les travaux classiques de Paul Ekman. Nouvelle physiognomonie, retour de Lavater et de son Art de connaître les hommes par la physionomie (1775) ?
La tentation physiognomonique pourrait réapparaître avec l'analyse des photographies publiées sur les réseaux sociaux et avec la reconnaissance faciale. Au-delà de la vision par ordinateur (computer vision), l'anthropologie invite à une prise en compte de la sémiologie et de la dimension culturelle.

L'ouvrage de Jean-Jacques Courtine et Claudine Haroche s'arrête au seuil du XXème siècle, avant la phénoménologie. Comment raccorder cette histoire culturelle - exclusivement européenne - du visage avec ce qu'énonce la philosophie d'Emmanuel Lévinas qui accorde un statut fondamental, premier au visage ? Comme siège de la vulnérabilité, le visage d'autrui impose d'emblée une responsabilité morale ; le face à face est au commencement de l'éthique : "En quoi l'épiphanie comme visage, marque-t-elle un rapport différent de celui qui caractérise toute notre expérience sensible ?" (Totalité et infini, 1971, section III, "le visage et l'extériorité").

Cette Histoire du visage est un ouvrage essentiel pour qui travaille sur la vision ; elle peut constituer un contrepoids fécond aux travaux recourant à l'intelligence artificielle.

lundi 16 novembre 2015

L'intelligence artificielle des passions de l'âme



Rosalind W. Picard, Affective Computing, Cambridge, The MIT Press, 292 p. 2000, Bibliogr, Index

Descartes voyait dans les émotions des "passions de l'âme" (1649), les effets de l'action du corps sur l'âme. Avec l'analyse des émotions et le "calcul affectif" (affective computing), l'analyse des expressions du visage est devenue une discipline scientifique recourant à l'intelligence artificielle pour déterminer l'humeur, les sentiments d'une personne.
Une telle connaissance, si elle est rigoureuse, peut donner lieu à de nombreuses exploitations commerciales, médicales, éducatives. L'humeur, bonne ou mauvaise, est-elle une variable discriminante du comportement du consommateur, de l'élève, des décideurs, des politiciens ? Que révèle-t-elle de la santé d'une personne, des risques de maladie, de son intention d'acheter ?

Pour celui qui s'émeut, l'émotion, disait Jean-Paul Sartre, est une "transformation du monde" (Esquisse d'une théorie de l'émotion, 1938) : en effet, dans l'émotion tout se mêle et se confond, la pensée (cognition), le corps et la conscience ; aussi l'émotion fait-elle l'objet d'une approche nécessairement interdisciplinaire, combinant à l'anthropologie les sciences cognitives, la robotique, le machine learning, l'oculométrie (eye-tracking ou gaze-tracking) et, bien sûr, la psycho-physiologie, où Jean-Paul Sartre situait le "sérieux de l'émotion" (observation des états physiologiques).
L'analyse de l'émotion fait l'objet d'un projet du MediaLab au MIT (Cambridge) au point de départ duquel se trouvent les recherches de Rosalind Picard, où elle est Professeur. Son ouvrage fondateur, Affective Computing, déclare un objectif que l'on peut résumer en quelques mots : pour les rendre plus intelligents, doter les ordinateurs des moyens de comprendre les émotions pour qu'ils puissent "avoir le sentiment de", voire même, "faire du sentiment". "Computers that recognize and express affect". Avec quels types de données faut-il les alimenter ? Quel rôle peut jouer l'internet des choses que l'on porte sur soi (capteurs, affective wearables) dans cette perspective ?

L'intelligence artificielle peut permettre d'approfondir la compréhension des émotions et des sentiments (feelings). Rosalind Picard met en avant de son travail la déclaration de Marvin Minsky (comme elle, Professeur au MIT auteur de The Emotion Machine et de The society of Mind) : il ne s'agit pas de savoir si une machine intelligente peut avoir des émotions mais si une machine peut être intelligente sans avoir d'émotions. On devine sa réponse.

L'ouvrage commence par l'étude du cadre intellectuel général de l'"affective computing", la description des émotions ; il débouche en seconde partie sur l'ingénierie propre à son développement, aux conditions de la reconnaissance automatique des émotions par un ordinateur.
L'analyse des visages et des émotions exprimées ("emotion recognition") repose sur quelques opérations essentielles à partir d'une base de données de visages, détection des visages, codage des expressions faciales ("facial coding"), catégorisation des émotions de base. Notons que cette catégorisation est sans cesse reprise depuis Descartes qui en distinguait, intuitivement, "six simples et primitives" (art. 69 du Traité des passions : admiration, amour, haine, désir, joie, tristesse), les autres émotions n'en étant que des compositions ou des espèces. L'affective computing devrait rendre possible une analyse plus objective, passive des émotions. Quid de la détection des sarcasmes ?
Le diagnostic final, l'identification d'une émotion, d'une humeur (mood) combine l'analyse de la voix et de celle des expressions du visage.
Science fiction ? On pense au film Ex Machina dont le personnage est un robot, alimenté par toutes données du Web, dont les photos des réseaux sociaux (micro-expressions mémorisées), capable de décoder les émotions humaines. Comprendre des émotions est une étape clé sur le chemin du test de Turing.

Les applications sont nombreuses et des entreprises vendent l'exploitation de l'analyse des émotions. Citons, par exemple, pour le marketing :
  • RealEyes qui se veut "the Google of emotions". Recourant à la reconnaissance faciale, il s'agit d'observer l'effet de stimuli marketing dans les points de vente : produits, agencement des linéaires, PLV. Utilisé par Ipsos.
  • Affectiva (dans laquelle a investi WPP) propose, en temps réel, des emotion analytics issus des travaux du MediaLab (MIT)
  • Innerscope Research (racheté par Nielsen) se réclame de la consumer neuroscience
  • Emotient quantifie l'émotion, l'attention, l'engagement pour prédire le succès d'un message publicitaire, d'une émission. Racheté par Apple en Juin 2016.
  • Virool analyse les émotions des utilisateurs de vidéo sur le Web (eIQ platform)
  • A titre d'exemple, signalons le projet européen de recherche SEMEOTICONS qui vise l'auto-surveillance à l'aide d'un miroir intelligent (wize mirror ou affective mirror) pour l'auto-diagnostic
  • Signalons encore l'analyse des émotions politiques lors des débats électoraux (cf. par exemple, au Canada en septembre 2015 avec le FaceReader du Tech3Lab de Montréal
  • La BBC étudie l'impact émotionnel de la publicité dite "native" avec CrowdEmotion.
  • Vyking recourt à la reconnaissance faciale pour cibler les consommateurs selon les émotions que manifestent les visages.
  • FacioMetrics (née en 2014 de Carnegie Mellon University) a été rachetée en novembre 2016 par Facebook.
L'ouvrage de Rosalind Picard a peu vieilli dans ses principales problématiques. L'hypothèse de l'universalité des émotions de base (cf. les travaux, discutables, de Paul Ekman) qui, pour partie préside à la catégorisation, reste à démontrer. Des travaux d'ethnologie devraient y pourvoir, mais aussi des travaux d'historiens (cf. l'ouvrage de Damien Boquet et Piroska Nagy, Sensible Moyen Âge. Une histoire des émotions dans l'Occident médiéval, 2015, Paris, Seuil, 475 p., Bibiogr., Index) ou celui, plus gloabal, de Jean-Jacques Courtine, Claudine Haroche, Histoire du visage. Exprimer et taire ses émotions (XVIe - début XIXe siècle, Paris, Petite Bibliothèque Payot, 1988, 2007, 287 p.
Enfin, l'analyse de l'émotion doit être rapprochée de l'analyse de sentiments qui compte sur l'étude des expressions langagières pour déceler la tonalité positive ou négative d'un texte, d'un énoncé. 

dimanche 7 septembre 2014

Digital Signage : des écrans partout


Justin Ryan, Digital Signage Power. An Expert's Guide to Mastering the Technology, 2014, Lulu.com, 11,79 $ (eBook), 119 p. Pas d'index, pas de table des matières...

Voici la présentation de ce petit livre telle que rédigée par l'éditeur : "This Easy-to-Read Book Tells You Everything You Need to Know to Put the “Digital Signage Revolution” To Work In Your Business – And Make More Money Than All Your Competitors Combined!" (ici)
Tout n'est pas faux dans cette annonce : le livre est bref, il se lit aisément. Il est consacré essentiellement à la dimension technique du média. Les techniciens et ingénieurs du domaine n'y apprendront pas grand-chose. Et ils regretteront l'absence du marketing ou du droit.
Le DOOH pour les Nuls ? Presque.

L'ouvrage décrit, chapitre après chapitre, les composantes technologiques essentielles du DOOH : le media player et ses différentes configurations, les écrans, leurs caractéristiques et leur installation, la création de contenus vidéo, le marketing de ce média, etc. A la fin de l'ouvrage, des chapitres traitent rapidement de quelques cas : magasin de chaussures, succursale de banques, bijouterie, chaîne de supermarchés, épicerie ; mais pas d'exemple dans les transports ou les institutions culturelles (musées, cinéma, etc.), dans les stades ou les universités.

Avec le DOOH, la révolution numérique se propage - et s'aventure - dans un secteur nouveau, encore peu exploré. Prenons cette publication comme un symptôme du développement d'un nouveau monde publicitaire, celui des écrans hors des foyers, Digital Out Of Home (DOOH) que l'on traduit, faute de mieux, par "affichage numérique". Parler de publicité sur écran hors des foyers serait plus juste, mais inélégant. Suggestions anyone?
  • Ce média relève de la publicité extérieure puisqu'il est présent hors des foyers et souvent proche des affichages papier (dans le métro parisien, par exemple, Media Transports).  
  • Il  s'apparente à la PLV puisqu'il est installé dans les points de vente, dans les vitrines et se substitue au carton. 
  • Cela ressemble à de la télévision puisqu'il y a diffusion de vidéos sur des écrans, avec des formats publicitaires identiques à ceux de la télé. Cela ressemble à de la télévision aussi avec une structure en network qui peut épouser les réseaux de magasins (concession automobile, banque, assurance, bureaux de poste, hypermarchés, etc.) et associer ainsi contenus locaux et contenus nationaux (repiquages, etc.).
  • Cela n'est pas loin du Web non plus, puisqu'il peut y avoir mesure continue des audiences, planning et achat programmatiques en temps réel, liaison avec le mobile (identifiants uniques cross-devices). La mesure peut prendre en compte la visibilité et une certaine forme de capping.
Cette assimilation commode par proximité porte pourtant au contresens. Par exemple, à la différence de la télévision, dans la plupart des cas, le DOOH n'inclut pas de son. À la différence de l'affichage papier, toujours de longue durée, la présence des messages peut être brève, répétée et, surtout, elle peut être planifiée par tranche horaire, et adaptée sans délais ou presque (creative optimization). Ces différences, ici brièvement évoquées, ne sont pas sans conséquences : par exemple, dans l'écosystème publicitaire classique, quel département / service traiteront le DOOH pour la création, pour l'achat ? L'affichage ? La télé ? Le Web ? Qui dispose en agence d'une expertise transférable ?

On notera l'absence de la mesure des audiences et des contacts, tellement importante pour les régies publicitaires et les annonceurs (pour les nouvelles offres de mesure des audiences DOOH, voir Eikeo ou Quividi) ; l'interactivité est à peine évoquée alors qu'il s'agit d'un sujet critique, même si l'intérêt d'une interactivité individuelle dans un espace public reste discutée, au-delà de l'événementiel et des OPSpé. Liés à la mesure de l'audience des écrans et à l'interactivité, il faut évoquer la protection de la vie privée et le consentement nécessaire des passants et des clients à cette mesure (voir le document de la CNIL à ce sujet).

Voici un trop petit livre pour un si grand sujet d'économie publicitaire et de marketing hybride alors que la question de la relation entre points de vente physiques et e-commerce se pose de manière lancinante. Ce média est en train de devenir un élément majeur de l'écosystème publicitaire et commercial. Présent dans les transports et dans les points de vente, présent dans les lieux publics et dans les institutions d'éducation, il est par construction le média des actifs. Il mérite un livre plus copieux, plus détaillé pour décrire et poser les problèmes essentiels.


27 posts sur le DOOH dans MediaMediorum

Retailing and facial recognition, the future of DOOH?

Mobile while mobile. Public transportation users are addicted to digital

Tokyo Digital Subway: Holistic Communication and Mobility


























mardi 29 avril 2014

Tout sur le test de Turing


The Turing Test. Verbal behavior as the Hallmark of Intelligence, edited by Stuart Shiber, Bradford Books, 28,79 $ (kindle), 2004, 336 p., Bibliogr, Index

Voici une anthologie de textes centrés sur la question de l'intelligence des machines, la confrontation de l'intelligence humaine - naturelle - et de l'intelligence artificielle (IA). Les vingt textes réunis ont été écrits ou traduits en anglais.
Au début, se trouvent des textes français du XVII et XVIIIèmes siècles sur les "animaux machines" et les "automates" (René Descartes, le chapitre 5 du Discours de la méthode où l'idée du test de Turing est implicite) et "l'homme- machine" de La Mettrie. Descartes déjà pose que le langage et la raison distinguent les humains des automates et autres "machines mouvantes".

Ensuite vient le texte clef, publié par Alan M. Turing en 1950 dans la revue Mind : "Computing Machinery and Intelligence" où est proposé le célèbre "test de Turing"qui permet de distinguer un humain d'une machine. Puis viennent des textes de Turing lui-même sur le même thème.
Enfin sont proposés des textes de différents auteurs, de différentes disciplines, discutant le principe du test et ses conséquences philosophiques. Peut-on ou non construire une machine capable de passer ce test ? Débat mobilisant des linguistes (John R. Searle, Noam Chomsky), des logiciens, des psychologues (D. Dennett), des informaticiens, etc. Des questions philosophiques classiques sont abordées de manière rigoureuse, moins métaphysique que d'habitude, dont, par exemple, la canonique question : "Qu'est-ce que penser ?" à quoi font écho les questions de Turing ("Can a computer think?") ou de Daniel Dennett ("Can Machines think") ? On est loin du "Was heisst Denken ?" de Martin Heidegger.

Cet ouvrage copieux a le mérite de réunir en un seul volume toutes les pièces d'une discussion qui n'a pas cessé depuis la publication de Turing sur le test. Avec son index et son abondante bibliographie, l'ouvrage est commode et constitue un bon outil de travail et un manuel utile. Peut-être est-il temps de mettre ce débat à jour alors que l'intelligence artificielle s'installe au coeur des développements numériques actuels et de leurs limites : automatisation, machine learning, deep learning, personnalisation, recommandation, analyse sémantique, reconnaissance faciale ou vocale, traduction automatique, big dataetc. La question de Alan M. Turing - une machine peut-elle penser ? -  reste entière, même dans sa reformulation optimiste par Ray Kurzweil (The Singularity is Near, 2005).

dimanche 7 juillet 2013

Des panels pour le marketing et les médias

.
Jean-Marc Décaudin, Thierry Saint-Martin, Les Panels. Les panels au coeur de la démarche marketing, Pearson, 242 p. Index, Glossaire

Le marketing se nourrit, parfois jusqu'à l'indigestion, de données fabriquées par des panels. Internet en fait baisser les coûts de production (distribution, recrutement, traitement des données, etc.) aussi les panels en ligne se multiplient mais la méthodologie ne semble pas avoir progressé. La représentativité est toujours discutable, la déclaration des panélistes aussi.

Ce manuel passe en revue les différents types de panels qu'exploitent le marketing et la publicité  : panels distributeurs, panels consommateurs, panels pour la mesure des audiences ainsi que les panels dits de "source unique". Les auteurs ont mis l'accent sur le rôle et l'utilisation des panels, sur la description du marché français des panels. Ils n'abordent pas le traitement statistique des données panels, sujet déjà bien couvert (cf. infra) et concentrent leur attention sur le "comment ça marche", "comment on s'en sert". L'ouvrage constitue un outil de travail et de culture marketing de base. Tout étudiant se destinant au travail dans les médias, dans la publicité, dans le numérique  (Web marketing, data, etc.) et, évidemment, dans le marketing (chez les annonceurs ou les distributeurs) doit comprendre et connaître à fond les logiques des panels, leurs utilisations, leurs limites. Ce manuel, propédeutique, est adapté à leurs besoins.
De plus, l'ouvrage fourmille, en incises, d'anecdotes significatives : par exemple (p. 52), on y apprend ainsi que Wal-Mart a longtemps refusé de collaborer aux panels distributeurs pour ne reprendre sa collaboration qu'en 2012. On y notera aussi le côté discret et si peu people des patrons de la grande distribution allemande (Aldi, LidL) qui ne se prennent pas pour des stars, tranchant avec l'immodestie de ceux des grandes entreprises américaines du Web qui prophétisent à tout-va, urbi et orbi.

Les auteurs mettent bien en évidence la « brique élémentaire » du marketing qu'est le code-barres (EAN) ; en revanche, ils nous semblent sous-estimer l'évolution nécessaire de la brique géographique, qui devra aller bien en-deçà de la région (adresse IP, GPS, indoor location, etc.). La question du e-commerce est abordée, celle du drive aussi qui chamboulent la géographie du marketing et l'urbanisme commercial, donc la constitution des panels. D'une façon générale, l'ouvrage sous-estime les effets que la révolution numérique ne manquera pas d'avoir sur les panels et, par conséquent, sur l'analyse et la stratégie marketing. Nous pensons par exemple aux données produites par des capteurs dans les points de vente, par la reconnaissance faciale, par les supports mobiles, par Facebook et les réseaux sociaux (cf. La stratégie Facebook de Walmart), entre autres. Facebook n'est-il pas le gigantesque et le plus riche des panels. Cette sous-estimation est un effet nécessaire de l'exposition et des objectifs primordiaux des auteurs : dire l'état actuel, opérationnel, des panels en France. La dimension des panels est de plus en plus internationale, ce qui avance aux Etats-Unis se propage bientôt en Europe et en France (cfOnline GRP. Nielsen vs comScore)...

Peut-être manque-t-il à ce manuel une dimension plus épistémologique, une réflexion plus radicale sur le monde de production des données de panel qui mettrait davantage l'accent sur les limites induites par la notion-même de représentativité (les quotas, le recrutement de plus en plus difficile de panélistes), par celle de zone de chalandise et par celle de déclaration, notamment. Pire, celle de "chef de famille" (p. 118) héritée d'un autre siècle : beaucoup de familles vivent en démocratie ! En fait, nombre de notions clés du marketing traditionnel sur lesquelles reposent les panels, correspondent de moins en moins à la société de consommation actuelle et devront être bientôt reconsidérés.
Notons encore que peu de panels sont audités, ce qui pose un problème quand ces panels servent au cadrage d'études d'audience.
L'index et le glossaire, bienvenus, mériteront, pour une nouvelle édition, d'être sérieusement enrichis ; d'ailleurs un index des noms : entreprises, panels, etc. serait utile.

Tout ce qu'il faut savoir des panels n'est pas dans ce livre mais tout ce qui est dans ce livre est indispensable.


Voir aussi :
  • Patrick Sevestre, Econométrie des données de panel, Paris, Dunod, 2002, 224 p.
  • Régis Boubonnais, Michel Terraza, Analyse des séries temporelles, Paris, Dunod, 2010, 352 p.

samedi 21 juillet 2012

Visibilité et énergie médiatique

.
Nathalie Heinich, De la visibilité. Excellence et singularité en régime médiatique, Paris, Gallimard, 2012, 593 p. Index

La différence de potentiel de visibilité entre des personnes est au coeur de l'économie des médias. La peoplisation est omniprésente : divertissement (sport, cinéma, musique, littérature, chanson), de la politique, de l'économie, de la science, de la religion, de l'entreprise... Pas de sujet, de thème auxquels les médias ne donnent une dimension people. Les médias créent et propagent la visibilité des personnes mais aussi celle d'événements, de personnages et lieux historiques (cartes postales, magazines de tourisme, de patrimoine, réseaux sociaux comme Foursquare ou Facebook, etc.). Cf. le cas de Jeanne d'Arc.
La différence de potentiel (que nous noterons ddp comme en électricité) de visibilité semble un effet de la reproductibilité technique des images, reproductibilité d'abord mécanique (W. Benjamin) puis numérique. L'économie des médias fabrique de la ddp de visibilité, une tension (la masse a un potentiel nul !) et s'en sert pour produire de l'audience et de la data vendues ensuite aux annonceurs.

Cet ouvrage commence par la construction de son objet (définitions, périmètre, typologies, taxonomies, etc.), le situant par rapport aux notions voisines ou parentes (célébrité, fan, notoriété, spontanée ou assistée, image de marque, réputation, influence, star, people, etc.).
Après ce travail préalable, l'auteur évoque l'histoire de la visibilité puis passe en revue ses domaines de prédilection : les cours et les familles royales, les champions sportifs et les politiques, les écrivains et les "penseurs", les chanteurs, les mannequins, les personnalités de la télévision.
A partir de là, l'auteur centre sa réflexion sur l'économie et la gestion du "capital de visibilité", usant de la métaphore féconde du capital selon laquelle vivent et se développent souvent les approches bourdieusiennes (capital linguistique, social, culturel, informationnel, etc.). Cette économie ébauchée, des questions surgissent :
  • Comment s'effectue l'accumulation du capital de visibilité ? Quelle place y tient le progrès technique ? Qu'y change l'économie numérique ?
  • Peut-on "se hedger" pour se protéger des écarts de visibilité ?
  • Qu'apporterait d'aller jusqu'au bout de la formalisation et de l'analyse systématiques des opérations de visibilité : transitivité (les amis de mes amis sont mes amis) ; anti-transitivité : (les ennemis de mes ennemis sont mes amis), non commutativité, associativité ? A voir...
  • Ce capital de visibilité se déprécie, il faut donc le gérer (c'est le travail des RP, des "agents"), investir dans la visibilité, dans l'image. Les détenteurs de visibilité peuvent passer d'une marque à l'autre selon une sorte de mercato dont le marché des tranferts sportifs professionnels montre l'exemple. Ainsi, Marissa Meyer, auréolée de son image Google, passant chez Yahoo! (juillet 2012).
  • Un produit peut être star (placement de produit), un consommateur peut devenir l'ami d'une marque (cf. Facebook), le capital de visibilité est un actif de l'entreprise, valorisable, cf. goodwill. Depuis longtemps, le marketing évalue et qualifie la notoriété et la visibilité ainsi que le coût de sa construction (bilan de campagne) et de son érosion (mémo/démémo). 
  • Couverture du magazine People, juillet 2012,
    Présentoir (caisse de supermarché américain)
  • Comment cette économie se situe-t-elle par rapport a à une économie du faire-valoir, à une économie des singularités ?
  • Comment opèrent les tranferts dans certaines marché particuliers comme le marché politique : tel acteur ou chanteur soutenant visiblement tel candidat, lui apportant - ou non - le crédit de sa visibilité.
  • Qu'est-ce que la privation de visibilité, l'invisibilité sociale, l'anonymat ? (dans une discussion avec Nathalie Heinich, Annie Ernaux évoque sa "carapace d'invisibilité" (cf. L'épreuve de la grandeur. Prix littéraire et reconnaissance, p. 86).
L'ouvrage de Nathalie Heinich a manifestement été achevé avant le raz de marée des réseaux sociaux. Ceux-ci généralisent la question de la visibilité : effets de réseau de la notoriété, effets des outils de mémorisation et de stockage (thésaurisation des contacts, capital social objectivé), reconnaissance automatique des visages, mises en scène publiques des vies quotidiennes privées. Surtout, les réseaux sociaux en complexifient l'arithmétique. Lady Gaga et Justin Bieber comptent apparemment des dizaines de millions de followers ("suiveurs" ?) sur Twitter, Gabby Douglas en deux médailles d'or de gymnastique gagne 260 000 "likes" sur Facebook, tel politicien compte ses milliers d'amis sur Facebook... Grâce aux réseaux sociaux, toute notoriété est quantifiée (le nombre des contacts, leur distribution). Quantification à mettre en relation avec le capital social et, sans doute, toujours omis, avec le capital humain. Facebook et Twitter démocratisent la visibilité, la proximité. On collectionnait les autographes, on collectionnera les "amis", les recommandations, les fans (WhoSay, réseau social pour célébrités). Le Klout score se veut mesure de l'influence pour tous et Bottlenose recherche la tendance "sociale" du moment : "See what the crowd is talking about", crowdsourcing de la tendance ("Surf the stream") ! Dans cette économie de la visibilité, la protection de l'image, de la réputation est indispensable. Des entreprises vendent ce service (MarkMonitor), par exemple.

C'est parce qu'il ignore presque totalement les réseaux sociaux que ce livre sera précieux pour les comprendre et les analyser. N'entrant pas a priori dans leur logique, il fournit des repères et des concepts indipensables. Il sera désormais au point de départ de tout travail sur les réseaux sociaux, une boussole...


Ouvrage évoqués
Walter Benjamin, Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit,1935 (L'oeuvre d'art à l'époque de sa reproductibilité technique, Gallimard, 2008)
Nathalie Heinich, L'épreuve de la grandeur. Prix littéraire et reconnaissance, 
Gérard Lagneau, Le Faire valoir. Une introduction à la sociologie des phénomènes publicitaires. Avec une préface-réponse par Marcel Bleustein-Blanchet (Publicis), Paris, 1969, 166 p.
Lucien Karpik, L'économie des singularités, Paris, Gallimard, 2007, 373 p.
.