Professional Documents
Culture Documents
Nord détient la maîtrise technique, économique, mais aussi culturelle et cognitive. Si, il
existe 6, 5 milliards d'habitants de la planète, 4, 5 milliards de postes de radio, 3, 5 milliards
de postes de télévisions, plus d'un milliard de téléphones portables et moins d'un milliard
d'ordinateurs, chacun devine les inégalités. D'ailleurs avec la naissance des mouvements
altermondialistes, à partir de janvier 2000, c'est cette référence naïve à la mondialisation
comme condition d'un monde meilleur qui est mise en cause. Non seulement le monde
multipolaire duXXIesiècle est plus dangereux que le monde fini duXXesiècle, mais en outre
le fait qu'il soit ouvert et visible accentue la naissance d'une vision critique. L'information et
la communication ont rencontré de plein fouet, les forces et les contradictions de la
technique, de l'économie et de la politique.
Durant ces 15 années la communication a ainsi émergé au plan mondial comme un des
enjeux politiques et culturels majeurs duXXIesiècle, avec l'opposition de deux philosophies,
l'une technique et économique, l'autre humaniste et démocratique. En un mot on est passé
des performances techniques, des miracles économiques, et des mirages symbolisés par la
bulle spéculative d'Internet (1999-2001) à un retour de l'Histoire et de la politique, où
l'enjeu de la cohabitation culturelle au niveau mondial constitue la symétrique de cette
explosion de la communication.
Toute réflexion sur la communication est donc liée, à une problématique politique, et
plus généralement à une philosophie de l'histoire. Ceci requiert alors beaucoup de
connaissances et de théories pour essayer de s'affranchir des discours techniques,
économiques, politiques qui ont totalement envahi le domaine de la communication.
C'est le rôle d'Hermès, depuis 15 ans de contribuer, avec d'autres, à construire ces
connaissances à la fois d'un point de vue théorique, empirique, historique, et comparatif.
Tâche d'autant plus importante que dans l'emballement qui caractérise la communication
depuis une génération, la demande de connaissances est bien faible dans les disciplines
d'histoire, économie, sociologie, science politique, anthropologie, philosophie... Même si
l'Université, plus que le CNRS, a construit des filières d'enseignement. Il y a d'ailleurs un réel
décalage entre la demande forte, de la part des étudiants, et d'autre part le peu de curiosité
qui existe chez une bonne partie du monde académique, des journalistes, hommes politiques,
hauts fonctionnaires pour tout ce qui concerne les questions théoriques de communication,
culture et société. Comme si les jeunes, de plain-pied avec la communication, en percevaient
déjà la complexité anthropologique et politique, alors que les plus anciens n'y voient encore
que des recettes, de la manipulation, et des logiques formelles.
Pourtant les enjeux sont considérables et, de l'échelle individuelle à la collectivité, de l'Etat
Nation, à la mondialisation, on ne sait guère comment les individus et les sociétés vont finalement
accepter ou refuser de vivre dans cet univers encombré d'informations, de rumeurs, de signes,
d'images, d'interactions, de services techniques, mais où l'intercompréhension, le respect de la
diversité culturelle et tout simplement l'intérêt pour l'autre n'auront pas forcément changé.
d'une grande question scientifique, littéraire ou politique et la création d'un milieu amical où
la liberté de penser et la tolérance mutuelle permettent de travailler ensemble.
En un mot une certaine ambition nous rassemble: accorder à l'information, la
communication et la culture la place qui est la leur au cœur de nos sociétés, et de la
mondialisation. Reconnaître que derrière toute théorie de la communication il y a une
théorie de la société, est sans doute l'originalité d'Hermès.
Il y a finalement, depuis 15 ans, un moment Hermès, fait de liberté, curiosité, rapports
amicaux, confiance mutuelle... Il ne subsistera peut-être pas quand les positions théoriques
et politiques, sur les grands enjeux de l'essor de l'information et de la communication seront
plus structurés. Pour l'instant c'est le Var West de la connaissance.
On peut dire d'ailleurs qu'Hermès, illustre la capacité des universitaires et chercheurs
à construire un nouveau domaine de connaissance. Ce qui explique le succès du site en trois
langues, français, espagnol, anglais, ainsi que celui de la revue, classée première en 2001
après une enquête du ministère de la Recherche auprès de la même de communauté.
Le travail accompli illustre le fait qu'il existe déjà une réelle communauté scientifique,
au CNRS, à l'Université, et à l'étranger même si la plupart du temps celle-ci manque encore
de légitimité et de visibilité. Une partie du monde académique, reste encore indifférent à
l'égard de l'importance de ces questions. Pourtant la mondialisation de la communication,
où tout est mélangé, intérêts et valeurs, utopies et marchandises, générosités et inégalités ne
simplifie pas le problème. Les événements vont plus vite que l'analyse.
Les chantiers théoriques et empiriques sont innombrables pour comprendre pourquoi
en dépit de l'omniprésence de l'information et, de la communication, les hommes ne se
comprennent et ne se tolèrent pas plus qu'hier. Sans doute parce que le défi de la
communication, depuis toujours, renvoie plus à la gestion des différences, qu'a l'économie
des ressemblances. Et qu'il n'y a pas de communication sans respect de la diversité et de
l'altérité. Ce qui explique l'ampleur des problèmes à l'heure des sociétés ouverte, et la raison
pour laquelle les concepts d'information et de communication sont inséparables de la
société démocratique. Cinq grands domaines de recherches sont notamment au cœur des
futurs numéros d'Hermès.
L'épistémologie des sciences de l'information et de la communication.
Les enjeux de la cohabitation culturelle au plan mondial.
Des sciences cognitives à la communication. Les rapports entre identité-culture-
communication.
Les concepts et pratiques de la « société de l'information et de la communication ».
Les mutations de la communication politique.
Dominique Wolton
Directeur de la revue Hermès
1988 - 2003
DIRECTEUR DE LΑ PUBLICATION
Dominique WOLTON
CONSEIL SCIENTIFIQUE
Paul AMSELEK - Marc AUGÉ - J a y G. BLUMLER - Mario BORILLO - Roland CAYROL -Jean-Paul CODOL - J e a n -
Pierre DESCLÉS -Jean-Pierre DUPUY - Marc FERRO - Eugène FLEISCHMAN - Max FONTET - Jürgen HABERMAS
- Elihu KATZ - Jacques LAUTMAN - Jean LECA - Jean-François LYOTARD - Louis MARIN - Edgar MORIN -
Elisabeth NOELLE NEUMANN - Annick PERCHERON - Jean-François RICHARD - Alain TOURAINE - Andrew
WOODFIELD
COMITÉ DE RÉDACTION
Marc ABÉLÈS - Gilles ACHACHE - Daniel ANDLER - André AKOUN - Marc ANGENOT - Erika APFELBAUM -
Sylvain AUROUX - Tamatoa BAMBRIDGE - Jean-Michel BESNIER - Gilles BOËTSCH - Daniel BOUGNOUX -
Dominique BOULLIER - Pierre BOURETZ - Alain BOYER - Dorine BREGMAN - Manuel Maria CARRILHO - Claude
CHABROL - Dominique CHAGNOLLAUD - Pierre CHAMBAT - Régine CHANIAC - Jean-Marie CHARON - Anne-
Marie CHARTIER - Agnès CHAUVEAU - Suzanne de CHEVEIGNÉ - Jean-Pierre CHRETIEN-GONI - Marie-
Françoise COUREL - Éric DACHEUX - Jean DAVALLON - Daniel DAYAN - Jean-Pierre DESCLES - Dominique
DESJEUX - Jean DEVÈZE - Marco DIANI - Alexandre DORNA - Jean-Pierre DOUMENGE - Marianne DOURY -
Jean-Pierre DUPUY - Jacques DURAND - Pascal DURAND - Jean ELLEINSTEIN - Pascal ENGEL - Jean-Pierre
ESQUENAZI -Joëlle FARCHY - Jean-Marc FERRY - Bernard FLORIS - Gilles GAUTHIER - Pascal GRISET - Smail
HADJALI - Jean-Robert HENRY - Mark HUNYADI - Geneviève JACQUINOT-DELAUNAY - Yves JEANNERET -
Lucien JAUME - Josiane JOUËT - Jean-Paul LAFRANCE - François LAPLANTINE - Anne-Marie LAULAN -
Christian LAZZERI - Marie-Françoise LÉVY - Edmond-Marc LIPIANSKY - Marc LITS - Guy LOCHARD - Éric
MAIGRET - Dominique MEHL - Arnaud MERCIER - Michel MEYER - Patrice MEYER BISCH - Marie José
MONDZAIN - Laurence MONNOYER-SMITH - Jean MOUCHON - Jean-Paul NGOUPANDÉ - Bruno OLLIVIER -
Susan OSSMAN - Thierry PAQUOT - Jean-Gustave PADIOLEAU - Pascal PERRINEAU - Jacques PERRIAULT -
Bernard PERSONNAZ - Denis PESCHANSKI - Serge PROULX - Serge REGOURD - Dominique REYNIÉ - Yves
SAINT-GEOURS - Philip R. SCHLESINGER - Dominique SCHNAPPER - Jacques SÉMELIN - Andrea SEMPRINI -
Marie-Noële SICARD - Monique SICARD - Roger SILVERSTONE - Isabelle SOURBÈS-VERGER - Pierre-André
TAGUIEFF - Jean-François TÉTU - Françoise THIBAULT - Éliséo VÉRON - Isabelle VEYRAT-MASSON - Georges
VIGNAUX - Lorenzo VILCHES - Michel WIEVORKA - Uli WINDISCH - Yves WINKIN - Christoph WULF
SECRÉTARIAT DE RÉDACTION
Thierry Sylvain BAUDART - Frédérique BENGUIGUI-CLAVEAU - Nicole BRUNET-MAUCOURT - Françoise
DELAVEAU - Marie-Christine PAOLETTI - Catherine PRIOUL
Individus et politique
Hermès 17-18 1995, 440 pages
Coordonné par Erika Apfelbaum, Jean-Michel Besnier
Communication et politique
et Alexandre Dorna
Coordonné par Gilles Gauthier, André Gosselin
et Jean Mouchon
Hermès 7 1990, 310 pages
Bertrand Russel. De la logique à la politique Hermès 19 1996, 312 pages
Coordonné par François Clements, pour la partie Voies et impasses de la démocratisation
philosophique et logique et par Anne-Françoise Schmid Coordonné par Patrice Meyer-Bisch
pour la partie politique et Edward M. Swidersky
Abélès Marc (4, 8-9) - Achache Gilles (1, 4) - Akoun André (19, 23-24, 28, 34) - Albizú
Labbé Francisco (28) - Aldridge Meryl {35) - Alexander Jeffrey C. (8-9) - Alié-Monthieux
Marijosé (32-33) - Al Wardi Sémir (32-33) - André Sylvie (32-33) - Ang Ien (11-12) -
Angleviel Frédéric (32-33) - Anscombre Jean-Claude (15, 16) - Apfelbaum Erika (5-6) -
Appé Olivier (37) - Arterton F. Christopher (26-27) - Assoun Paul-Laurent (5-6) - Aubry
Paul (5-6) - Augey Dominique (35) - Auroux Sylvain (15, 16) -
Babadji Ramdane (23-24) - Babou Igor (21) - Baert Annie (32-33) - Baisnée Olivier (35)
- Balima Serge Théophile (28) - Balme Stéphanie (34) - Bambridge Tamatoa (32-33) -
Baptista Joaquim (23-24) - Bardelot Brigite (29) - Bariki Salah-Eddine (30) - Bataille
Georges (5-6) - Beauchamp Michel (15, 16, 17-18) - Bélanger André-Jean (17-18) - Belin
Emmanuel (25) - Belloni Maria Luiza (8-9) - Benoit Sophie (37) - Bernabé Jean (32-33)
- Bernheim Henri (5-6) - Berten André (25) - Bertile Wilfrid (32-33) - Berting Jan (30)
- Bibler V.S. (18) - Binet Alfred (5-6) - Blaive Muriel (23-24) - Blanc Jérôme (36) -
Blanchard Pascal (30) - Blanchot Fabien (35) - Blondiaux Loïc (26-27, 31) - Bochmann
Klaus (30) - Boëtsch Gilles (23-24, 30) - Bogdan Radu (3) - Bonnafous Simone (29) -
Bornhausen Stéphane (22, 23-24) - Bouchet Hubert (37) - Bouchindhomme Christian
(10) - Boudon Raymond (4, 15, 16) - Bougnoux Daniel (5-6) - Bouillon Pascale (26/27) -
Boullier Dominique (26-27, 37) - Bourdon Jérôme (11-12) - Boure Robert (26-27) -
Bourricaud François (1) - Bouvier Alban (15, 16) - Boyer Alain (8-9, 15, 16, 36) -
Brackelaire Jean-Luc (25) - Brami Celentano Alexandrine (32-33) - Bras Jean-Philippe
(23-24) - Bregman Dorine (4) - Breton Philippe (17-18) - Bridier Juliette (23-24) -
Bruneteaux Patrick (29) - Bryce James (31) - Bucolo Elisabetta (36) - Burac Gabrielle
(32-33) - Burguière André (20) - Bursztyn Igal (13-14) - Bustamante Enrique (28) -
Caillet Elisabeth (20) - Canclini Néstor García (28) - Capparelli Sérgio (35) - Caramani
Daniele (13-14) - Carcassonne Marie (22) - Carrilho Manuel Maria (15, 16) - Cartier-
Bressonjean (19) - Carvallo Fernando (10) - Caune Jean (20) - Cérézuelle Daniel ( 3 6 ) -
Chabrol Claude (23-24) - Champagne Patrick (17-18, 37) - Chaniac Régine (37) - Chanial
Philippe (36) - Charlier Philippe (25) - Charon Jean-Marie (35, 37) - Charron Jean (15,
16, 17-18) - Chartier Anne-Marie (20, 25) - Chaumont Jean-Michel (10) - Chauveau
Agnès (13-14) - Chervin Jacqueline (21, 34) - Chevé Dominique (30) - Cheveigné
Suzanne (de) (21) - Chevreux Marie-Dominique (37) - Chopin Olivier (34) - Chosson
Jean-François (20) - Chrétien-Goni Jean-Pierre (2) - Ciavarini Azzi Giuseppe (32-33) -
Clavreul Jean (5-6) - Codello-Guijarro Pénélope (36) - Colas Dominique (7) - Combeau
Yvan (32-33) - Confiant Raphaël (32-33) - Constant Fred (32-33) - Cooley Charles
Horton (31) - Coray Renata (21) - Corner John (11-12, 21) - Cottet Jean-Pierre (37) -
Coulomb-Gully Marlène (29) - Culcer Dan (8-9) - Cultiaux Yolaine (23-24) - Curran
James (11-12)-
Dacheux Éric (21, 23-24, 36) - Dahlgren Peter (13-14) - Da Lage Olivier (35) - Darde
Jean-Noël (22) - Daubenton Annie (23-24) - David-Biais Martin (15, 16, 17-18) - Davies
Martine (3) - Davis Simone (22) - Dayan Daniel (4,11-12,13-14) - de Barros Filho Clóvis
(35) - Deconchy Jean-Pierre (19) - Dehee Yannick (34) - De Jaucourt (2) - Delbos
Georges (32-33) - Demers François (15, 16, 17-18, 35) - Derville Grégory (29) -
Descamps Christian (10) - Desrosières Alain (2) - Devèze Jean (29) - Dewey John (31) -
Diabi Yahaya (28) - Domecq Jean-Philippe (20) - Dorna Alexandre (5-6,15,16,19) - dos
Santos Suzy (35) - Doumenge Jean-Pierre (32-33) - Dubucs Jacques (15, 16) - du Chéné
Amaury (32-33) - Duprat Annie (29) - Dupreel Eugène (2) - Dupuy Jean-Pierre (1) -
Durand Georges (28) - Durand Jacques (11-12, 32-33) - du Roy Albert (35) -
El Emary Naglaa (8-9) - El Khawaga Dina (34) - Elsenhans Hartmut (23-24) - Eme
Bernard (36) - Emilsson Elin (28) - Engel Pascal (3)-Enriquez Eugène (18) - Escudero
Chauvel Lucrecia (28) - Ewerton Fernando (8-9) -
Gaillard Florence (34) - Gallini Clara (2) - Gallup George (31) - Gardin Laurent (36) -
Gauthier Gilles (15, 16, 17-18) - Gavin Neil (21) - Gebert Konstanty (23-24) - Geisser
Vincent (23-24) - Gens Jean-Claude (20) - Gentès Annie (22) - Gerstlé Jacques (4) -
Gheude Michel (13-14) - Ghiglione Rodolphe (5-6, 11-12, 15, 16) - Giannoni-Pasco
Ariane (34) - Gille Bernard (32-33) - Gingras Anne-Marie (15, 16, 17-18) - Ginsberg
Benjamin (31) - Girard Augustin (20) - Goddard Peter (21) - González A. Jorge (28) -
Gosselin André (15, 16, 17-18) - Gouba Firmin (28) - Goujon Daniel (36) - Grétillat
Francis (15, 16) - Grevisse Benoît (35) - Gribomont Cécile (29) - Grize Jean-Biaise (15,
16) - Groc Gérard (23-24) - Guébourg Jean-Louis (32-33) - Guérin Isabelle (36) -
Gusfield Joseph R. (8-9) - Guttenplan Samuel (3) -
Hall Stuart (28) - Hallin Dan (13-14) - Hamon Augustin (5-6) - Heinich Nathalie (20,
29) - Henry Jean-Robert (21, 23-24, 30) - Hert Philippe (25) - Hess Remi (26/27) - Hesse
Kurt R. (13-14) - Hoogaert Corinne (15, 16) - Hookway Christopher (7) - Ho Tin Noe
Jean-Claude (32-33) - Hunyadi Mark (10) - Hurtado-Beca Cristina (10) - Huyghe
François-Bernard (22) -
Ibrahim Amr Helmy (34) - Idelson Bernard (32-33) - Il'in Viktor (19) - Issler Bernardo
(35)-
Jacques Francis (7) -Jacquinot-Delaunay Geneviève (25) -Janine Ribeiro Renato (35) -
Jardim Pinto Celia Regina (8-9) - Jauvion Alain (22) - Jeanneret Yves (23-24, 37) -
Jézéquel Jean-Pierre (37) -Jordao Fatima (8-9) - Jouët Josiane (37) - J u d e t de La Combe
Pierre ( 1 0 ) -
Kapchan Deborah (22) - Karpik Lucien (35) - Katz Elihu (4, 11-12) - Kaufmann Jean-
Pierre (18) - Kelsen Hans (2) - Kiyindou André-Alain (28) - Klein Annabelle (25) -
Kolm Serge Christophe (18) - Kornhauser William (2) - Kotsi Filareti (21) - Krasztev
Peter (23-24) - Kurtovitch Ismet (32-33) - Kurzweil Edith (5-6) -
Laamiri Mohammed (30) - Labache Lucette (32-33) - La Balme Natalie (31) - Labarrière
Jean-Louis (1) - Laberge Yves (21) - Lagneau Eric (35) - Lahmar Mouldi (30) - Laigneau
Monique (20) - Lanni Dominique (20) - Lannoy Pierre (25) - Laulan Anne-Marie (11-
12, 35, 37) - Laurier Daniel (3) - Lavaud Jean-Pierre (11-12) - Lavigne Alain (15, 16, 17-
18) - Laville Jean-Louis (36) - Lazzeri Christian (1) - Le Bart Christian (26-27) - Lebeau
André (34) - Leblanc Gérard (17-18, 25) - Le Bohec Jacques (26-27) - Lecomte Jean-
Philippe (29) - Le Diberder Alain (37) - Lefébure Pierre (29) - Lefebvre Alain (20, 26-
27) - Lefranc Sandrine (31) - Legendre Pierre (5-6) - Le Guern Philippe (26-27) -
Leleivai Hapakuke Pierre (32-33) - Lellouche Raphaël (1) - Lemieux Vincent (17-18) -
Lempert Emmanuel (34) - Le Ny Jean-François (19) - Lercari Claude (32-33) - Leroux
Pierre (26-27, 29) - Leteinturier Christine (35) - Lettieri Carmela (29) - Leuprecht Peter
(23-24) - Lévy Marie-Françoise (13-14) - Lickova Eva (8-9) - Liebes Tamar (11-12) -
Lippmann Walter (31) - Lits Mark (25) - Livet Pascal (4) - Livet Pierre (1) - Livingston
Sonia (11-12) - Lochard Guy (25, 28) - Lockwood Michael (7) - Logsdon John (34) -
Loiseau Gérard (26-27) - Lorcerie Françoise (23-24) - Louis Patrice (32-33) -Lowel
Abbott Lawrence (31) - Lubeck Ian (5-6) - Lunt Peter (11-12) -
Macé Eric (11-12, 31, 37) - Machado da Silva Juremir (35) - Macherey Pierre (2) -
Maigret Eric (26-27, 30) - Malandrin Gilles (36) - Malavialle Anne-Marie (34) - Malogne-
Fer Gwendoline (32-33) - Mancini Paolo (13-14) - Mandelsaft Germaine (28) - Marchetti
Dominique (35) - Marimoutou Jean Claude Carpanin (32-33) - Marion Philippe (13-14) -
Marramao Giacomo (1) - Martin Marc (21) - Martín-Barbero Jésus (28) - Mathien
Michel (11-12, 35) - Mauduit Jean (37) - Mayol Pierre (20) - Mehl Dominique (13-14) -
Mercier Arnaud (13-14, 19, 20, 21, 29, 35) - Messeder Perdra Carlos A. (8-9) - Messner
Francis (23-24) - Meunier Jean-Pierre (25) - Meyer Michel (15, 16) - Meyer-Bisch Patrice
(19, 23-24) - Michalon Thierry (32-33) - Michel Jean (35) - Micoud André (20) - Miège
Bernard (17-18) - Miller David (15, 16) - Minet Pierre (21) - Moirand Sophie (21) -
Mokaddem Hamid (32-33) - Molinie Georges (15) - Monnoyer-Smith Laurence (21,25,
26-27, 31) - Morley David (11-12) - Morris Nancy (28) - Moscovici Serge (5-6) -
Véronique Mottier (13-14) - Mouchon Jean (13-14, 17-18) - Mougeotte Etienne (37) -
Moyse-Faurie Claire (32-33) - Mugny Gabriel (5-6) -
Nadeau Robert (15, 16) - Navet Georges (10) - Neale Stephen (7) - Nel Noël (25) -
Nersesiark Vladimir S. (19)-Neuffer Philippe (32-33)-Neveu Erik (17-18)-Nivat Anne
(18)-Noelle-Neumann Elisabeth (4)-Nowicki Joanna (23-24) - Nyiri Christoph ( 1 8 ) -
Oléron Pierre (15, 16) - Ollivier Bruno (32-33) - Ortiz Renato (28) - Ossipow William
(13-14) - Ossman Susan (21, 22) - Ouasti Boussif (30) -
Padioleau Jean-Gustave (35) - Page Benjamin L (31) - Paia Mirose (32-33) - Pailliart
Isabelle (26-27) - Paquot Thierry (10) - Parodi Jean-Luc (4) - Pasco Xavier (34) - Paskov
Victor (10) - Pasquier Dominique (22) - Patriat Claude (20) - Patrin-Leclère Valérie (37)
- Peeters Hugues (25) - Pélissier Nicolas (35) - Perraya Daniel (25) - Perret Jean Baptiste
(22) - Perez Juan A. (5-6) - Perrot Jean-François (20) - Peters John Durham (13-14) -
Petit Alain (15, 16) - Pettigrew Louise (15, 16) - Pierron Jean-Philippe (20) - Pillet
Gonzague (19) - Plantin Christian (15, 16) - Plas Régine (5-6) - Poche Bernard (23-24)
- Poinclou Jean-Baptiste (26-27) - Poirier Jacques (20) - Poirine Bernard (32-33) -
Poirrier Philippe (20) - Poisat Jacques (36) - Poitou Jean-Pierre (25) - Polo Jean-François
(23-24) - Porebski Czeslaw (18) - Poujol Geneviève (20) - Prado Jr Plinio W. (1, 10) -
Proulx Serge (37) - Proust Joëlle (15, 16) -
Saadi Hacène (30) - Sabit Audrey (29) - Saffrais Guylaine (19) - Sainsbury Mark (7) -
Saint-Martin Monique (de) (20) - Sam Léonard (32-33) - Samain Etienne (28) - Sangla
Raoul (32-33) - Santiso Javier (19) - Sautedé Éric (37) - Savarese Éric (30) - Schlesinger
R. Philip (8-9, 28) - Schmid Anne-Françoise (7) - Schnapper Dominique (8-9,20,23-24)
- Schröder Kim (11-12, 13-14) - Schudson Michael (13-14) - Sedakova Olga (23-24) -
Serdaroglu Ozan (30) - Sève Bernard (15, 16) - Shapiro Robert Y. (31) - Sicard Marie-
Noëlle (21) - Sicard Monique (17-18, 21, 22) - Sigov Konstantin (23-24) - Silverstone
Roger (22) - Simonin Jacky (22, 26-27, 32-33) - Sinapi Michèle (22) - Souchon Michel
(11-12, 37) - Soulez Guillaume (19) - Soupé Dominique (32-33) - Sourbès-Verger Isabelle
(34) - Spitz Chantai (32-33)-Spitz Jean-Fabien, (1) - Stavileci Masar (23-24) - Steimberg
Oscar (28) - Stephenson Adam (7) - Stoetzel Jean (2) - Suzuki Kazuto (34) - Swiderski
Edward M. (19) - Sylvestre Jean-Pierre ( 2 0 ) -
Tabboni Simonetta (37) - Taguieff Pierre-André (8-9) - Tarasov Alexander (34) - Tarde
Gabriel (5-6) - Tassin Etienne (10) - Tchakhotine Serge (2) - Tessier Marc (37) - Tétu
Jean-François (17-18) - Thomas Fabienne (25) - Tirard Stéphane (35) - Tisseron Serge
(25) - Touraine Alain (4) - Traversa Oscar (28) - Tsagarousianou Roza (26-27) -
Valenta Muriel (28, 31) - Vallat David (36) - Van de Gejuchte Isabelle (29) -
Vandendorpe Florence (25) - Van Ginneken Jaap (5-6) - Van-Praët Michel (20) - Varela
Walter Jacques (29) - Watin Michel (32-33) - Watine Thierry (35) - Weisbein Julien (36)
-Weissberg Jean-Louis (25) - Widmer jean (19)-Windisch Uli (15, 16, 23-24)-Winkin
Yves (13-14, 22, 32-33)-Wittersheim Éric (32-33)-Wohlfarth Irving (10)-Wolf Mauro
(11-12) -Wolff Éliane (32-33) - Wolff Francis (15, 16) - Wolton Dominique (4, 8-9, 10,
11-12, 13-14,15,16,17-18,21,22,23-24,26-27,28,32-33,35,37)-Woodfield Andrew (3,
7) - Worms Jean-Pierre (23-24) - Wrona Adeline (22) - Wulf Christoph (22) -
Wunenburger Jean-Jacques (20) -
Zaller John (31) - Zappalá Annick (21) - Zask Joëlle (31) - Zaslavsky Danièle (28) -
Zelizer Barbie (8-9)-
AVANT-PROPOS
Ce numéro ouvre une analyse d'autant plus nécessaire, que le succès des mesures
d'audience depuis vingt ans n'a guère fait l'objet de réflexions. Pourtant dans les chaînes,
les instituts, une expérience, et une compétence se sont constituées. En fait, tout a été très
vite. Il a fallu inventer des outils au fur et à mesure que se constituait cette économie de la
communication, et que l'on passait d'une culture du service public à une économie
privatisée des publics.
Ce numéro a donc pour ambition de contribuer à un retour d'analyse, sur les
différentes mesures d'audience. Ouvrir un espace de réflexion pour comparer
historiquement et théoriquement, et selon les techniques, les différents résultats, les
réussites, les échecs, les problèmes. Si la radio et la presse avaient une expérience du rapport
entre les publics et les publics marchands, c'est sans doute l'entrée de la télévision dans
l'économie de la communication qui a généralisé le succès des mesures d'audience; les
enjeux économiques sont devenus à la taille de l'importance de la télévision et de l'image.
Et depuis une petite dizaine d'années l'émergence de publics fragmentés en, radio,
télévision, Internet avec la problématique des publics en réseau oblige à affiner et à réfléchir
de nouveau aux outils pour comprendre un peu mieux les publics, la manière de les
mesurer, les compter, les mobiliser.
En un mot, de 1950 à 1980, on a vécu avec une conception plus culturelle et politique
du public, des publics et du service public. De 1980 à 2000 on a vu l'émergence d'outils liée
au fait que les publics et le public devenaient au moins autant une marchandise qu'une
valeur. Avec l'élargissement et la différenciation des systèmes d'information et de
communication, la mondialisation, la dérégulation, une réflexion critique sur la
communication, son rapport avec la culture et la politique, le service public et l'identité
nationale, doit s'ouvrir. Ainsi qu'une analyse des rapports entre publics et audience,
économie et culture, société et politique.
Cinq éléments sont à rappeler pour ouvrir cette réflexion.
L'outil et le concept
Le statut du public
perspective de l'école de Francfort. Les médias devaient «aliéner» les peuples. Puis
constatant les effets plus limités des médias, on a découvert l'importance des conditions
de la réception qui permettait de mettre en avant une réflexion sur l'autonomie du
récepteur. Le récepteur n'est pas en ligne avec le message et l'émetteur. Il y a au moins
autant négociation qu'imposition. Ce qui rend compliquée la réduction de la réception à
la simple quantification par l'audience. Aujourd'hui le retour d'une réflexion critique va
bien sûr relancer une analyse des rapports entre production, réception, offre et demande.
Mais surtout l'abondance inimaginable d'images et d'informations, il y a 30 ans, va
également obliger à réouvrir une réflexion sur les effets, et sur la séquence production-
effet-réception. Hier, dans un contexte encore rare d'économie de la communication les
publics finalement négociaient et il fallait comprendre la réception. Demain, dans un
univers multimédia, où l'offre est beaucoup nombreuse, mais aussi beaucoup plus
standardisée, il faudra réouvrir une réflexion sur la question des effets qui hier, avait pu
être traitée de manière finalement plus rassurante.
L'efficacité, et les limites des techniques d'audience sont révélatrices d'un phénomène
plus général : la faiblesse des outils, et avec eux souvent des théories dont nous disposons
pour comprendre la réalité contemporaine. En fait, on n'a pas dépassé les statistiques. Ou
plutôt, leur efficacité partielle, a suffi. La simplicité des outils concernant l'audience n'est
que le symptôme de la faiblesse des outils nécessaires pour comprendre la société
individualiste de masse où les deux dimensions contradictoires, de la liberté individuelle et
de l'égalité sont constamment en présence. Tout particulièrement pour la communication
où l'on souhaite de plus en plus être libre et performant individuellement, tout en étant
simultanément engagé dans des processus collectifs ou l'égalité est préservée. On devine
comment cette problématique sera de plus en plus compliquée, au fur et à mesure qu'avec
la mondialisation, les industries devront à la fois s'ouvrir aux autres cultures du monde et
cohabiter avec elles !
En tous cas, l'émergence de l'économie et les fantastiques progrès techniques
permettent de comprendre que dans ce secteur de la communication, l'essentiel
paradoxalement n'est pas dans la technique ou dans l'économie, mais dans une réflexion
théorique. Quelle philosophie de la communication veut-on et en rapport avec quelle théorie
de la société et de la démocratie ? La technique et l'économie nous montrent les insuffisances
de la réflexion théorique, et l'obligation d'y revenir, si l'on veut éviter un terrible effet de
boomerang où tout nous sera renvoyé pèle mêle, nous les apprentis d'une communication
réduite aux outils et aux marchés.
Dans quelques années, ce numéro sera peut-être considéré comme un des moments qui
aura permis de passer à une autre économie de la mesure d'audience, c'est-à-dire, à une
autre vision de la communication et de ses enjeux. En fait, on pourrait résumer la question
à ceci : « Dis moi quels outils tu utilises pour la communication et je te dirai quelle théorie
de la communication la sous-tend. » Ce sont les usagers, les sociétés et les contradictions qui
vont progressivement obliger non seulement à affiner les outils, mais aussi à approfondir les
théories de la communication.
Autrement dit, Hermès, au travers de ce numéro est fidèle à son orientation : rappeler
l'importance des enjeux théoriques et de connaissance pour tout ce qui concerne la
communication. Accroître l'exigence intellectuelle. Comprendre comment la
communication est une référence et une activité extrêmement compliquée. A la fois pour sa
place dans les valeurs et les intérêts de l'Occident mais aussi pour les obligations de
cohabitation culturelle qui sont à l'échelle du monde un des grands enjeux duXXIesiècle.
Inventer des outils plus sophistiqués, c'est aussi reconnaître que l'objet théorique, la
communication, entre les hommes et entre ceux-ci et les machines, est aussi une question
sophistiquée. La connaissance ne remplace pas la politique mais elle peut néanmoins y aider.
Ce numéro est un appel, comme tous finalement, à un peu plus d'esprit critique,
d'innovation, d'invention. Améliorer la qualité des outils qui mesurent ou évaluent nos
activités de communication, c'est reconnaître que l'activité communication en vaut la peine.
Et que l'on peut améliorer les programmes et les services. Compter, mesurer, c'est aussi un
moyen pour relancer une réflexion sur la qualité de l'offre et plus généralement sur les
messages qui circulent. C'est également reconnaître que cette activité, la communication,
tentative sans cesse renouvelée, et souvent défaillante d'échanges et de compréhension entre
les hommes mérite un peu plus d'attention qualitative, théorique et finalement humaine que
ce à quoi on assiste la plupart du temps dans son économie. Si l'information et la
communication sont aujourd'hui largement des marchandises, c'est à la condition de ne pas
oublier qu'elles sont d'abord des valeurs.
INTRODUCTION
L'ensemble des médias traditionnels (presse, radio, TV) sont des médias de masse. Ils
s'adressent à un large auditoire, généralement composé d'individus ou de groupes
d'individus isolés les uns des autres, anonymes, répartis sur un territoire plus ou moins vaste
et sans possibilité de réponse immédiate.
Dans ce contexte de communication «à sens unique», la connaissance de l'auditoire et
des conditions de réception est par définition problématique: quelles sont les personnes
touchées, à quelles catégories socio-professionnelles appartiennent-elles, comment
reçoivent-elles les messages (réception délibérée ou fortuite, individuelle ou collective,
attentive ou distraite, etc.), comment perçoivent-elles, interprètent-elles, les messages
reçus ? Ceux qui conçoivent les lignes éditoriales, les grilles de programmes, de même que
ceux qui produisent les messages - articles, émissions de radio, programmes de télévision -
en sont réduits à imaginer leur public sans pouvoir le rencontrer, le connaître, entrer en
dialogue avec lui. D'où un certain nombre d'outils plus ou moins satisfaisants, qualitatifs ou
quantitatifs, pour appréhender ce public, depuis le courrier des lecteurs - réponse
spontanée de récepteurs non représentatifs - les réunions de groupe ou les entretiens -
réponse provoquée d'un échantillon non représentatif - jusqu'au sondage - réponse
provoquée d'un échantillon représentatif.
Parmi tous ces outils, les sondages d'audience occupent une place particulière.
Généralement, l'existence même du média est en effet tributaire de sa capacité à attirer le
plus grand nombre possible de représentants du «public-cible». Existence économique
puisque tout ou partie des recettes provient de la publicité et donc de l'aptitude du média
à rejoindre de larges auditoires, à être performant sur son segment de marché. Mais aussi
existence politique pour les médias appartenant au service public et financés par la
redevance ou sur le budget national, qui doivent prouver leur légitimité en touchant un
public non négligeable.
L'audience est l'indicateur qui permet de fixer la valeur des espaces publicitaires mis en
vente et a essentiellement été formatée dans ce dessein. Elle exprime un nombre de
contacts, c'est-à-dire d'individus touchés par tel ou tel support. En tant qu'opérateurs
essentiels de la viabilité économique des médias, les résultats d'audience sont les données
les plus régulières, les plus systématiques et les plus légitimes concernant la quantification
des auditoires atteints. Du même coup, l'audience s'impose comme un puissant système de
consultation du public, qui donne l'état le plus objectif de ses préférences, de sa satisfaction,
de ses goûts. Elle prend le pas sur toutes les autres instances de jugement de l'offre (la
critique) ou de représentation de la demande, pour justifier et évaluer les décisions de
programmes. Cette ambiguïté première, qui la distingue d'emblée des autres outils de
connaissance du public, place l'audience au cœur de l'activité des médias et explique
l'intérêt et les réactions contradictoires qu'elle suscite.
médias à des fins de marketing, sont toutefois évoquées dans plusieurs articles. De même,
ce dossier n'aborde pas le champ des recherches sur la réception1 Notre démarche est
socio-économique et considère la mesure d'audience en tant que réponse donnée, dans une
certaine configuration politique et économique, à la question de la relation entre une offre
et son public.
Parmi les médias étudiés ici, la télévision occupe une place privilégiée. À cela plusieurs
raisons :
- La première tient au fait qu'en France, comme dans la plupart des grands pays
européens, la télévision s'est profondément transformée dans sa finalité sociale, depuis ses
origines placées sous l'égide du service public, et qu'en quelques années, avec l'avènement
du modèle commercial, l'audience y est devenue l'instrument central de régulation. La
télévision propose en quelque sorte à l'observateur des médias un accéléré très pédagogique
sur les effets concrets, en matière d'offre, de la dépendance vis-à-vis de la ressource
publicitaire et de la concurrence entre les diffuseurs qui en résulte. Depuis que les enquêtes
régulières d'audience existent (1949 pour la radio, 1957 pour la presse), aucun autre média
n'a connu une telle rupture quant à l'origine principale de ses ressources.
- La deuxième raison est liée au phénomène de focalisation de l'opinion publique sur
la télévision. Parce qu'elle apporte les images à domicile, celle-ci représente le média de
masse par excellence, le média populaire, crédité de tous les pouvoirs, chargé de tous les
méfaits. Songeons simplement aux passions déclenchées par le remplacement d'un
présentateur de journal ou par une émission comme Loft Story..., et à ce fait tout de même
surprenant que chacun connaît l'existence de l'audimat, tandis que la majorité ignore tout
des enquêtes presse et radio ! Cette fascination-répulsion pour la télévision est partagée par
les intellectuels, à la fois critiques vis-à-vis des produits de la culture de masse et sensibles à
son extraordinaire capacité de séduction et de sensibilisation. D'où la disproportion entre
les analyses consacrées à la télévision et celles menées sur la presse et surtout sur la radio
(pourtant écoutée chaque jour par autant d'individus et presque autant de temps en
moyenne).
- Enfin, la coordonnatrice de ce dossier, responsable de recherche à l'Ina, conduit
depuis une vingtaine d'années des études sur les principales évolutions en matière de
télévision, tant du point de vue de la programmation et des programmes que de celui du
comportement des téléspectateurs.
Il est remarquable que les problématiques abordées ici sont communes aujourd'hui à
la plupart des pays. Les spécificités nationales en matière de médias sont encore très
marquées sous certains aspects (comme, pour la télévision, les fortes disparités des capacités
d'investissement dans la production). Mais, dans le domaine de la mesure d'audience, la
convergence est à l'œuvre depuis une quinzaine d'années, du fait de la banalisation de
certaines techniques (audimétrie), de la concentration et de l'internationalisation des
instituts et enfin, de la généralisation des logiques concurrentielles. C'est ainsi qu'AGB
(Audits of Great Britain), déjà présent en Italie pour la mesure d'audience TV, s'est
fortement implanté dans les pays de l'Est au moment de leur ouverture au marché (Hongrie,
Pologne, etc.), que l'Américain Nielsen est très présent en Asie, ainsi que la multinationale
Taylor Nelson Sofres (Vietnam, Corée du Sud). La société américaine Arbitrou développe
actuellement la technologie du PPM {Portable people meter) pour mesurer l'audience de la
radio et de la télévision et mène des tests dans plusieurs pays (France, Royaume-Uni,
Amérique latine, etc.) en s'alliant avec les instituts nationaux. De même, pour installer ses
panels d'internautes à travers le monde, Nielsen s'appuie sur des instituts comme
Médiamétrie en France.
Selon la nature du média, selon son langage et le mode de réception mis en jeu, la
notion d'audience n'a pas le même sens et les indicateurs ne peuvent être les mêmes.
Le point commun entre la mesure d'audience des différents médias est de se fonder sur
le principe du sondage, c'est-à-dire sur le recours à la technique d'échantillonnage. Puisqu'on
ne peut appréhender concrètement la population totale touchée par un média, on construit
un échantillon le plus représentatif possible de cette population. De fait, la naissance de
l'industrie des sondages et celle de la mesure d'audience sont simultanées2. Aux Etats-Unis, on
situe généralement l'essor des sondages en 1936, lorsque Georges Gallup prévoit la réélection
de Roosevelt à partir d'un échantillon de 4 000 personnes, tandis qu'un magazine à gros tirage
(le Literary Digest) avait annoncé à tort la victoire du concurrent Alfred Landon en consultant
ses lecteurs et en recueillant deux millions de réponses. C'est la même année que les
responsables du magazine Life décident de mener une enquête d'audience pour mieux évaluer
le nombre de ses lecteurs - beaucoup plus important que le nombre d'acheteurs - et le
valoriser auprès des annonceurs. L'idée qu'un chiffre obtenu par calcul sur un petit échantillon
représentatif peut être plus juste, plus conforme à la réalité, qu'un dénombrement concret de
grande ampleur (réponses à un journal, exemplaires d'un magazine vendus) était acquise. En
France, les sondages sont introduits dès 1938 par Jean Stoetzel, fondateur de l'Ifop, mais il
faut attendre l'après-guerre pour le démarrage des sondages d'audience, d'abord pour la
radio, puis pour la presse et enfin, l'affichage et la télévision.
À partir de ce socle commun, les instruments de mesure diffèrent d'un média à l'autre.
L'article introductif d'Emmanuel Fraisse met bien l'accent sur l'ensemble des difficultés
méthodologiques affrontées et sur les «sacrifices» acceptés pour parvenir à une
«délimitation plausible des faits d'audience» propre à la nature de chaque média.
Pour la presse quotidienne, l'audience est définie comme le fait d'avoir «lu, parcouru
ou consulté» un titre la veille ou au cours des 7 derniers jours, ce qui permet de calculer la
LDP (Lecture dernière période), la LNM (Lecture d'un numéro moyen). Les principales
limites à la fiabilité et à la précision des résultats, remarque Jean-Marie Charon, tiennent à
la multiplicité des titres qui alourdit la passation du questionnaire et au recueil
d'information qui repose sur les déclarations et la mémoire des personnes interrogées.
Pour la radio, média temporel qui impose le rythme de sa réception, l'interrogation
introduit l'unité du demi-quart d'heure comme seuil significatif d'écoute pour chaque
station pendant les dernières 24 heures. Comme pour la lecture, la notion d'écoute est très
large, incluant toutes les conditions de réception (délibérée, attentive, en accompagnement
d'une autre activité, en fond sonore, etc.). Marie-Dominique Chevreux insiste sur la richesse
des indicateurs obtenus, notamment grâce à la complémentarité de deux enquêtes, mais
aussi, sur le nouveau défi posé par l'extrême diversification des supports d'écoute. La
réponse envisagée serait d'introduire une mesure passive par un audimètre portable sous
forme de montre.
Avec l'audimétrie actuellement en vigueur pour la télévision, l'audience du foyer est
suivie automatiquement à la seconde près. Chaque individu doit ensuite déclarer son
audience, définie comme «la présence dans la pièce où le téléviseur est allumé», en
appuyant sur son bouton-poussoir. Contrairement à la radio qui s'intéresse aux résultats par
tranche horaire, pertinents pour évaluer son offre, la télévision a toujours privilégié les
résultats par émission, unité significative de la grille de programmes. Pourtant, dans
l'univers atomisé du câble et du satellite, Jean Mauduit et Olivier Appé expliquent bien qu'il
a fallu renoncer aux résultats ponctuels par émission et revenir à des moyennes semestrielles
(en vigueur pour la radio ou la presse), afin de garantir la fiabilité statistique.
Les techniques et les indicateurs utilisés, la population prise en compte, reflètent aussi
l'état de la concurrence et peuvent faire l'objet de remises en cause assez conflictuelles,
lorsque l'équilibre qui prévalait entre l'ensemble des acteurs concernés est rompu. Même les
médias les plus anciens ne sont pas à l'abri de telles crises.
Ainsi, la radio traverse depuis quelques années une période de fortes turbulences quant
à la mesure de son audience. La montée en charge des radios musicales et thématiques, au
détriment des radios généralistes, est à l'origine d'une véritable guerre, chaque station se
battant pour imposer la mesure qui lui est le plus favorable. Alors que depuis l'origine,
l'audience radio ne prenait en compte que l'écoute des individus de 15 ans et plus, les radios
musicales, NRJ et Skyrock en tête, ont lutté pied à pied pour que soient intégrés les 11-14
ans, qui constituent pour elles un vivier d'écoute. Un compromis laborieux a été adopté en
2002 avec la prise en compte des 13-15 ans. L'autre bataille concerne le choix des
indicateurs pour le classement des stations. L'audience cumulée, indicateur traditionnel de
la radio exprimant le nombre d'auditeurs touchés quelle que soit la durée de leur écoute,
est revendiquée par la jeune radio NRJ qui a conquis la première place depuis fin 2002. La
généraliste RTL, pendant longtemps leader selon n'importe quel indicateur, tente
maintenant d'imposer le classement selon la part d'audience où elle continue à tenir tête à
ses rivales, retenant ses auditeurs beaucoup plus longtemps.
Dans le cas de la presse, des divergences méthodologiques entre responsables des
quotidiens et des magazines ont abouti, en 1993, à l'éclatement en deux enquêtes distinctes
du système de mesure d'audience qui perdurait depuis plusieurs décennies.
Pour la télévision, par contre, l'équilibre prévaut depuis une quinzaine d'années, suite
à la crise survenue à la fin des années 1980. La création de deux chaînes commerciales et la
privatisation de TFl ont en effet engendré, à partir de 1987, une compétition sans précédent
entre les diffuseurs devenus dépendants de la manne publicitaire. Les publicitaires qui,
depuis l'ORTF, s'étaient toujours vus refuser l'accès au système de mesure d'audience mis
en place par les diffuseurs, ont pu imposer le bouton-poussoir et le suivi par cibles. La part
d'audience, qui exprime l'état de la concurrence à chaque instant, fait son apparition et,
calculée notamment sur les cibles les plus prisées par les annonceurs, devient rapidement
l'indicateur hégémonique dans la communication des chaînes, s'imposant même douze ans
plus tard dans l'univers émietté des chaînes câble et satellite.
Dans tous les cas, on voit bien que l'audience est une réalité construite, obtenue après
toute une série de conventions concernant sa définition, sa mesure, ses dimensions. Lorsque
le contexte évolue, ces conventions peuvent être remises en cause par telle ou telle partie.
Le consensus n'est jamais parfait, les polémiques couvent, mais chacun a besoin d'une
référence unique pour situer les différents supports par rapport à la concurrence et fixer la
valeur des transactions sur le marché publicitaire.
Nous avons déjà souligné que la télévision a connu depuis son origine des mutations
profondes qui ont affecté son mode de relation avec le public et, du même coup, son offre
de programmes. Très schématiquement, on peut distinguer trois modèles qui sont apparus
successivement en Europe.
Le premier est celui de la télévision de service public en situation de monopole,
financée par la redevance, à laquelle vient s'ajouter ou non une part de publicité, et dont la
finalité sociale peut se résumer par la célèbre formule «Informer, éduquer, distraire». La
programmation d'un nombre limité de chaînes respecte un équilibre entre les genres
relevant d'une ambition culturelle et pédagogique et ceux ressortant du divertissement.
L'équilibre peut varier d'un pays à l'autre, d'une chaîne à l'autre, mais il s'agit toujours d'une
offre volontariste qui concrétise les conceptions des responsables et de certains groupes
professionnels sur ce que la télévision doit proposer à son public. La préoccupation de
mesurer l'audience existe déjà, mais d'autres critères de décision en amont et d'évaluation
en aval prédominent, allant des rapports de forces entre catégories professionnelles
(réalisateurs, journalistes, ingénieurs et techniciens, etc.) aux réactions de la critique. Les
données d'audience sont un élément parmi d'autres pour justifier une politique de
programme, des investissements et pour asseoir la légitimité d'une chaîne et finalement, de
la télévision en général.
Le deuxième modèle, aujourd'hui dominant, est celui de la télévision commerciale. Ce
n'est pas l'introduction de la publicité qui entraîne mécaniquement son émergence, ni
même l'existence d'une chaîne privée. Ainsi, le réseau ITV, créé en 1955 au Royaume-Uni,
entièrement financé par la publicité et bénéficiant du monopole auprès des annonceurs, a
offert pendant plusieurs décennies aux téléspectateurs britanniques une programmation où
dominent les préoccupations de service public, assez proche de celle de la BBC, entièrement
financée par la redevance. La rupture se produit avec l'arrivée de chaînes commerciales
supplémentaires, qui crée une situation nouvelle de concurrence sur le marché publicitaire,
l'offre globale d'écrans excédant la demande des annonceurs. En Europe, l'Italie bascule la
première avec la constitution du pôle Berlusconi au début des années 1980. En France, nous
avons déjà situé le pas décisif en 1987. L'évolution est plus progressive en Allemagne et en
Grande-Bretagne. Dans tous les cas, les offres de programmes se transforment plus
fortement que pendant les trois décennies précédentes. L'anticipation des résultats
d'audience, qui régit la tarification et la vente des espaces, devient un élément essentiel dans
les décisions de programme. Même les grandes chaînes publiques qui ne dépendent pas de
la publicité, telle BBCl, sont contraintes de se situer par rapport à la concurrence pour
éviter la marginalisation et justifier leur financement public.
Le troisième modèle, celui de la télévision payante, n'est encore qu'à l'état d'ébauche
et, souvent désigné sous le terme de complément, coexiste avec le précédent, qualifié dès lors
de généraliste. Ses prémices sont déjà anciennes dans certains pays, permises par le
développement du câble et du satellite (HBO aux Etats-Unis, à partir de 1975) ou,
originalité française, par l'attribution en 1984 d'un canal hertzien à une chaîne payante en
situation de monopole (Canal Plus). À partir du milieu des années 1990, aux Etats-Unis puis
en Europe, l'émergence de la diffusion numérique entraîne un saut qualitatif important en
multipliant le nombre de chaînes pour un coût de diffusion dérisoire. Le péage, dépense
régulière supportée par l'abonné d'un bouquet de chaînes, permet de financer des offres
assez spécialisées, qui n'intéressent souvent qu'un public segmenté, minoritaire. Une
nouvelle relation apparaît entre l'offreur et le « client » qui doit être conquis et satisfait par
une offre thématique, pointue, distinctive. La mesure d'audience n'est plus centrale dans ce
nouveau mode d'offre et de consommation qui divise les auditoires au lieu de les réunir.
Les interviews et articles proposés dans cette partie s'intéressent plus précisément aux
conséquences présentes de la domination du modèle commercial sur la télévision
généraliste. Quatre foyers sur cinq ne disposent encore en France que des chaînes
hertziennes et, même dans les foyers abonnés à une offre élargie, ces chaînes accaparent la
majeure partie du temps d'écoute. Pour cette télévision grand public, quels sont les effets
de la concurrence sur les offres de programmes et quel est l'impact des résultats d'audience
sur les choix éditoriaux ? Deux points de vue différents se dégagent.
pour que cela marche. » L'audience est toujours rétrospective et relative à une situation de
concurrence. La sophistication et la surabondance des chiffres ne lèvent pas le mystère de
ce qui a motivé le choix du public. Jean-Pierre Cottet ajoute qu'il n'y a pas de recettes pour
fabriquer des «pièges à audience» ou alors, «ces émissions sont comme les malheureux
clones de brebis, elles ne vivent pas longtemps». Pour tous deux, l'intuition, la conviction,
l'expérience, permettent seules de construire une grille, de concevoir un programme.
Ensuite, «l'audience est une récompense», elle vient de surcroît (Jean-Pierre Cottet).
En tout cas, selon ce dernier, la télévision publique ne doit pas se cantonner « à faire ce que
le privé ne souhaite pas faire», elle doit affronter la concurrence sur le terrain de la distraction,
«pour le plus grand bénéfice des téléspectateurs». C'est particulièrement France 2 qui doit
jouer un rôle moteur dans le domaine de la création télévisuelle: fiction, spectacle, etc.
Eric Macé pense aussi que l'audience «n'est pas le facteur central et déterminant de la
programmation ». Pour aller à la rencontre du public, pour anticiper ce qui va l'intéresser,
l'émouvoir, ce qui va être «légitime et recevable pour la plupart à un moment donné», le
responsable de programmes se fonde sur des «théories du social et du rôle de médiation de
la télévision». D'où le «conformisme instable de la télévision» qui, comme toute industrie
culturelle, est prise dans des tensions contradictoires, à la fois contrainte d'innover et de
reproduire ce qui a marché.
On résume souvent le modèle commercial au triomphe d'une télévision de la demande
sur la télévision de l'offre, qui caractérisait le service public en situation de monopole. Selon
ce premier point de vue, la situation n'est pas si tranchée. Bien sûr, Etienne Mougeotte
affirme qu'il « essaie de comprendre ce que sont les demandes du public » et de lui offrir « des
programmes qui correspondent à ces demandes». Mais c'est pour insister aussitôt sur la
difficulté à saisir cette demande, malgré tous les instruments d'observation dont il dispose.
La télévision est toujours en partie une télévision de l'offre, il faut savoir prendre des
décisions, courir des risques, faire des propositions nouvelles. L'audience est une sanction
indispensable, mais le programme est toujours premier. La force des grandes chaînes
généralistes est de créer l'événement, de susciter l'intérêt, d'ouvrir la curiosité, de sensibiliser
de larges auditoires à des questions auxquelles ils ne s'intéressaient pas préalablement.
Le second point de vue est celui de chercheurs qui insistent sur les effets pervers de la
«dictature de l'audimat». Pour Patrick Champagne, l'audimétrie s'apparente à «une sorte
de referendum permanent sur les programmes», un vote inégalitaire où les gros
consommateurs comptent plus que les petits, soumettant la télévision à la «loi de la
majorité». La logique économique appliquée à la télévision, conséquence du
désengagement de l'Etat, renvoie à une «vision politique implicite», à une «représentation
politique du public», alors que le média, comme entreprise de production de biens
culturels, aurait pu faire l'objet «d'usages sociaux beaucoup plus diversifiés». De leur côté,
Une fois établi que le fait d'audience prend en compte «l'exposition au média» et ne
nous dit rien sur les conditions de réception, une minute d'écoute attentive valant comme
une minute distraite ; une fois admis, à l'issue de la partie précédente, que l'audience ne
mesure pas tant les goûts des téléspectateurs ou leur satisfaction que, selon la formule
éloquente de Dominique Wolton, leur «réaction à l'offre»5, la question paraît provocante:
les données innombrables engrangées par le Médiamat peuvent-elles nous aider à mieux
connaître le public de la télévision et sa relation aux programmes ? Y a-t-il d'autres formes
de représentation du téléspectateur moins réductrices ?
Michel Souchon livre une démonstration virtuose de «l'utilisation intelligente et
féconde» que l'on peut faire de l'instrument, à condition d'opérer des «détours» par
recueil des données, etc. Elle met en évidence qu'Internet n'est pas un média de masse
(broadcast), au même titre que la presse, la radio et la télévision, caractérisé par la diffusion
d'une offre organisée de messages, dans un langage propre, à destination de récepteurs
anonymes.
Internet est un média hybride qui associe différentes logiques de communication,
depuis le dialogue interpersonnel de la messagerie (proche du téléphone ou du courrier)
jusqu'au dialogue homme-machine permis par l'interactivité et mis en jeu dans la recherche
d'informations et les transactions les plus diverses.
Internet est un média hétérogène qui véhicule tous les langages et peut en cela relayer
l'ensemble des autres médias (presse, radio, TV), de même que tout moyen d'expression
(photo, musique, etc.).
Internet propose une infinité de services disparates qui, pour l'essentiel, ne rentrent pas
en concurrence, ne se situent pas dans le même champ et n'ont pas la même finalité sociale.
Internet, étant un média point à point, n'est pas structuré pour rejoindre de larges
auditoires, mais peut en échange disposer d'informations sur son public, à partir de données
enregistrées automatiquement, concernant le parcours des internautes, leur consommation
et, le cas échéant, par un recours à un questionnement complémentaire.
Jean-Pierre Jézéquel tire les conséquences économiques de ces caractéristiques du
Web. La mesure d'audience telle que nous l'avons définie, c'est-à-dire un système unique de
fourniture de données régulières permettant de hiérarchiser les différents supports d'un
même média et de fixer la valeur des espaces publicitaires n'est sans doute nécessaire que
pour les gros sites (portails, moteurs de recherche, etc.) qui tentent d'attirer le plus grand
nombre possible d'internautes pour maximiser leurs recettes publicitaires. Le principe de
gratuité, qui a été à l'origine du Net, a conduit dans un second temps, lorsque de nouveaux
entrants se sont préoccupés d'assurer la rémunération des services offerts, à un alignement
sur le modèle économique de la fausse gratuité des médias financés par la publicité. Pour
ces gros opérateurs, le panel user centric de Nielsen NetRatings et Médiamétrie fournit un
palmarès en nombre de visiteurs.
Mais ce modèle des médias financés par la publicité ne peut en aucun cas s'imposer sur
l'ensemble du Net. Quantité de sites n'ont pas vocation à rejoindre de larges audiences et
trouvent leur justification dans une démarche de communication publique (sites
institutionnels, sites d'entreprise), ou dans une transaction rémunérée (fourniture de
services, commerce électronique, etc.). Comme le souligne Josiane Jouët, la possibilité pour
tous ces sites de personnaliser la relation avec l'usager et de mémoriser son profil de
consommation ouvre la voie à un champ immense de techniques de marketing sophistiquées
impossibles avec les autres médias. La notion de cible, fondamentale pour les médias
traditionnels, qui tente de caractériser l'auditoire touché en catégories de consommateurs
auxquelles un annonceur s'intéresse, n'est plus centrale avec l'Internet, qui peut rétablir la
Le propos d'Alain Le Diberder a une valeur conclusive. Il prend appui sur l'expérience
acquise par les différents médias pour alerter les chaînes thématiques sur le danger d'une
trop grande dépendance à l'égard des données d'audience. Les déboires récents d'un média
aussi jeune qu'Internet doivent notamment leur servir de leçon. Dans un secteur où le poids
de la publicité est faible, la satisfaction et la fidélité des abonnés sont des critères tout aussi
pertinents. En cela, Alain Le Diberder resitue la mesure d'audience dans le contexte plus
général des processus de prise de décision professionnels. La qualité de la mesure
d'audience ne suffit pas. Il faut encore interpréter les résultats en les confrontant à bien
d'autres paramètres, pour constituer un véritable «corps de connaissance».
NOTES
1. Dans ce domaine, nous renvoyons le lecteur au dossier fondateur coordonné par Daniel DAYAN, «À la
recherche du public. Réception, télévision, médias», Hermès, n° 11-12, 1993.
2. Cf. préface d'Emmanuel FRAISSE, in Mesurer l'audience des médias. Du recueil des données au média-planning,
Paris, Dunod, 2002.
3. Pour une analyse plus détaillée de l'impact de la pression publicitaire sur la structure des grilles, le format et
le contenu des programmes, se référer à l'article «Programmer en régime concurrentiel» (Régine CHANIAC)
in Dossiers de l'audiovisuel, n° 99, 2001, Ina-La Documentation française.
4. Entretien avec Yves Jaigu, alors directeur des programmes de FR3, réalisé le 11 mars 1988 (Régine CHANIAC
et Jean-Pierre JÉZÉQUEL).
5. Cf. notamment dans «Pour le public», Hermès, n° 11-12, 1993, p. 11-13.
REFERENCES DE SITES I N T E R N E T
Emmanuel Fraisse
Jean-Marie Charon
Marie-Dominique Chevreux
Régine Chaniac
Olivier Appé
Jean Mauduit
Emmanuel Fraisse
Centre d'étude des supports de publicité (CESP)
Interrogés sur ce qu'ils entendaient par «intelligence», Binet et Simon, les pères de la
première échelle de QI, avaient répondu que c'était précisément ce que leur test mesurait.
Dans un tout autre domaine, celui de l'étude des médias, une semblable définition
tautologique s'applique-t-elle au concept de base désigné comme «l'audience» : dans quelle
mesure faut-il considérer celle-ci comme le résultat des mesures d'audience?
Dans l'introduction de son livre La Politique des grands nombres, histoire de la raison
statistique, Alain Desrosières revient sur ce thème classique de la problématique de la
mesure dans les sciences humaines : « Il est difficile de penser en même temps que les objets
mesurés existent bien et que cela n'est qu'une convention.» (...) « Les outils statistiques
permettent de découvrir ou de créer des êtres sur lesquels prendre appui pour décrire le
monde et agir sur lui. De ces objets, on peut dire à la fois qu'ils sont réels et qu'ils ont été
construits, dès lors qu'ils sont repris dans d'autres assemblages et circulent tels quels,
coupés de leur genèse, ce qui est après tout le lot de beaucoup de produits.» (...) « Les
attitudes possibles par rapport aux constructions scientifiques (notamment statistiques)
sont multiples. Elles sont souvent différentes en théorie et en pratique. Cela suggère que, au
lieu de camper sur l'une pour dénoncer les autres, il est plus fécond d'étudier la façon dont
chacune d'elles est inscrite de façon cohérente dans une configuration générale, dans un
réseau de compte rendus. La question de la réalité est liée à la solidité de ce réseau, à sa
capacité à résister aux critiques. »
La mesure d'audience des médias constitue un genre spécifique parmi les nombreuses
applications auxquelles les sondages ont donné lieu. Autant qu'à la nature de l'objet qu'elle
prétend appréhender, elle doit son originalité à son statut et à ses implications économiques.
Dans son acception première, le concept d'audience est simple: il désigne «la fraction
d'une population de référence exposée à un média» (ou, plus précisément, à un «support»
- chaque média se déclinant en un certain nombre de supports) ; c'est, évidemment, la
définition de «l'exposition» et la manière dont on la relève, qui posent problème. Les
modalités selon lesquelles un individu est susceptible d'entrer en contact avec un média sont
multiples: elles peuvent être caractérisées selon des dimensions qui opposent des
comportements fortuits ou délibérés, furtifs ou s'inscrivant dans la durée, occasionnels ou
habituels, mobilisant ou non l'attention du sujet... Face à la complexité du phénomène, on
conçoit d'emblée qu'il a fallu consentir, sur l'autel de la méthodologie, un certain nombre
de sacrifices, poser un certain nombre de conventions. D'autant plus que la restitution de
ces comportements suppose le recours à la mémoire de l'interviewé (dans le schéma
classique du recueil d'information par interview - nous verrons ultérieurement les
implications du recueil d'information instantané propre à la technique audimétrique).
La volonté, très pragmatique, de construire des instruments de mesure s'est traduite
dans une démarche qui a consisté à établir (et à éprouver) une série de délimitations
«plausibles» des faits d'audience, en accord avec l'objectif poursuivi (c'est-à-dire, au
premier chef: la mesure de l'exposition aux messages publicitaires), en tenant compte des
contraintes opératoires du recueil d'information.
C'est là, sans doute, une des difficultés majeures avec laquelle la mesure d'audience
doit composer.
La mémoire de l'interviewé est sollicitée pour des faits de nature très différente, quant
à son propre vécu : de l'exposition habituelle et régulière, à l'exposition accidentelle et rare,
de l'exposition qui aura mobilisé toute son attention (et aura sans doute laissé une trace
mémorielle forte), à l'exposition subreptice, dépourvue de réelle implication; elle est
sollicitée sur des périodes de référence temporelles très variables: depuis «la veille»
(mémoire à court terme, dont on espère une précision plus grande), jusqu'au mois ou à
l'année (de manière à restituer les comportements en termes d'habitudes).
Les questionnements adaptés au cas particulier de chaque média, sont la résultante des
recherches qui ont été menées, depuis l'origine, pour quadriller ce vaste champ
d'investigation. Elles ont permis de mettre en évidence un certain nombre de phénomènes,
(tel, par exemple, le biais désigné comme «effet télescope», qui conduit les répondants à
minimiser les durées sur les périodes de référence longues). Le croisement et l'analyse des
données issues de différents questionnements (dernière occurrence d'exposition et
habitudes) ont permis de préciser la signification des réponses, d'optimiser l'exploitation
des données et de concevoir les modèles de probabilisation utilisés en média planning.
Cette affirmation peut sembler un peu surprenante, s'agissant de mesures portant sur
des médias «de masse». Elle n'en est pas moins vraie, au sens statistique du terme, et au
degré de détail auquel on entend saisir les phénomènes.
A l'échelon de la population française (âgée de 15 ans et plus, et relevant des ménages
«ordinaires» - la population de référence par excellence), un support qui totalise une
audience de l'ordre du million d'individus - ce qui est loin d'être négligeable - réalise une
«pénétration» inférieure à 3 % - un fait statistique relativement «rare».
Le corollaire en est la dimension importante de la taille des échantillons - avec ses
conséquences sur le budget des études.
En dépit des moyens importants mis en œuvre, l'exigence de précision que postule,
idéalement, la mesure d'audience, est impossible à totalement satisfaire.
Cette limitation n'est pas seulement (ni même, d'une certaine manière, principalement)
d'ordre économique ; elle relève des limites de l'outil statistique (accrues des imperfections
inhérentes à sa mise en œuvre), dans leur rapport avec l'utilisation qu'on entend faire des
données produites - comme clés de répartition pour l'affectation d'une ressource
économique : dans ce contexte, toute variation, même statistiquement non significative, est
susceptible d'avoir des conséquences dans l'exploitation des données.
Reprenons l'exemple cité au paragraphe précédent d'un support qui réalise une
audience de 3 % : relevé, par exemple, sur un échantillon de dix mille individus (dix fois la
taille habituelle de l'échantillon des sondages d'opinions publiés), le «sous-échantillon
utile» (qui représente l'audience du support) sera de l'ordre de trois cents individus:
l'incertitude statistique relative qui lui correspond est loin d'être négligeable (intervalle de
confiance au seuil de 5 % , compris entre 2,65% et 3,35%, soit plus de 10% d'erreur
relative - sous l'hypothèse d'un recueil d'information «parfait»).
ne pas prendre suffisamment en considération ce qui est exigé du répondant constitue une
dérive fatale pour la qualité de l'information relevée. Un effort sensible a été accompli ces
dernières années pour mieux intégrer cette dimension du problème.
Le CESP
Le Centre d'étude des supports de publicitéestl'association interprofessionnelle qui regroupe
l'ensemble des acteurs du marché publicitaire concernés par l'étude de l'audience des médias. Le
CESP compte plus de 300 adhérents : annonceurs, agences conseil en communication, agences
médias, supports et régies publicitaires.
La Presse
Il existe, en France, deux études «de référence» sur l'audience de la presse: l'une sur
l'audience de la presse magazine, l'autre sur l'audience de la presse quotidienne. Cela n'a
pas toujours été le cas : à l'origine, les deux familles de supports étaient étudiées dans la
même étude (c'est le cas dans plusieurs pays étrangers) ; la scission est intervenue parce que
les quotidiens estimaient ne pas être traités sur un pied d'égalité avec les magazines dans le
cadre de cette enquête.
La partition en deux études indépendantes apparaît pertinente du point de vue du
mode de recueil : la presse quotidienne (nationale et régionale), qui compte un petit nombre
de supports (les quelques titres nationaux, et, en un lieu géographique déterminé, un, deux
ou trois titres régionaux) se prête à l'interview téléphonique (qui présente un certain
nombre d'avantages: notamment, celui de permettre d'optimiser la dispersion
géographique des interviews) ; par comparaison, la presse magazine, dont l'étude porte sur
plus de 150 titres, exige un recueil d'information en situation de face-à-face. L'existence de
deux études indépendantes n'en est pas moins ressentie comme dommageable en ce qu'elle
interdit l'exploitation conjointe des données (la prise en compte des duplications entre
quotidiens et magazines) en média planning.
Elle porte sur 11 titres nationaux, 71 régionaux et 174 titres de presse hebdomadaire
régionale (l'interviewé n'est interrogé que sur les titres susceptibles de le concerner, eu égard
à sa situation géographique).
Le recueil d'information est conduit par téléphone (système «Cati 1 »), auprès de la
population des «15 ans et plus, appartenant à des ménages ordinaires».
Les interviews sont réparties sur l'ensemble de l'année, sur un échantillon total de
21 700 répondants, selon un plan d'échantillonnage à deux degrés.
La définition de l'audience obéit à la formulation: «avoir lu, parcouru, ou consulté,
chez soi, ou ailleurs ».
La durée moyenne de l'interview s'établit à un peu moins de 15 minutes.
Le relevé des audiences obéit au schéma suivant :
- question «filtre» : seuls les titres cités comme ayant été lus au moins une fois au cours
des 12 derniers mois sont pris en compte dans les questions ultérieures du questionnaire.
On ne peut évidemment pas tabler sur une grande exactitude des réponses fournies en
référence à une période temporelle aussi longue: l'objet de la question «filtre» est de
repérer, dans la liste des titres, ceux qui sont susceptibles de relever de définitions plus
resserrées de l'audience. L'audience «annuelle» est, en conséquence, une notion limite,
d'intérêt relatif (même si ses chiffres sont parfois utilisés pour leur promotion par les titres,
qui aiment bien les gros chiffres) ;
- habitudes de lecture, selon l'échelle : tous les jours ; 3 à 5 fois par semaine ; 1 à 2 fois
par semaine ; 2 à 3 fois par mois ; moins souvent ;
- date de dernière lecture (DDL), selon l'échelle: hier; avant-hier; il y a 3 ou 4 jours;
il y a moins de 8 jours ; il y a 8 à 15 jours ; il y a plus de 15 jours.
Les réponses à la première modalité («hier»), constituent la «Lecture Dernière
Période» (LDP). Le croisement des réponses en termes d'habitudes et de DDL permet
d'affecter des probabilités aux modalités d'habitudes (à titre d'exemple, la probabilité
correspondant à la réponse «tous les jours» est de l'ordre de 0,8).
Elle porte sur plus de 150 titres (hebdomadaires et mensuels pour la majorité d'entre
eux, mais aussi bimensuels, bimestriels). Elle est réalisée sous l'égide d'un GIE regroupant
les principaux éditeurs (l'ΑΕΡΜ), qui en confie, depuis plusieurs années, la réalisation
partagée à trois instituts (ISL, Ipsos, Sofrès). Elle présente de nombreuses caractéristiques
communes avec la précédente : population de référence, définition de l'audience, plan de
sondage.
L'échantillon total est de 20 100 individus ; il se décompose en un échantillon principal
(16200 individus), représentatif de la population de l'étude, et un sur-échantillon de 3 900
individus appartenant à des foyers dont le chef de famille est cadre ou profession
intermédiaire (strates de la population qui réalisent des audiences supérieures à la moyenne ;
bien entendu, un redressement rétablit, dans le calcul des résultats, le poids réel de ces
catégories dans la population).
Les interviews sont réparties tout au long de l'année en six vagues de deux mois.
La nature et l'ampleur du questionnement exigent la situation de face-à-face au
domicile de la personne interrogée; le recrutement selon cette modalité pose un certain
nombre de problèmes (par rapport au recueil téléphonique) : difficultés d'accès à certains
logements (les taux d'accessibilité et d'acceptation variant assez sensiblement selon les
catégories socio-démographiques), nécessité de conduire les interviews dans la journée, et
non en soirée (avec le risque de sous-échantillonner les individus les plus mobiles).
Une autre difficulté propre à l'enquête tient à la lourdeur du questionnaire, qui peut
entraîner une certaine lassitude de la part de l'interviewé et engendrer des risques de
confusions.
À l'origine des enquêtes sur la presse, le matériel présenté pour pallier ce risque
consistait en des exemplaires réels des titres étudiés (études «through the hook»). Avec
l'augmentation du nombre des titres présents dans l'enquête, cette option s'est rapidement
révélée impraticable; c'est la présentation du logo des titres (dans leurs graphisme et
couleurs) qui est utilisée pour aider le souvenir. Une amélioration sensible à cet égard a été
introduite avec le recours à l'ordinateur portable.
L'enquête AEPM utilise un «Capi 2 double-écran» : l'enquêteur utilise le micro-
ordinateur sur l'écran duquel apparaissent toutes les consignes de déroulement de l'enquête
(le délivrant ainsi du souci de gérer les différents «filtres») ; le répondant dispose d'un écran
propre qui affiche les logos des titres au fur et à mesure de l'interrogation. Le logiciel gère
en outre la rotation aléatoire des titres (en respectant certaines règles de cohérence) pour
minimiser les biais d'ordre.
L'Audiovisuel
Les deux études de référence sur l'audience de la radio (étude «75 000») et sur
l'audience de la télévision (panel audimétrique «Médiamat») sont réalisées par l'institut
Médiamétrie.
Elle est conduite par téléphone sur un échantillon annuel de 75250 individus, à raison
d'environ 250 interviews par jour. Le plan d'échantillonnage combine tirage aléatoire et quotas.
Certaines régions géographiques sont sur-représentées (en fonction de l'implantation des
stations) ; les individus de 65 ans et plus (dont les audiences présentent une variabilité moindre)
sont sous-représentés (bien entendu, les résultats font l'objet de redressements en conséquence).
La durée moyenne de l'interview est de 25 minutes. Les informations recueillies sur la
radio sont les suivantes :
- notoriété assistée des stations, sur la base d'une liste de 20 à 60 stations, selon les
départements ;
- habitudes d'écoute sur l'ensemble de la journée pour un certain nombre de stations
«majeures» (ayant passé le filtre de la question de notoriété) ;
- écoute des 24 dernières heures (et non de la veille ; les 24 heures qui ont précédé le
moment de l'interview, entre 17h30 et 21h30).
Elle est sans doute celle qui est le plus connue du grand public (qui continue à la
désigner comme «l'audimat», alors que son nom officiel est, depuis plusieurs années, le
«Médiamat»).
La technologie audimétrique consiste à coupler au récepteur de télévision un appareil
(l'audimètre) qui enregistre en permanence l'état du récepteur (marche ou arrêt, canal de
NOTES
1. Cati : Computer assisted telephone interview (interview téléphonique assistée par ordinateur). L'enquêteur lit
les questions sur l'écran de l'ordinateur et saisit les réponses directement sur le clavier.
2. Capi : Computer assisted personnal interview (interview en face à face assistée d'un ordinateur).
PRESSE ECRITE :
DU TIRAGE AU LECTORAT
La presse écrite comme tous les autres grands médias dispose d'une analyse de
l'audience de ses titres, pourtant celle-ci est récente au regard de l'ancienneté du média. Les
caractéristiques de celui-ci, le très grand nombre de titres, les conditions de son utilisation,
lui confèrent également une très grande spécificité au regard de la télévision ou de la radio.
Ses méthodes d'analyse et les limites qu'elles rencontrent font l'objet de débats réguliers, qui
n'ont pas manqué de conduire, en 1993, à un éclatement entre d'un côté l'analyse de
l'audience des quotidiens et de l'autre celle des magazines, sous la direction d'organismes
distincts. Moins connues du grand public, voire des spécialistes des médias, que l'étude de
l'analyse de l'audience de la télévision, les questions concernant l'analyse de l'audience de
la presse écrite sont intéressantes dans la mesure où elles introduisent à des questions qui
vont progressivement concerner bien d'autres médias, soit la multiplicité de titres et la très
forte segmentation et atomisation qui en découlent.
Au regard d'une histoire riche de plus de trois siècles et demi, l'idée de comptabiliser
les acheteurs, puis les lecteurs de la presse écrite est finalement assez récente. Il suffit de
parcourir un ouvrage consacré à l'histoire des journaux pour constater que jusqu'aux
années 1920 il n'est fait référence qu'aux tirages de ceux-ci. Les historiens insistent
d'ailleurs sur la prudence nécessaire pour traiter de tels chiffres qui peuvent être retrouvés
dans les archives concernant les différents éditeurs et exclusivement produits par ceux-ci,
avec la difficulté à connaître comment ceux-ci étaient produits (chiffres bruts, moyennes,
etc.), sachant qu'aucune norme n'existait dans ce domaine et encore moins de système de
contrôle. Il est enfin très difficile d'évaluer de manière fiable l'écart existant entre les tirages
et la vente réelle, le pourcentage d'invendus ou de «bouillon», variant sensiblement avec
l'apparition de la vente au numéro (deuxième moitié du XIXe siècle1 et le ratio vente par
abonnement vente au numéro.
Ce n'est qu'en 1923 que les éditeurs vont s'accorder sur la création d'un organisme,
chargé de collecter, contrôler et donc garantir le nombre de quotidiens vendus, autrement
dit la «diffusion». Cet organisme, l'Office de justification de la diffusion (OJD), publie
chaque année les chiffres de diffusion des titres qui souhaitent que soient connues leurs
performances. Cet «OJD» est le fruit d'une déclaration «sur l'honneur» des éditeurs, des
contrôleurs étant chargés de vérifier la véracité des dites déclarations. Cette démarche
vérité, qui n'est pas sans entraîner des coûts d'abonnement à l'organisme de contrôle, n'est
bien évidemment pas liée à une pure soif de connaissance, ou une volonté de transparence
à destination du public. Il s'agissait plutôt de répondre aux demandes de plus en plus
pressantes des annonceurs d'obtenir un indicateur fiable de la puissance de chaque titre. Il
faut noter que les années 1920 voient se lancer les premiers magazines de conception
moderne 2 , faisant un appel substantiel à la publicité, sans parler de l'apparition de la radio,
premier média prétendant ne vivre que de la publicité.
La comparaison du contrôle de la diffusion avec les méthodes utilisées par nos voisins
européens, notamment britanniques et allemands, donne à penser que l'évolution
souhaitable va dans le sens de l'accélération des contrôles avec la publication de statistiques
plus fréquentes, trimestrielles par exemple. En matière de contrôle, nos voisins mettent
davantage de personnes chargées de vérifier et garantir la fiabilité des statistiques. Bien que
la notion de diffusion ne soit pas la plus pertinente pour les annonceurs, qui s'intéressent
aux lecteurs eux-mêmes, l'audience, il n'empêche que le nombre d'exemplaires vendus d'un
titre intervient comme une sorte d'étalon à partir duquel peut être appréhendée la
crédibilité des études d'audience.
Il faudra attendre la fin des années 1950 (1956)3 pour que soit créé le Centre d'étude
des supports de publicité (CESP), organisme paritaire entre les médias et le secteur de la
publicité (agences et annonceurs) qui, lui, a pour vocation de définir les conditions d'étude
de l'audience, de même que la conduite de celle-ci. En matière de presse écrite, l'étude
d'audience procède par vagues d'enquêtes en face à face, sur de gros échantillons. Plusieurs
chiffres sont alors saisis, la lecture la plus récente, sorte de photographie de la lecture au
moment de l'entretien, dite Lecture Dernière Période, ainsi que la lecture durant la période
sur laquelle court l'enquête (équivalent de l'audience cumulée des radios). En 1993,
quotidiens et magazines, ne réussissant plus à s'accorder sur les conditions de l'analyse
d'audience, feront éclater le système, chaque forme de presse réalisant sa propre analyse
d'audience, sous la direction de son propre organisme d'étude de l'audience (Euro-PQN-
PQR pour les quotidiens, AEPM pour les magazines), avec des méthodologies légèrement
différentes (Lenain, 1995). La place des publicitaires a été relativisée"4. Chaque forme de
presse, redevenue propriétaire de ses chiffres, entend en faire l'exploitation conforme à ses
intérêts, tout comme elle entend les mettre en perspective avec diverses données de
pratiques médiatiques ou de consommation.
L'enquête sur l'audience de la presse depuis qu'elle fut mise au point par le CESP
s'effectue par questionnaires, auprès de gros échantillons. L'AEPM procède par
entretiens en face à face, l'Euro-PQN par interviews téléphoniques. Son évolution,
surtout après l'éclatement entre quotidiens et magazines, a conduit à renforcer toujours
les échantillons. Il sont de 20000 personnes (de 15 ans et plus) pour l'étude AEPM et
22400 pour Euro-PQN 5 . Elle a aussi multiplié les vagues d'administration des dits
questionnaires, afin de prendre en compte les variations saisonnières. L'enquête AEPM
s'est ainsi d'abord administrée en six vagues successives de chacune 2500 interviews,
pour être aujourd'hui répartie régulièrement sur 350 jours par an. Pour limiter les effets
liés aux jours de la semaine, les interviews sont menées à égalité sur chaque jour de la
semaine, y compris les samedis et dimanches 6 . L'échantillon respecte scrupuleusement -
par un système de quotas - la répartition géographique, les CSP ou niveau d'études du
chef de famille7. Euro-PQN distingue un échantillon «quotidiens nationaux» de
6 000 interviews en région parisienne, d'échantillons s'adressant au public des différentes
régions.
Le questionnaire enregistre une lecture déclarée, par l'un des membres du foyer
enquêté. Il confond les différents niveaux de lecture dans une formule unique : avez-vous
«lu, parcouru ou consulté». Il distingue la lecture qui vient de se produire (le jour même
pour le quotidien, la semaine pour l'hebdo, etc.) d'une habitude de lecture dont la
fréquence est enregistrée. Ces deux modes d'appréhension permettent de produire deux
données courantes: la Lecture Dernière Période ou LDP, qui correspond à la part
d'audience pour les médias audiovisuels ; les habitudes de lecture, qui permettent de fournir
une correspondance à l'audience cumulée. Ces résultats sont fournis à chaque titre
adhérent, alors que les principaux chiffres pour l'ensemble des titres analysés, sont diffusés,
deux fois dans l'année, sous forme de CD roms8.
L'enquête AEPM ne se contente pas de saisir «l'audience» de chaque titre analysé. Elle
collecte également des données concernant les pratiques des différents médias (radio,
télévision, cinéma). Elle intègre également quelques données sur l'équipement et la
consommation du ménage (habitat, automobile, produits bancaires). Enfin un
questionnaire auto-administré est laissé à chaque interviewé, il porte sur les «pôles
d'intérêt». Il s'agit en fait des loisirs et divertissements, des pratiques culturelles, comme des
usages de communication, notamment le téléphone.
Le cœur de l'enquête AEPM porte sur la présentation des titres à la personne
interrogée. Les risques de confusion de titres, liés au nombre de ceux-ci ou à la proximité
de ceux-ci dans certaines familles de magazines (ex. TV Hehdo, TV Magazine, etc.) ont
conduit à proposer chaque titre sous forme de «vignette» reprenant le titre dans sa
typographie, ses couleurs, sa présentation habituelle. Afin d'éviter des biais liés à l'ordre de
présentation des titres, notamment avec des phénomènes de lassitude, les enquêteurs
faisaient varier régulièrement le déroulement des présentations, qui se faisaient grâce à des
«cahiers» à spirales. Aujourd'hui le recours à un micro-ordinateur à deux écrans contourne
cette question par une présentation aléatoire des vignettes des différents titres9.
La principale limite, physique, à laquelle l'étude d'audience de la presse doit faire face,
est celle du nombre de titres. Avec 70 quotidiens et surtout plusieurs milliers de magazines,
l'enquête butte sur l'impossibilité de prolonger exagérément l'interview et de lasser la
personne interrogée. Aujourd'hui le temps moyen se situe autour de trois quarts d'heures
(46,9 minutes, exactement, en moyenne pour l'étude AEPM). Elle butte surtout sur
l'atomisation de l'audience et l'impossibilité de multiplier les échantillons, indéfiniment, en
grande partie pour des raisons budgétaires10. Or ce morcellement de l'audience au regard
d'un échantillon limité - même s'il représente 20 000 interviews - pose un délicat problème
d'intervalle de confiance, qui interdit de prendre en compte des titres dont l'audience serait
insuffisamment massive, avec suffisamment de sécurité. Il faut remarquer que les
commentateurs des résultats des études d'audience de la presse et même souvent les
éditeurs eux-mêmes ont du mal à intégrer ces données d'intervalle de confiance lorsqu'ils
constatent des évolutions de 1 à 2 % sur un titre dont l'audience est de l'ordre 1,3 million
de lecteurs11.
Il reste surtout que la très grande majorité des titres ne sont pas pris en compte par les
études contrôlées et labellisées par le CESP, alors même que la qualification de la lecture,
du cheminement dans la consultation d'un titre sont bien éloignés d'un chiffre de LDP, d'où
une série de tentatives d'aménager ou compléter le système d'étude «officiel».
Plusieurs réponses sont aujourd'hui données aux limites des études d'audiences
contrôlées par le CESP. Les premières concernent les titres trop petits pour être pris en
compte. Elles prennent la forme le plus souvent d'enquêtes «ad hoc» auprès de publics cibles,
qui permettent d'estimer l'audience probable des titres. Les méthodes sont plus ou moins
fiables, il n'en reste pas moins que ces études pâtissent d'une image d'études «maison» dans
lesquelles les cabinets d'études seraient dépendants des commanditaires, un éditeur, un titre...
Les «petits titres» peuvent également recourir à l'étude «Sofrès 30 000», étudiant la lecture
de chaque titre souscripteur auprès d'un échantillon de 30 000 personnes de 15 ans et plus.
Les acheteurs d'espace ont toutefois tendance à considérer que celle-ci comporte des
inconvénients assez proches de ceux des études ad hoc (échantillon trop faible concerné pour
un titre donné, etc. ), sans parler, là encore, du problème de l'intervalle de confiance.
Certaines familles de titres peuvent aussi s'organiser afin d'échapper en partie à ce type
de suspicion, telle est l'approche retenue par les éditeurs de presse pour les jeunes16, ainsi
que la principale régie intervenant sur ce marché, Interdéco17. L'étude «Consojunior»,
lancée en 1999 est reproduite tous les deux ans. Elle prend en compte 118 titres lus par les
jeunes (de 2 à 19 ans) et comprend 7200 interviews par questionnaires réalisés en plusieurs
vagues et respectant la représentativité par tranche d'âge. L'enquête comporte elle aussi un
volet en face à face et un volet auto-administré. Elle intègre quatre grands chapitres: la
pratique média (dont la lecture avec les mêmes notions de Lecture Dernière Période et
d'Habitudes de lecture), la consommation, l'environnement socioculturel, l'utilisation de
l'informatique et des jeux vidéo (Charon, 2002). L'effort particulier fait par les éditeurs et
leur volonté de se coordonner sur une telle démarche tient pour une large part à la faible
attractivité de la presse jeune pour les annonceurs, ce qui est un phénomène historique, qui
se voit amplifié par le choix spontané des mêmes annonceurs pour le support télé. Il n'en
reste pas moins que le coût élevé est faiblement compensé par l'apport de nouvelles recettes
publicitaires, alors même que l'espacement de deux années entre deux études, paraît bien
long pour des annonceurs habitués à jongler avec les courbes du médiamat de la veille.
Conclusion
NOTES
1. C'est Le Petit Journal, lancé par Moïse Millaud en 1863, qui va développer le premier la vente au numéro, au
prix de un sou. La possibilité est donnée aux lecteurs populaires de payer leur quotidien jour après jour et
non plus d'avancer le prix de l'abonnement, dissuasif. Ce pari, qui impliquait de concevoir tout un réseau de
vente spécifique, constituait l'une des clés de la réussite de la presse populaire naissante, il donnait également
naissance à la notion d'invendu ou de «bouillon», la garantie de satisfaire tous les acheteurs potentiels se
présentant à un vendeur ne pouvant intervenir qu'en prévoyant un nombre d'exemplaires mis à la disposition
de chaque vendeur, légèrement supérieur à sa vente courante. C'est la notion de «réglage». Un taux
d'invendu de 20 % pour un quotidien classique est considéré en presse comme un réglage assez performant.
2. La presse féminine voit ainsi naître en 1920, la version française de Vogue, alors que Le Petit Écho de la Mode
tire un million d'exemplaires en 1922, face au Jardin des Modes, à Minerva (1919), à Êve (1919) ou aux Modes
de la femme de Prance, etc.
3. Le second poste périphérique à vocation nationale, Europe 1, est apparu en 1954, engageant désormais une
concurrence frontale avec Radio Luxembourg, future RTL.
4. Ce sont les éditeurs de la presse magazine qui dirigent l'ΑΕΡΜ, et qui entendent ainsi exploiter les résultats
de celle-ci en fonction des intérêts propres du média. Les publicitaires sont en revanche présents dans les
groupes de travail intervenant dans la conception et le suivi de l'étude elle-même.
5. L'étude «MRI», qui fait référence aux Etats-Unis, utilise un échantillon de 27 500 personnes, apparemment
plus important, mais qui doit être rapporté à 197,5 millions d'Américains de 18 ans et plus, représentant une
population très hétérogène répartie sur un territoire très vaste.
6. L'obsession de limiter les biais, voire certaines pratiques des éditeurs, visant à améliorer leurs scores en jouant
sur les dates des «vagues» ont conduit à recourir à un étalement sur chaque jour de l'année.
7. À l'étranger la plupart des études d'audience de la presse se font par entretiens téléphoniques et tirages
aléatoires. La disponibilité des données INSEE aurait conduit en France à privilégier un échantillon défini par
quotas.
8. Les régies et médias planeurs utilisent également une notion d'audience «primaire» - le «cœur de
l'audience» selon eux - constituée des lecteurs dont le foyer est acheteur du titre.
9. Ce dispositif d'un ordinateur avec un écran tourné vers l'interviewé et un vers l'intervieweur est à la fois récent
(janvier 2001) et inusité ailleurs dans le monde. Il semble qu'il intéresse plusieurs organismes d'étude de
l'audience chez nos voisins européens.
10. En 2002, l'abonnement «de base» de chaque titre se situait à 14000 euros (90000 francs), auquel s'ajoute un
tarif proportionnel au chiffre d'affaires publicitaire (soit un doublement du prix de base pour la plupart des
titres).
11. Dans une note «Interdéco expert», son auteur fait remarquer qu'un titre dont l'audience se situait à
1,385 million, représentait en fait 579 réponses sur 20000 interviewés, soit 2,9% du total. L'intervalle de
confiance permet alors de dire avec certitude que l'audience se situe entre 2,7 et 3,1. Ce qui conduit à situer
l'audience probable entre 1,274 million et 1,496 million de lecteurs.
12. Face à la contrainte de temps la tentation est de renvoyer davantage de sujets dans le volet auto-administré.
Les utilisateurs de l'enquête sont pourtant réticents, vu la distorsion qui en découle, de par des conditions
différentes d'administration, mais aussi par un taux de non-réponse et non renvoi qui peut devenir inquiétant,
comme cela se produirait pour l'enquête Euro-PQN obligeant à des redressements parfois importants.
13. Pour la presse quotidienne, le regroupement de titres dans le cadre du « 66-3 » visant à vendre un espace
publicitaire aux normes communes (dans 66 titres, pour trois insertions, moyennant un tarif unique, une seule
négociation commerciale, tout comme une seule facturation, pour l'annonceur) facilite la coordination du
travail pour l'étude Euro-PQN.
14. Un média planeur déclare ainsi: «Le problème de l'audience de la presse, c'est l'inégalité de traitement. On
a 250 titres sur lesquels on sait presque tout grâce à l'ΑΕΡΜ, FCA, l'OJD, qui sont contrôlés... et
3/4 000 titres pour lesquels on ne sait rien de fiable, sérieux, etc. »
15. L'enquête recueille d'ailleurs ces indications de provenances diverses des exemplaires lus ou consultés.
16. Il existe également une étude Agrimédia, concernant la lecture des exploitants agricoles, Cessim pour les
milieux médicaux, etc.
17. Régie publicitaire filiale du groupe Hachette Filipacchi Média, qui assure la régie de Bayard presse, de
Excelsior (Sciences & Vie junior, Sciences & Vie Découverte) ainsi que quelques-uns des titres Disney
Hachette.
18. Il est significatif à cet égard qu'un projet ait été avancé, il y a quelques années, qui proposait de substituer aux
méthodologies déclaratives actuelles, l'équipement d'un échantillon de la population de lecteurs de codes
barres, prenant la forme de montres, qui auraient enregistré au fur et à mesure la lecture des journaux, avec
l'inconvénient pour les membres de l'échantillon de devoir faire lire le code barre de chaque titre lu, lors de
chaque prise en main...
RÉFÉRENCES BIBLIOGRAPHIQUES
LA RADIO PIONNIERE
La radio est un média en bonne santé, en phase avec le style de vie des Français. Chaque
jour, plus de 40 millions de personnes ouvrent leur poste de radio et le laissent allumé plus
de trois heures en moyenne. En dix ans, la radio a gagné cinq millions d'auditeurs.
L'équipement des foyers montre bien l'importance de ce média dans la vie quotidienne
puisqu'on trouve un peu plus de six postes de radio par foyer, autoradio inclus, et que cet
équipement est de plus en plus sophistiqué avec un nombre croissant de postes équipés de
système de pré-programmation, de télécommande et du RDS.
L'offre à disposition des auditeurs est riche puisqu'on recense plus de 1300 stations de
radio en France. Dans les plus grandes agglomérations, c'est en moyenne une soixantaine
de stations qui peuvent être captées. Si la partie la plus jeune de la population consacre la
majorité de son écoute aux programmes musicaux et la partie la plus âgée aux programmes
généralistes, le reste de la population est plus éclectique dans ses choix et navigue entre les
différents formats proposés.
La mobilité croissante des individus ne les empêche pas de suivre leurs émissions
préférées, une part importante de l'écoute se fait en voiture (23 %) et au travail (17 % ) .
La radio est dans un univers concurrentiel depuis très longtemps. Déjà, entre 1923 et
1945, il y a eu coexistence d'un secteur privé et d'un secteur public. Au cours de la période
de monopole de l'Etat qui a suivi, de 1945 à 1982, des stations émettant depuis l'étranger
pouvaient être entendues. La plus ancienne était Radio Luxembourg rejointe par Europe
n° 1 et plus tardivement par Radio Monte-Carlo, lorsque celle-ci, appartenant pour moitié
à l'Etat français, a bénéficié de l'émetteur grandes ondes de Roumoules.
Cette situation originale de la radio a entraîné très vite le besoin de mesurer l'audience.
La première enquête périodique a été réalisée en 1949 par l'IFOP-ETMAR à
l'intention des stations et des publicitaires (ce n'est qu'en 1961 que ces enquêtes ont été
étendues à la télévision). Le Centre d'étude des supports de publicité (CESP) a pris sa
succession en 1968 et, pendant un peu plus de vingt ans, a interrogé chaque année 12 à
14 000 personnes réparties en trois ou quatre vagues. Parallèlement le service des études
d'opinion de l'ORTF est devenu, après la loi du 7 août 1974, le Centre d'études d'opinion
(CEO), organisme rattaché au Service juridique et technique de l'information (SJTI). Le
CEO avait pour mission de fournir aux pouvoirs publics la mesure de l'audience de chacune
des sociétés de programme issues de l'éclatement de l'ORTF et d'évaluer la qualité de leurs
programmes, ces données devant servir pour la répartition de la redevance. Les annonceurs
n'avaient pas accès aux résultats, en revanche, le CEO avait l'autorisation de les vendre aux
stations de radio privées. Le CESP et le CEO n'utilisaient pas la même méthodologie,
entretiens en face à face au domicile de l'interviewé pour le CESP et panel postal pour le
CEO, et obtenaient des résultats divergents. En 1983, pour des raisons à la fois politiques
et techniques, la tutelle décida de transformer le CEO en une société «dont le capital serait
majoritairement détenu par l'Etat et les sociétés du secteur public audiovisuel» avec une
participation minoritaire des partenaires privés. Ce fut la création de Médiamétrie en 1985.
La méthodologie de l'étude évolua, le panel fut remplacé par une enquête téléphonique
quotidienne et les résultats furent commercialisés. Depuis cette date, Médiamétrie est
l'organisme de référence des acteurs du marché radiophonique (stations de radio,
annonceurs, agences...) et également des autres médias à l'exception de la presse. Ses outils
évoluent et s'enrichissent selon les besoins de ces marchés.
74 HERMÈS 37 , 2003
La radio pionnière
L'enquête 75000+ a subi de nombreuses évolutions en un peu plus de quinze ans, mais
ses principes de base sont restés les mêmes. Elle doit son nom au nombre d'interviews
annuelles et repose sur du déclaratif c'est-à-dire qu'elle fait appel à la mémoire des personnes
interrogées. Elle est réalisée par téléphone, chaque jour de septembre à juin entre 17 h30 et
21h30. L'échantillon est sélectionné par tirage au sort dans les annuaires, avec une procédure
pour atteindre les foyers inscrits en «liste rouge», la méthode des quotas est ensuite appliquée.
L'interrogation porte sur l'écoute des 24 dernières heures depuis janvier 1999. Auparavant,
elle portait sur l'écoute de la veille de l'interview, le but de cette modification étant de faciliter
le travail de mémorisation. L'écoute est recueillie avec une précision au demi-quart d'heure et
donne des résultats sur une journée moyenne de semaine (lundi-vendredi), sur le samedi et sur
le dimanche. L'enquête «75 000» va indiquer un volume d'audience, un nombre d'auditeurs
sur une journée, par tranche horaire et va nous dire quelles catégories de la population sont
présentes. Elle va permettre de se situer par rapport à la concurrence, de voir les évolutions et
de mesurer si les émissions mises en place séduisent suffisamment de personnes.
Le panel consiste dans l'interrogation pendant trois semaines, une fois par an, d'un
même échantillon qui remplit quotidiennement un carnet d'écoute. Il offre la possibilité de
déterminer des auditoires sur une période plus longue que la journée. On peut définir un
auditoire-semaine, un auditoire-trois semaines (couverture), connaître l'audience des
différents jours de la semaine etc. Il permet de comprendre comment se construit l'audience
telle qu'on l'observe dans la 75 000+, de suivre les transferts et les duplications d'écoute. Le
panel permet de définir des cibles comportementales, par exemple les auditeurs fidèles de la
tranche d'information d'une station ou les occasionnels d'un programme culturel et de voir
leurs modalités d'écoute. Autant de renseignements riches et utiles pour les directions de
chaîne principalement utilisés dans un but d'aide à l'optimisation des grilles de programme.
Avec ces deux études, le marché dispose d'une panoplie d'indicateurs pour
appréhender toutes les facettes de l'audience. Mais comment définir l'audience? Est-ce un
nombre d'auditeurs, un temps passé à l'écoute, une certaine fidélité ? Il existe de multiples
réponses et l'on privilégiera certains indicateurs selon l'axe sur lequel on se placera. Ces
indicateurs peuvent être répartis en deux familles :
- ceux qui comptabilisent les individus ;
- ceux qui comptabilisent des comportements.
Dans la première famille, on trouve l'audience cumulée au cours d'une journée,
mesurée dans l'enquête «transversale» et les couvertures et accumulations que permet
l'enquête par panel. Chaque individu a le même poids quelle que soit sa durée d'écoute dans
le cas de l'audience cumulée ou sa fréquence d'écoute dans le cas de la couverture. Dans
cette première famille, on mesure des auditoires.
Dans la deuxième famille, il s'agit de l'audience du quart d'heure moyen, du volume
d'écoute. Les individus sont pondérés par leur durée d'écoute ou leur fréquence d'écoute
et ce sont essentiellement des audiences qui sont mesurées, c'est-à-dire des «auditeurs x
quarts d'heure». Ce sont ces indicateurs qui se traduisent aussi en parts de marché ou parts
d'audience.
Selon les objectifs à atteindre, l'attention se portera sur l'un et/ou l'autre des
indicateurs : en ce qui concerne les auditoires, pour certaines stations, il est primordial de
rencontrer quotidiennement un public important. Pour accroître leur auditoire, leur
stratégie consistera à fidéliser les auditeurs d'un jour à l'autre, à augmenter donc leur
fréquence d'écoute. En revanche, pour d'autres stations, la couverture sur une période plus
longue donnera une évaluation plus exacte de leur impact et leur objectif peut être d'avoir
une couverture maximale sur une période donnée quitte à avoir de nombreux auditeurs
«régulièrement» occasionnels, écoutant une fois ou deux par semaine.
De même, on n'accordera pas la même importance à la durée d'écoute selon les
stations. Il est normal que des programmes qui engendrent un fort renouvellement du
public aient une durée d'écoute plus faible que celle des radios généralistes pour lesquelles
c'est un indicateur essentiel.
L'indicateur du quart d'heure moyen intègre à la fois le nombre d'auditeurs et le temps
passé à l'écoute. C'est un indicateur majeur pour la commercialisation des espaces
publicitaires. Il sert également à calculer la part d'audience et permet de se situer
différemment par rapport à la concurrence.
La richesse des différents indicateurs permet de mieux évaluer l'adéquation entre les
publics dans la diversité de leur nature et de leur demande, et la variété des offres
radiophoniques commerciales ou de service public.
On observe que les ordres de grandeur et les rapports entre les indicateurs sont
différents pour les deux stations.
France Inter obtient une couverture élevée associée à une fidélité importante à la fois
au cours d'une journée (durée d'écoute) et d'un jour à l'autre (fréquence d'écoute).
France Culture multiplie son audience cumulée sur une journée par 6,6 en trois
semaines grâce aux nombreux auditeurs qui viennent de façon ponctuelle pour un type
d'émission précis.
Des polémiques reviennent régulièrement notamment sur l'évolution du média ou sur
le classement des stations qui pourraient laisser penser à une grande pauvreté dans la
qualification de l'audience. Il n'en est rien et il existe d'autres indicateurs que l'audience
cumulée et la part d'audience.
Les autres cibles utilisées pour l'analyse des données sont, comme pour les autres
médias, les catégories socio-démographiques classiques : profession, habitat, région, etc. Si
elles sont encore efficaces vis-à-vis des annonceurs et, le sont-elles vraiment, elles sont peu
adaptées à la réalité pour les concepteurs de programmes et, en tout cas, insuffisantes.
Considérer l'audience «des cadres» revient à supposer que cette cible représente une
population homogène, ayant peu ou prou les mêmes comportements, les mêmes besoins et
les mêmes attentes. C'est avoir une vision stéréotypée de la société et aller à l'encontre de
l'évolution des modes de vie. Ces catégories ont pour seul avantage d'être simples à
comptabiliser mais elles perpétuent des clichés, par exemple l'opposition hommes/femmes.
Des cibles de nature plus qualitatives, reflétant mieux les valeurs et les courants
porteurs du monde d'aujourd'hui, seraient plus pertinentes. Mais leur constitution nécessite
un processus plus complexe de recueil d'information et une actualisation régulière.
Les supports sur lesquels on écoute la radio ont beaucoup évolué. On peut maintenant
suivre son émission préférée sur Internet, écouter un programme, disponible ou non par
voie hertzienne, via la télévision par le câble ou le satellite, ou écouter les flashs
d'information sur son téléphone mobile. Ces pratiques sont encore limitées mais cependant
en croissance régulière. On ignore d'ailleurs si ces nouveaux modes d'écoute sont
complètement assimilés à de la radio dans la tête des auditeurs et si les interviewés de
l'enquête 75 000 pensent à l'inclure dans ce qu'ils déclarent écouter.
Les mesures d'audience spécifiques d'Internet ne savent pas prendre en compte
correctement le flux audio. L'écoute de la radio par le canal de la télévision va pouvoir être
appréhendée par le Médiamat maintenant que les foyers équipés en numérique sont intégrés
dans le panel. On pourra ainsi avoir une idée du volume de cette audience, mais il sera
difficile de recueillir des informations plus précises.
TÉLÉVISION :
L'ADOPTION LABORIEUSE
D'UNE RÉFÉRENCE UNIQUE
Durant les années 1950 et une bonne partie des années 1960, la demande des
responsables de la télévision en matière d'audience n'est pas assez importante pour justifier
l'installation d'un système coûteux de mesure: l'offre de programmes, limitée à quelques
heures par jour, est volontariste, reposant sur un équilibre entre les genres relevant d'une
ambition culturelle et informative et ceux relevant du divertissement. La concurrence entre
chaînes n'existe pas, la publicité est absente et le public, qui augmente chaque jour, plébiscite
les émissions proposées. La montée de l'équipement, rigoureusement enregistrée par le service
de la redevance, est une des premières statistiques régulières qui indique à elle seule la forte
popularité du média: on passe de 6 % de foyers équipés en 1957 à 62 % en 19681 ! Entre 1961
et 1967, un million de nouveaux comptes de redevance sont ouverts chaque année.
La curiosité vis-à-vis de ce nouveau public existe et se traduit par un certain nombre
d'enquêtes assez nombreuses et diverses, qui ne constituent pas un instrument permanent
et systématique de suivi d'audience. Des sondages ponctuels sont confiés à des organismes
extérieurs pour mieux connaître les caractéristiques démographiques et socio-
professionnelles des foyers équipés (INSEE, COFREMCA, etc.). Les enquêtes régulières
mises en place pour la radio, et réalisées par l'IFOP-ETMAR pendant deux périodes d'une
semaine par an, s'élargissent à partir de 1962 pour fournir les habitudes d'écoute des
téléspectateurs (courbes d'écoute moyenne par jour).
Le service des relations avec les auditeurs et les téléspectateurs de la RTF, dont l'activité
est essentiellement tournée vers le traitement et l'analyse du courrier reçu spontanément,
commandite et exploite ces études. Il gère également, à partir de 1954, un système quotidien
d'interrogation par téléphone. Ce dispositif s'appuie sur un échantillon très faible (une
centaine de personnes chaque soir), limité à la seule région parisienne et non représentatif
de la population disposant d'un téléviseur (la population française est encore sous-équipée
en téléphone). Plutôt qu'un instrument de sondage fiable, c'est un moyen d'établir un
« dialogue presque immédiat »2 et continu avec le public, en recueillant à chaud les réactions
de téléspectateurs au programme principal de la soirée. Il traduit aussi l'aspiration de Jean
Oulif, responsable du service, de s'inspirer de l'exemple de la BBC déjà dotée depuis 1952
d'un sondage quotidien sur l'écoute de la télévision3.
Le panel postal
Il lui faudra attendre 1967 pour avoir les moyens de mettre en place un dispositif
permanent et fiable, capable de fournir des résultats par émission. La méthode adoptée par
l'ORTF est celle du panel, qui consiste à conserver le même échantillon pendant un certain
laps de temps, plus économique que le recrutement d'un nouvel échantillon chaque jour. Le
panel, recruté selon la méthode des quotas, est représentatif de la population équipée en
télévision âgée de 15 ans et plus (de 400 personnes à l'origine, il culmine à 1600 en 1972),
réparti sur l'ensemble du territoire et renouvelé par moitié chaque semaine. Chaque personne
recrutée remplit un carnet d'écoute pendant deux semaines, indiquant les émissions regardées
(en entier ou en partie) et leur accordant une note d'intérêt. Le traitement des feuilles
d'écoute, renvoyées par la poste chaque jour, permet de calculer un taux d'écoute et un indice
de satisfaction pour chaque émission, dans un délai d'une huitaine de jours après la diffusion.
L'indice d'audience utilisé alors est un composite puisqu'il rajoute au pourcentage de
téléspectateurs ayant vu l'émission en entier la moitié de ceux qui l'ont vu en partie4. Ce mode
de calcul, qui permettait de prendre en compte approximativement l'auditoire partiel d'une
émission, met bien en évidence le caractère construit de tout indicateur d'audience.
Les résultats du panel postal sont strictement confidentiels et réservés à un petit
nombre de responsables de l'ORTF. Les rares résultats qui paraissent dans la presse sont
généralement délivrés par les responsables des chaînes à des fins de communication. Michel
Souchon fait remarquer que l'outil est destiné à éclairer une politique de programmes qui
demeure encore volontariste et compare ses utilisateurs de l'époque à Talleyrand qui
considérait que «l'opinion est un contrôle utile et un guide dangereux» 5 . Pourtant, certains
professionnels accordent très vite une grande attention aux chiffres d'audience pour évaluer
l'impact de leurs émissions, comme le raconte Etienne Mougeotte, disant de Pierre
Desgraupes, directeur de l'information de la première chaîne de fin 1969 à juillet 1972, «il
m'a aussi appris l'audience» 6 .
Mais l'effet le plus important de l'introduction du panel postal n'est pas encore dans
l'instauration d'une concurrence entre chaînes. Il réside dans la profonde désillusion
entraînée par la comparaison des résultats soir après soir. Avec la création de la deuxième
chaîne en 1964 et l'ouverture du choix qui en a résulté, avec l'enrichissement de l'offre
propre à ces années d'expansion, le public montre clairement sa préférence pour les jeux,
les sports, les variétés et les feuilletons7. Les responsables de l'Office peuvent maintenir un
équilibre entre programmes culturels et programmes de divertissement, mais les grandes
espérances pédagogiques sont déçues.
Le Centre d'étude des supports de publicité (CESP), créé en 1957 pour mesurer
l'audience de la presse, reprend à partir de 1968 les enquêtes par vagues menées auparavant
par l'IFOP-ETMAR pour la radio, interrogeant 12 000 individus par an sur leur écoute de
la radio et de la télévision. Chaque vague (de deux à quatre par an) fournit quart d'heure
par quart d'heure les courbes d'écoute des différentes chaînes. Les résultats sont utilisés,
non seulement par les annonceurs et les agences de publicité, mais aussi par la Régie
française de publicité, organisme public filiale de l'ORTF chargée de commercialiser les
écrans de la télévision publique. Dans la mesure où les résultats du panel de l'ORTF ne sont
communiqués qu'aux responsables de chaînes et aux pouvoirs publics, ce sont en effet les
chiffres du CESP qui servent de référence pour la tarification des écrans.
Deux systèmes parallèles vont ainsi coexister jusqu'en 1989, l'un réservé aux chaînes et
l'autre s'adressant à tous les acteurs du marché.
Il peut paraître paradoxal que les différents partenaires du marché publicitaire aient
disposé pendant une bonne vingtaine d'années de données plus frustres que celles fournies
par le panel postal. Le dispositif du sondage par vague ne permettait notamment pas d'avoir
des résultats émission par émission, soir par soir, sur l'année entière. Les résultats étaient
moyennes par jour «nommé». Les chaînes avaient d'ailleurs tendance à programmer leurs
événements exceptionnels pendant les périodes de sondage, pour infléchir les résultats en
leur faveur. Si les publicitaires se sont contentés de cette information pendant si longtemps,
c'est parce que les écrans étaient strictement contingentés et que leur nombre était très
inférieur à la demande. La Régie française de publicité profitait de cette situation de pénurie
pour «gérer la file d'attente» et imposer ses conditions : elle vendait en fin d'année tous les
écrans de l'année suivante, à un tarif uniforme selon les jours. Les annonceurs achetaient à
l'aveugle, sans connaître le contexte de programmation exact et sans choisir la date de
diffusion. Les chiffres du CESP leur suffisaient pour minimiser les risques en leur donnant
l'audience moyenne de la chaîne sur le créneau horaire demandé.
Le début des années 1970 voit s'installer une certaine compétition entre les deux
chaînes existantes. En 1971, la seconde s'ouvre à son tour à la publicité. En juillet 1972, les
deux chaînes deviennent des régies distinctes au sein de l'ORTF, placées sous la
responsabilité d'un directeur et ayant une certaine autonomie de fonctionnement. Leurs
directeurs respectifs, Jacqueline Baudrier et Pierre Sabbagh, vont chacun s'attacher à leur
donner une identité propre, une unité. Pierre Sabbagh reçoit clairement mandat
d'augmenter l'audience de la seconde chaîne (limitée les premières années par un réseau
d'émetteurs incomplet) pour se rapprocher de la chaîne aînée, et cela au moment où
s'annonce la troisième chaîne. Les chiffres fournis chaque semaine par le panel permettent
à leurs responsables de comparer les résultats des deux rivales, surtout pour le programme
principal offert en première partie de soirée. Progressivement, la réussite des dirigeants de
chaîne s'exprimera de plus en plus en termes d'audience.
Prévus par la loi d'août 1974, l'éclatement de l'ORTF et la création de sociétés de
programmes indépendantes, institutionnalise à partir de 1975 la concurrence au sein du
service public. TFl et Antenne 2 ont chacune leur régie de publicité, filiale de la RFP, et
négocient séparément avec les annonceurs ; la Loi de finances fixe chaque année le montant
maximum de recettes pour l'une et l'autre, le total étant plafonné à 25 % des ressources
globales de la télévision. Le service qui gérait à l'ORTF le panel postal, ainsi que l'ensemble
des études complémentaires (quantitatives ou qualitatives) portant sur le public, devient le
Centre des études d'opinion (CEO), rattaché aux services du Premier ministre. Le panel
postal perdure à quelques évolutions près (intégration de la radio, augmentation progressive
de la durée de panélisation, etc.). Parallèlement, les résultats du CESP, qui apportent un
baromètre sur l'état de santé respectif des chaînes selon les tranches horaires, font l'objet
d'une attention croissante au sein des chaînes. En effet, la RFP ne joue plus le rôle de boîte
noire et chaque chaîne est dans une situation de dépendance nouvelle vis-à-vis des
annonceurs, et cela par rapport aux chiffres qui ont vigueur sur le marché.
L'audimétrie foyer
À partir de janvier 1982, l'audimétrie, déjà présente dans de nombreux pays d'Europe
(ITV l'a adoptée dès les années 1960), s'installe en France avec un panel d'audimètres
mesurant de façon passive l'écoute de 600 foyers (poste allumé, chaîne regardée). Ce nouvel
outil, baptisé Audimat en France, enregistre les changements d'état du récepteur à la
seconde près, mais ne distingue pas l'écoute des différents individus au sein du foyer. C'est
pourquoi le panel postal est maintenu pendant trois ans encore pour fournir des résultats
par individu.
En fait, l'audimétrie représente une telle révolution au sein des chaînes que celles-ci se
désintéressent progressivement du panel postal. Chaque chaîne, chaque régie est connectée
à l'ordinateur central qui recueille et traite dans la nuit les données stockées par les
audimètres. Les responsables disposent le matin des résultats de la veille, avec les taux
d'audience moyenne et cumulée de chaque émission, et plus encore, la courbe d'audience
globale et par chaîne, indiquant les arrivées et les départs des téléspectateurs, les reports
d'une chaîne à l'autre. La rapidité, la précision s'accompagnent d'un degré de fiabilité
La création de Médiamétrie
RMC, voit le jour. Pour la première fois, les données d'audience calculées pour les diffuseurs
peuvent être commercialisées auprès de la profession publicitaire, même si l'AACP,
l'Association des agences-conseils en publicité, refusera dans un premier temps tout
dialogue avec cette société contrôlée par les diffuseurs publics.
Médiamétrie abandonne le panel postal, augmente le nombre d'audimètres à 1 000 et
crée l'enquête téléphonique 55000 10 pour suivre l'audience de la radio et fournir, en
moyenne mensuelle, l'écoute individuelle de la télévision. Audimat plus, créé en 1986,
calculait une audience-individu probable 11 pour chaque émission, en appariant les résultats-
foyers par émission de l'Audimat et les résultats-individus de la 55 000 par quart d'heure
moyen. L'utilisation pendant plusieurs années, par une grande partie de la profession, des
chiffres purement hypothétiques de l'Audimat plus illustre encore à quel point la mesure
d'audience n'est qu'une construction statistique faisant un temps donné l'objet d'un
consensus.
De l'autre côté, soutenu par l'AACP, un concurrent entre en jeu : le tandem Sofrès-
Nielsen, qui propose lui aussi une fusion entre les données-foyer d'un panel de
200 audimètres installés en région parisienne et des données-individu issues d'un panel de
300 minitels sur la France entière. Certaines agences publicitaires s'abonnent à ce système
moins coûteux que le précédent, de même que Canal Plus, qui a des besoins particuliers
en mesure d'audience et peut suivre un échantillon de ses abonnés à partir du panel
télématique.
La privatisation de TFl
identifiés par cible de consommateurs, qui n'avait guère d'intérêt dans un contexte de rareté
des écrans publicitaires, devient un enjeu pour la profession.
L'audimétrie individu
jusqu'à la fin des années 1980), la part d'audience était peu utilisée en tant que telle.
L'indicateur global fourni par le CEO et le CESP sur la répartition par chaîne de la durée
d'écoute moyenne, fournissait aux responsables une appréhension immédiate du
positionnement relatif des deux rivales. De même, un simple coup d'œil sur les résultats de
deux émissions diffusées à la même heure donnait grosso modo leur poids respectif.
Médiamétrie introduit l'indicateur dès 1985 en communiquant chaque semaine à la
presse les parts de marché-foyer des chaînes, en même temps que la durée d'écoute
moyenne et un palmarès des dix meilleurs résultats par chaîne (exprimés en audience
moyenne). Cette part de marché, calculée sur la semaine, le mois ou l'année, devient
rapidement une référence, non seulement pour les professionnels mais pour la classe
politique et l'ensemble des observateurs. C'est le chiffre-clé pour hiérarchiser les chaînes
dans un contexte de montée de la concurrence. Lorsque la privatisation de TFl est décidée,
l'élément le plus significatif qui sera retenu pour déterminer sa valeur de cession sera sa part
de marché d'environ 40 % à l'époque.
Un cran décisif est franchi à l'été 1987 quand les repreneurs de TFl, en place depuis
avril, craignent une baisse massive de l'audience, suite au départ de plusieurs animateurs de
divertissements très populaires débauchés par La Cinq. Dans un tableau de bord
hebdomadaire, chaque émission de la chaîne est évaluée par rapport à l'objectif global de
part d'audience, fixé à 40 %. Pour la première fois, la part d'audience de chaque émission,
calculée grossièrement au sein de la chaîne, devient une référence systématique et un critère
de décision affiché. Dès l'année suivante, Médiamétrie propose à tous ses souscripteurs des
résultats en audience moyenne et part d'audience, par émission et par quart d'heure.
À partir de 1989, la mise en place de Médiamat permet de calculer tous les indicateurs
précédents sur les individus, et non plus sur les seuls foyers. L'audimétrie individuelle
fournit des parts d'audience par cible qui permettent de raffiner la communication des
chaînes, aussi bien en direction des publicitaires (même si ces derniers n'achètent in fine
qu'un nombre théorique de contacts, c'est-à-dire d'individus touchés) que des journalistes.
Ainsi, lorsque la part d'audience globale de TFl commence à s'éroder au début des années
1990, la régie de la chaîne vante ses bons résultats auprès des «ménagères de moins de
50 ans», très recherchées par les annonceurs de produits de consommation courante. De
son côté, M6 se présente comme «la chaîne des jeunes», ses responsables communiquant
habilement sur des scores à certains moments plus élevés chez les moins de 35 ans. Même
dans les chaînes publiques, la part d'audience devient progressivement l'indicateur
omniprésent dans les discours des programmateurs qui, comme leurs homologues, justifient
ainsi les changements de grille, l'arrêt ou le maintien d'une émission, le lancement d'une
nouvelle formule.
Il faut attendre l'émergence d'un outil de mesure d'audience propre aux chaînes de
complément, diffusées par câble puis sur satellite, pour que l'audience cumulée reprenne de
l'intérêt. Dans un univers où les auditoires sont fortement fractionnés, chaque chaîne
souhaite appréhender, non plus les taux d'audience de chacun de ses programmes ou sa part
d'audience, chiffres souvent dérisoires et frappés d'incertitude statistique, mais l'étendue de
sa «clientèle» sur une période donnée. L'étude par vague Audicâble, créée en 1994 par
Médiamétrie, devenue AudiCabSat en 1998, fournit ainsi un taux de couverture sur les trois
semaines de l'enquête et un taux moyen sur la semaine. Puis ce dernier indicateur est calculé
sur six mois avec l'outil permanent MédiaCabSat12, mis en place à partir de 2001, à partir
d'un panel d'audimètres à bouton-poussoir. Toutefois, dès la seconde période de
MédiaCabSat (septembre 2001-février 2002), Médiamétrie publie aussi la part d'audience
des chaînes thématiques, seule une poignée d'entre elles atteignant le seuil de 1 % (Canal J,
Eurosport, LCI, RTL9).
NOTES
1. La montée de l'équipement est conditionnée par la mise en place progressive du réseau d'émetteurs nécessaire
à la réception : en 1956, de nombreuses régions ne sont pas encore couvertes et il faut attendre 1966 pour que
95 % des zones habitées du territoire puisse recevoir la première chaîne (et 70 % la seconde chaîne).
2. OULIF, Jean, PHILIPPOT, Michel, 1980, «La fable de la culture audiovisuelle», in Communication et langages,
4e trimestre, p. 100-109, cité par MÉADEL, Cécile, 1998, «De l'émergence d'un outil de communication», in
Quaderni, n° 35, p. 63-78.
3. Il faut préciser que la télévision britannique a été la plus précoce d'Europe, à la fois du point de vue de
l'infrastructure de diffusion, développée intensivement à partir de 1949, de l'équipement des foyers et de
l'offre de programmes: en 1958, le tiers des ménages britanniques sont équipés d'un récepteur (contre 6 %
en France) et reçoivent déjà deux chaînes.
4. SOUCHON, Michel, 1998, «Histoire des indicateurs de l'audience», in Quaderni, n° 35, p. 97-98.
5. Idem, p. 97.
6. Hors Antenne, avec DESGRAUPES, Pierre, in Les Cahiers du comité d'histoire de la télévision, n° 1, avril 1995.
7. Pour le divorce entre télévision culturelle et télévision de divertissement, cf. MISSIKA, Jean-Louis, WOLTON,
Dominique, La Folle du logis, p. 38-39 et suivantes.
8. DEMAISON, Michel, 1988, «L'audimétrie en France», in Études de radio-télévision, RTBF n° 38, Télévisions
mesurées et mesures de la télévision, Bruxelles.
9. Cf. DURAND, Jacques, «Les études sur l'audience de la radiotélévision en France», in Quaderni, n° 35, p. 79-
92.
10. L'enquête doit son nom au fait que 55000 individus âgés de 15 ans et plus étaient interrogés chaque année
(soit plus de mille personnes par semaine). Elle devient l'enquête 75000 en 1990 et la 75000+ depuis 1999.
11. Cf. DEMAISON, Michel, 1988, déjà cité.
12. Cf. «Il était une fois MédiaCabSat», dans ce numéro.
RÉFÉRENCES BIBLIOGRAPHIQUES
BAHU-LEYSER, D . , CHAVENON, H., DURAND, J., Audience des médias. Guide France-Europe, Paris, Eyrolles, 1990.
BOURDON, J., «À la recherche du public ou vers l'indice exterminateur? Une histoire de la mesure d'audience à
la télévision française». Culture technique, n° 24, 1991, p. 131-140,
BRIGNIER, J . - M . , CHAVENON, H., DUPONT-GHESTEM, F , DUSSAIX, A - M . , HAERING, H., (préface d'Emmanuel
FRAISSE), Mesurer l'audience des médias. Du recueil des données au média planning, Paris, CESP, Dunod, 2002.
CHALVON-DEMERSAY, S., «La mesure du public. Approche généalogique de l'audience télévisuelle», Quaderni,
n° 35, 1998, p. 45-51,
CHAMPAGNE, P , «La Loi des grands nombres. Mesure de l'audience et représentation politique du public». Actes
de la recherche en sciences sociales, n° 101-102, 1994, p. 10-22.
CHANIAC, R., «Programmer en régime concurrentiel». Dossiers de l'audiovisuel, n° 99, 2001, p. 24-27.
CHANIAC, R,, La Télévision de 1983 à 1993. Chronique des programmes et de leur public, Paris, Ina, SJTI, La
Documentation française, 1994.
FANSTEN, M., «Le poids déterminant de la publicité dans le financement de la télévision». Dossiers de
l'audiovisuel, n° 99, 2001, p. 10-14.
DEMAISON, M., «L'audimétrie en France», Études de radiotélévision, (RTBF, Bruxelles), n° 38, 1988, p. 95-100.
DURAND, J., «Les études sur l'audience de la radio-télévision en France», Quaderni, n° 35, 1998, p. 79-92.
HURARD, F , «Mesure et connaissance du public des médias audiovisuels en France: éléments de problématique»
in ALBERT, P., KOCH, E . U . , RIEFFEL, R., etc. (dir.), Les Médias et leur public en France et en Allemagne, Paris,
Éditions Panthéon Assas, 2003, p. 193-210.
MALO, G., GIROUX, L., «La mesure industrielle des auditoires» in PROULX, S. (dir.), Accusé de réception. Le
téléspectateur construit par les sciences sociales, 1998, Québec, Les presses de l'Université Laval, 1998.
MAUDUIT, J., «Le roman vrai de la mesure d'audience» (en trois parties). Les Ecrits de l'image, n° 29,2000, p. 130-
142 ; n° 30, 2001, p. 62-72 et n° 31, 2001, p. 108-128.
MEADEL, C , «De l'émergence d'un outil de quantification», Quaderni, n° 35, 1998, p. 63-78.
MISSIKA, J.-L., WOLTON, D., La Folle du logis. La télévision dans les sociétés démocratiques, Paris, Gallimard, 1983.
SAINCY, S., La Télévision en genre et en nombre. Analyse par genre du temps d'antenne et du temps d'écoute entre
1983 et 1991, Paris, Ina, SJTI, La Documentation française, 1992.
SOUCHON, M., Petit écran, grand public, Paris, Ina, La Documentation française, 1987.
SOUCHON, M., «Histoire des indicateurs de l'audience», Quaderni, n° 35, 1998, p. 93-106.
SANTINI, G . , SANTIER, É . (dir.), L' Audience et les médias, Paris, IREP, Les Éditions d'Organisation, 1989,
bibliographie de Jacques Durand.
Jean Mauduit
Médiamétrie
CÂBLE ET SATELLITE :
IL ÉTAIT UNE FOIS MÉDIACABSAT
Depuis le début de Tannée 2001, Médiamétrie dispose pour les chaînes du câble et du
satellite d'un nouvel outil spécifique de mesure d'audience, baptisé MédiaCabSat, qui
répond aux exigences du marché... L'ancien dispositif, Audicabsat, fondé sur une
méthodologie traditionnelle, s'essoufflait devant la multiplication des chaînes et des modes
d'abonnement, si bien que beaucoup de thématiques n'étaient pas prises en compte dans la
mesure d'audience. Impossible de laisser les choses en l'état. Et d'autant moins que dans le
même temps, devant l'encombrement croissant de l'espace commercial, le gouvernement
s'était mis en tête de limiter l'accès de la publicité aux antennes publiques. Il devenait
indispensable de se donner de l'air en faisant entrer dans le jeu les chaînes du PAF de
complément. Or, c'était l'époque où venait de naître une nouvelle génération d'audimètres,
capables de saisir tous les types de réception : en analogique par câble ou hertzien, aussi bien
qu'en numérique par câble ou par satellite. Cet audimètre d'un nouveau type avait permis
à Médiamétrie, dès le début de l'année 2000, d'intégrer dans son panel audimétrique
Médiamat1 280 foyers recevant l'offre élargie.
MédiaCabSat est né de cette triple opportunité: les besoins criants du marché, une
conjoncture économique favorable, une avancée technologique déjà validée. Ainsi s'est
ouverte pour le nouvel outil une véritable fenêtre de tir. Et la profession s'est mise d'accord,
dans des délais remarquablement courts, sur la création d'une nouvelle mesure
audimétrique consacrée aux chaînes du câble et du satellite.
Pour se faire une idée de l'ampleur du bond en avant, il est nécessaire de se reporter à
ce qu'était l'Audicabsat : une enquête déclarative par carnet d'écoute auto-administré. Elle
ne permettait qu'un suivi limité dans le temps, à travers une seule vague annuelle, à des
dates plus ou moins prévisibles, si bien que certaines chaînes se trouvaient encouragées à
programmer des opérations promotionnelles qui étaient pour l'audience autant de piqûres
de cortisone : elles font grossir, comme chacun sait. En outre, le mode déclaratif du recueil
de l'information se prêtait, inévitablement, aux erreurs de mémorisation et/ou de
transcription. Enfin, le traitement était différent selon les chaînes : impossible, dans le cadre
forcément restreint d'un questionnaire, de pré-formuler la totalité d'entre elles ; quarante-
huit seulement l'étaient ; le reste était laissé à la dénomination faite par les interviewés sous
la rubrique « autres ». Bref, pour explorer la nouvelle galaxie, sans cesse en mouvement, que
constituent les chaînes du câble et du satellite, on en était encore au télescope de Newton !
Audicabsat avait ses mérites, et d'abord celui d'exister. Il avait représenté en son temps un
grand progrès. Mais l'heure était venue pour lui d'entrer au musée.
Pour remédier à cette situation, la démarche accomplie par la profession eut quelque
chose d'exemplaire. D'abord, elle prit d'un commun accord la décision coûteuse et
méritoire - méritoire notamment parce que coûteuse - de mettre en place un dispositif
d'une tout autre envergure. Ensuite et surtout, elle participa étroitement à son élaboration
par Médiamétrie. Il s'agissait, globalement, de passer à la mesure audimétrique pour les
chaînes du câble et du satellite, autrement dit de substituer au carnet d'écoute une
méthodologie électronique, avec toutes les perspectives qu'ouvrait cette mutation
technologique. Toutes les chaînes seraient désormais prises en compte de la même façon. La
vague annuelle d'interrogation de l'échantillon serait remplacée par un suivi permanent,
365 jours par an, vingt-quatre heures sur vingt-quatre. La possibilité serait offerte d'accéder
plusieurs fois dans l'année à des résultats permettant d'observer les évolutions des
comportements d'écoute et de saisir, le cas échéant, les phénomènes de rupture. Enfin la
précision de la mesure passerait du quart d'heure à la seconde, si bien que la
comptabilisation de tous les mouvements d'audience serait assurée. Vaste programme.
Sur ces bases, un prototype fut conçu par les spécialistes de Médiamétrie, à travers ce
qu'on peut bien appeler une relation dialectique avec les acteurs du marché. Le projet leur
était soumis au fur et à mesure de son élaboration, au prix de copieuses réunions de travail.
À partir du projet, un cahier des charges fédérateur des attentes du marché fut établi après
une rencontre, le 19 septembre 2000, à laquelle participaient les représentants du CRTM
(organisme de réflexion qui regroupe l'Union des Annonceurs et les agences médias), les
régies publicitaires des chaînes du câble et du satellite, les opérateurs câbles et satellite, et
oublier que certains cœurs de cible correspondaient à des populations très minoritaires et
même très peu nombreuses. Il fallait pouvoir viser juste, à longue distance, sur des cibles
parfois minuscules et généralement mouvantes.
À titre d'exemple, voici deux chaînes A et Β visant exactement le même cœur de cible :
les individus GSP +. A est distribuée sur CanalSatellite et sur le câble analogique; ces deux
modes de réception cumulés concernent 70 % des individus recevant l'offre élargie, où la
proportion de GSP + s'élève elle-même à 25 % : soit pour notre antenne une cible
potentielle de (70 x 25) : 100 = 17,5 % de l'offre élargie. La chaîne B, quant à elle, est
présente sur TPS et sur le câble numérique qui totalisent 30 % de la même offre élargie ; elle
a donc une cible de (30 x 25) : 100 = 7,5 %, deux fois et demie plus restreinte. Comment,
pour respecter le principe de service commun, faire en sorte que les deux chaînes accèdent
au même type de résultats, c'est-à-dire au même degré de précision et de fiabilité ? Dans ce
contexte hérissé de contraintes, notamment financières, l'entreprise était ardue.
En fait, pour résoudre ce qui pouvait apparaître comme étant la quadrature du cercle,
Médiamétrie disposait de la panoplie de moyens que fournissent le nombre combiné avec le
temps et l'organisation. Le nombre, c'est-à-dire la taille de l'échantillon, est un paramètre
évidemment incontournable, et qui financièrement parlant pèse lourd, en particulier en
termes de recrutement. Aussi avait-il été posé comme principe, dès le départ avec l'accord
des grandes chaînes hertziennes, que seraient utilisés les 480 foyers recevant l'offre élargie
déjà présents au sein du Médiamat (riche au total de 2 800 foyers). A quoi viendrait s'ajouter
un sur-échantillon d'abord fixé à 250 foyers puis, comme il était apparu que cette taille ne
permettrait de couvrir «que» 95 % des besoins du service commun, à 350 soit au total 830
foyers, représentant 2250 individus.
Mais le temps? que vient faire le temps dans cette galère? Elémentaire, mon cher
Watson, ou plutôt mon cher Gallup. Etant posé comme principe que les résultats devaient
offrir, pour chaque chaîne dépassant un million de foyers d'abonnés, une fiabilité statistique
aussi grande que celle des résultats quotidiens des chaînes hertziennes dans Médiamat ;
attendu par ailleurs que les résultats du Médiamat sont calculés sur une base minimale de
400 individus par cible, la solution tombait sous le sens : Médiamétrie préconisait d'établir
des résultats moyennes c'est-à-dire en cumulant plusieurs jours d'information ; et avec un
seuil minimal de 200 individus sur une cible, un cumul semestriel permettrait de garantir le
résultat souhaité. Ici, le temps venait au secours du nombre.
Les durées d'écoute, elles aussi, restent stables. Stables et conséquentes. Un individu,
âgé de 15 ans et plus, abonné à une offre élargie consacre en moyenne à la télévision 3 h 45
par jour, dont l h 0 5 pour les chaînes thématiques. Les durées d'écoute correspondantes
d'un enfant de 4 à 14 ans sont respectivement 2 h 20 et l h05 ; consommant moins de
télévision en général que ses aînés, il s'attarde aussi longtemps qu'eux sur les thématiques.
De là à penser que celles-ci l'encouragent à se scotcher au petit écran, il n'y a qu'un pas. Et
c'est vrai pour toutes les catégories d'âge. Les abonnés à l'offre élargie consacrent davantage
de temps à la TV (13 minutes par jour de plus, pour les 15 ans et plus, 9 minutes pour les
4-14 ans) que les individus recevant une offre restreinte.
La part d'audience globale des thématiques est le reflet de l'importance qu'elles ont
prise dans la vie des gens. C'est quoi, la part d'audience (PDA) ? Le pourcentage de temps
consacré à une chaîne ou comme ici à un ensemble de chaînes, par rapport à la durée totale
d'écoute de la télévision. Un bon indicateur, non le seul mais particulièrement solide,
précisément parce qu'il fait entrer en ligne de compte la durée, et qui exprime bien les
rapports de force entre les chaînes. Or la part d'audience des thématiques chez les abonnés
de l'offre élargie dépasse 3 0 % , pour les 15 ans et plus, et atteint 45 % pour les 4-14 ans.
D'une vague à l'autre la situation reste à peu près stable, sauf à constater que cette part
d'audience a tendance à progresser légèrement chez les adultes (-h 1,4 % depuis la première
vague de l'étude) et à perdre un peu de terrain sur le marché des jeunes (- 1,9 %) où seul le
câble consolide ses positons.
L'âge apparaît d'ailleurs un facteur déterminant pour l'audience des thématiques. On
ne regarde la télévision ni autant de temps ni de la même façon au fil des années. C'est ce
que reflète clairement l'évolution comparée, par tranches d'âge, des durées d'écoute totale
TV et des PDA des thématiques. À 15 ans, ces deux indicateurs «décrochent», l'un de dix
minutes, l'autre de près de dix points. C'est la période où la vie vous appelle. On a moins
de temps à consacrer au petit écran, et surtout on consomme la rupture avec les émissions
pour enfants. Puis vient le temps de la prise d'autonomie, de la vie en couple, de l'insertion
sociale et professionnelle. On s'établit et même, on s'assoit : la durée d'écoute totale bondit
de 2h 12 à 3h33 sur les 25-34 ans par jour, celle des thématiques ré-augmente aussi, mais
dans des proportions moindres, si bien que leur part d'audience stagne à 35 %. Elle ne fera
d'ailleurs que décroître avec l'âge, non parce que les thématiques sont délaissées mais parce
que le temps total consacré à la TV ne cesse d'augmenter jusqu'à atteindre 4h39 pour les
plus de 50 ans, tandis que la PDA des thématiques tombe à 27,1 %.
Le poids des thématiques dans l'audience n'évolue pas seulement au fil des années,
bien sûr. Elle varie au fil de la semaine et même des heures. Les thématiques ont leurs jours
où leur part d'audience atteint ses plus hauts niveaux : ce sont le mercredi, jour des écoliers,
le samedi et le dimanche, jour de la famille qui rassemble aussi bien les grands enfants que
les petits. Durant la journée, la part d'audience des thématiques va à contre-courant de
l'écoute TV en général, c'est aux heures de faible audience qu'elle est la plus forte - soit le
matin entre 8h30 et 12 heures et l'après-midi entre 15 h et 19 h. Puis, elle décline fortement
à partir de 18h30 au moment où la télévision «ordinaire» commence à faire le plein
d'auditeurs pour remonter en fin de soirée. Comme si l'offre élargie, et plus
particulièrement les thématiques, était une offre dans l'offre, une TV dans la TV !
Et le palmarès des chaînes thématiques ? C'est toujours le même peloton de cinq qui
occupe la tête du classement au fil des vagues, mais avec des parts d'audience dont la
modestie est le reflet de l'extrême diversité du marché (63 chaînes ayant au moins 20 %
d'initialisation). Viennent dans l'ordre RTL 9 (2,2 %), Eurosport (1,6%), Canal J (1,4 % ) ,
LCI (1,1 %) et Télétoon (1 %).
Il est possible d'étudier ce palmarès par plate-forme, par cible en termes d'âge, ou
encore par thèmes, et par thèmes croisés avec la plate-forme. On peut y constater que la
fiction, chez les 15 ans et plus, représente la thématique-phare de TPS et, à un moindre
degré du câble, loin devant le cinéma qui est surtout l'affaire de Canal Satellite. Pour les
4-14 ans, en revanche, la fiction et le cinéma arrivent loin derrière les émissions pour la
jeunesse, qui rassemblent 26,5 % de part d'audience sur cette catégorie d'âge.
L'enquête détaille même l'évolution des parts d'audience des thématiques par thèmes,
du lundi au dimanche: cinéma, sport, information, documentaire, «généralistes»,
musicales. Une pleine moisson vraiment, de quoi remplir le grenier des hommes d'études et
des spécialistes du marketing... jusqu'à la prochaine récolte.
NOTES
Etienne Mougeotte
Jean-Pierre Cottet
Eric Macé
Patrick Champagne
Yves Jeanneret
Valérie Patrin-Leclère
Entretien avec Étienne Mougeotte
TF1
Question: TF1 domine largement le marché, avec plus de 10 points d'avance sur la
suivante, ce qui n'existe plus dans aucun pays d'Europe. Dans ce contexte de puissant
leadership d'une chaîne commerciale, la formule souvent utilisée de «dictature de l'audimat»
résume-t-elle bien le lien qui s'établit entre résultats d'audience et décisions de programme ?
N'y a-t-il pas d'autres paramètres qui interviennent ?
Il faut faire une remarque préalable. La dictature de l'audimat, c'est naturellement une
formule polémique. On ne dit pas la loi, le poids, la force, on emploie le terme de dictature
qui a une connotation plus que péjorative, insultante: la dictature, c'est insupportable.
Quant à l'audimat, cela n'existe plus. L'audimat, c'était l'outil qui permettait de mesurer la
consommation des foyers seconde après seconde; il a été remplacé par le médiamat,
instrument infiniment plus sophistiqué, puisqu'il mesure l'audience de chacun des membres
du foyer. Mais une fois diabolisé, on a gardé ce terme d'audimat comme l'expression de
l'abomination absolue.
Ce qu'il y a derrière cette formule, c'est l'importance qu'on attache à l'écoute des
téléspectateurs et on peut alors exprimer la question de manière moins polémique: est-ce
qu'il y a une loi d'airain du médiamat ? Cela se traduit comment pour un responsable de
télévision privée ou pour un programmateur ?
Question: Lorsque les premiers résultats d'une nouvelle émission sont décevants, quels
sont les paramètres qui vous conduisent à tenter de l'améliorer ou à la retirer rapidement de
votre grille ?
C'est une appréciation très subjective qui consiste à se demander si le programme est
susceptible de s'améliorer, de faire l'objet de modifications légères ou moins légères, qui vont
faire que peu à peu, il va s'imposer. Si on estime (à tort ou à raison) qu'on ne peut pas le
réformer, il vaut mieux tout de suite arrêter. Pour prendre un exemple un peu ancien mais
révélateur. Les Niouzes1 est une émission mise à l'antenne le lundi et arrêtée le vendredi, son
audience était insuffisante et, surtout, baissait d'un jour à l'autre. Le jeudi précédent, quand
on a fait le dernier pilote, j'ai failli prendre la décision très tard dans la nuit de ne pas démarrer.
J'ai fait l'erreur de dire: «Tant pis, on y va, on est très loin de ce qu'on voudrait faire, mais
néanmoins on l'a annoncé. » On savait que cela allait être très difficile, cela a été encore pire.
On était parti sur des mauvaises bases et je pense qu'on ne pouvait pas réformer l'émission.
À l'inverse, par exemple, au tout début de la privatisation de TFl, on avait créé un
magazine de cinéma en deuxième partie de soirée, présenté par Michel Denisot, qui n'a pas
donné les résultats espérés. On l'a arrêté très vite, et à mon avis à tort. Avec le recul, je pense
qu'on s'est trompé. Si on avait accepté d'attendre quelques semaines pour lancer ce
magazine hebdomadaire et le roder, on aurait peut-être pu le sauver.
L'exemple le plus spectaculaire d'amélioration d'une émission, c'est Star Academy. En
2001, on a énormément souffert dans les premières semaines, on a été tenté de raccourcir le
programme et de l'arrêter beaucoup plus tôt. Puis, en le travaillant, en modifiant peu à peu
le contenu, on a redressé la barre. C'est le bon exemple d'une mauvaise décision qu'on
aurait pu prendre et qu'on n'a pas été loin de prendre. Cela se joue souvent à peu de chose.
Il faut être prudent quand on décide d'arrêter très vite, mais en même temps, il faut
savoir prendre la décision parce que, quand on traîne semaine après semaine un programme
qui déçoit le public, c'est très lourd à porter. La décision est largement prise au doigt
mouillé. La mesure d'audience nous montre très bien ce qui s'est passé, elle ne nous dit pas
ce qu'il faudrait faire pour que cela marche. Après, on peut faire des études qualitatives,
mais c'est long, c'est compliqué et c'est aléatoire.
Il peut aussi arriver que l'on maintienne un programme décevant parce que, dans
l'immédiat, on n'a rien d'autre à mettre. Mais, quand on est en situation de catastrophe,
quand l'audience est vraiment un désastre, on est obligé de changer très vite. Il ne faut pas
oublier qu'un programme dont l'audience est défaillante est un programme qui repousse les
annonceurs et on a, dans le fonctionnement d'une chaîne comme la nôtre, l'obligation
d'avoir des recettes minimales. Et, de même qu'un directeur de théâtre qui ne remplit pas
sa salle, finit par arrêter la pièce qui lui fait perdre de l'argent tous les jours, il y a un moment
où l'on est obligé d'arrêter. On ne peut pas durablement perdre de l'argent.
Question: Une chaîne qui, comme TFl, attire en général une fraction importante des
téléspectateurs à l'écoute, peut-elle vraiment cibler son auditoire ?
fait qu'on vit plus longtemps, qu'on ait des enfants plus tard, pourrait amener à considérer
que la cible des moins de 50 ans n'est plus pertinente et y intégrer les moins de 55 ou de
60 ans. Mais c'est très compliqué de mettre toute la profession d'accord là-dessus. Le
problème aussi, c'est que si on veut des cibles homogènes, on va descendre à un niveau de
spécialisation tel qu'il n'y aura plus 25 cibles mais 350 et ce ne sera plus viable.
On peut d'ailleurs se poser la question si le ciblage par âge, par sexe, par catégorie
socio-professionnelle ou par habitat est le bon découpage de la population. En matière de
programmation télévisuelle, ce n'est pas évident. Les cibles correspondent aux catégories de
population auquel un annonceur s'intéresse. Celui qui vend des produits d'alimentation ou
d'entretien dans les supermarchés est intéressé par les foyers où il y a beaucoup d'enfants,
où l'on consomme beaucoup de yaourts, de biscuits et de produits d'entretiens. C'est assez
grossier, assez rustique. Mais une trop grande sophistication serait inutile. Il faut bien
comprendre que ce sont des outils d'aide à la décision des publicitaires et qu'il n'y a pas la
recherche d'une représentation absolument exacte de la société française.
Quels que soient les biais qui existent, la mesure d'audience télévision est celle qui
mesure le plus finement les comportements des individus, si on compare avec celle de la
radio, de la presse magazine. Ce qui n'empêche pas de la contester, de s'interroger sur la
pertinence des cibles, sur le comportement des panélistes. Ce qui n'empêche pas de rêver à
une mesure totalement passive où il n'y aurait plus l'obligation du bouton-poussoir. On
l'améliore déjà en faisant évoluer le panel pour suivre l'augmentation du nombre des foyers
qui reçoivent l'offre élargie, par câble ou satellite. En même temps, l'instrument doit garder
une certaine stabilité pour permettre la comparaison.
La courbe que l'on obtient avec le médiamat, qui mesure seconde après seconde l'écoute
de chaque chaîne, est d'une certaine manière abstraite, artificielle, puisqu'elle prend en
compte des départs et des arrivées. Un chiffre moyen de 10 millions de téléspectateurs, c'est
beaucoup plus complexe que cela paraît, c'est le produit de ceux qui sont arrivés, restés et
partis. C'est une moyenne des audiences instantanées, c'est-à-dire une totale abstraction. J'en
reviens toujours au malheureux qui s'est noyé dans la rivière qui faisant 0, 80 mètre de
profondeur moyenne mais qui est tombé sur un endroit où il y avait 3 mètres de fond.
La somme des données fournies par le médiamat est considérable, avec la courbe
détaillée sur 24 cibles. On est loin de les utiliser toutes. On fait un focus détaillé sur les
mouvements d'audience quand on a une nouvelle émission, ou une émission qui commence
à avoir de moins bons résultats, ou quand un nouveau programme arrive chez le concurrent,
ce n'est pas un instrument que l'on utilise de manière permanente et exhaustive.
Quand vous voyez la batterie de chiffres qui sont disponibles, tout ce que je peux savoir
sur le public des Veux de l'amour3 (chiffres par cibles, historique, etc. ), la somme colossale
d'informations, c'est totalement inutilisable. On l'utilise de façon assez rustique. C'est
seulement quand on cherche quelque chose, quand on voudra travailler sur les Feux de
l'amour, dont l'audience est déclinante, on pourra essayer de comprendre ce qui s'est passé
depuis deux ans, sur les femmes, sur les femmes de moins de 50 ans. Et là, on a un outil
statistique monstrueusement sophistiqué.
On fait aussi des études qualitatives sur les nouvelles émissions, sur les animateurs, sur
les publics. Et on utilise aussi ce qui est disponible sur le marché, comme les études du
Crédoc4. Quand une étude confirme ce que vous pensez, c'est rassurant. C'est utile pour
saisir des climats, des tendances un peu lourdes, mais cela s'arrête là. Cela ne détermine pas
ce qu'il convient de faire. Il y a un équilibre entre un certain nombre d'informations qu'on
recueille et ensuite, l'intuition, le produit de l'expérience. C'est un mélange de tout ça. C'est
quand même très artisanal.
Question: Est-ce qu'un des problèmes essentiels de TFl n'est pas le renouvellement de
la grille ? Ayant une forte obligation de résultat, n'êtes-vous pas contraints à minimiser la prise
de risque, ce qui est contradictoire avec l'innovation ?
sur la durée, il a tellement de cordes à son arc (théâtre, etc. ), il est très sollicité. Et le succès
repose sur lui. On ne peut pas se dire qu'on va démarrer avec lui, mais qu'il peut partir au
bout d'un moment. On n'arrivera pas à le faire sans Palmade, on a besoin de lui.
Je me suis fixé la règle, en tout cas aujourd'hui, selon laquelle toute émission qui est
mise à l'antenne a pour vocation première, et absolument prioritaire, d'obtenir un résultat
d'audience et donc, une recette de publicité. Que, par ailleurs, cette émission par sa nature
permette de faire des recettes supplémentaires (téléphone6, disques, droits dérivés divers),
très bien, je prends, cela fait de la marge supplémentaire. Mais je pense que le jour où on
déciderait de mettre à l'antenne une émission, d'abord pour les recettes supplémentaires
engendrées, on prendrait un risque absolument monstrueux. C'est une de mes
responsabilités de toujours dire: «Ne faisons jamais un programme en considérant qu'il va
produire des recettes diversifiées. » Cela n'empêche pas d'avoir la préoccupation de ce type
de recettes, mais sans que cela prenne la priorité. Si on inverse la priorité, on met le doigt
dans un engrenage fatal, et même suicidaire.
L'enjeu est double. Il y a d'abord le statut de la chaîne, qui fait qu'on n'abandonne pas
comme ça la Ligue des champions, qui partirait alors sur une chaîne concurrente. Même si
les résultats d'audience sont décevants depuis deux ou trois ans, ce n'est pas souhaitable.
Ensuite, on est aujourd'hui dans le creux de la vague, mais rien ne nous dit que, dans un an
ou deux, Lyon ou Marseille, ou même le PSG, n'aura pas une grande équipe européenne et,
tout-à-coup, cela ferait des audiences formidables. Quand on conjugue ces deux arguments,
et quand on ajoute que la Ligue des champions va changer de formule l'année prochaine,
avoir une formule beaucoup plus attrayante, cela nous amène à vouloir négocier pour la
garder. Mais c'est très cher, c'est trop cher par rapport à la recette, et donc on est prêt à
essayer de la garder à condition de la payer moins cher. C'est l'objet de la négociation
actuelle. On a réussi pour la Formule 1, on a diminué le prix de moitié; là aussi, il faut qu'on
parvienne à 30 ou 4 0 % de baisse, je ne suis pas sûr qu'on y arrivera. On ne peut pas
abandonner un produit comme ça, à cause du statut de la chaîne.
NOTES
1. L'émission de divertissement Les Niouzes, animée par Laurent RUQUIER, a été diffusée du lundi 28 août au
vendredi 1er septembre 1995, à 19h20. Sa part d'audience sur les téléspectateurs de 4 ans et plus est passée
de 23, 1 % le lundi à 17, 4 % le vendredi, à comparer avec la part d'audience globale de la chaîne qui était de
37, 3 % sur l'année 1995.
2. CSP Plus: regroupement des catégories socio-professionnelles supérieures, comprenant celle des artisans,
commerçants et chefs d'entreprise, celle des cadres et professions intellectuelles supérieures et celle des
professions intermédiaires, selon la nomenclature de l'INSEE.
3. Les Feux de l'amour: feuilleton nord-américain diffusé tous les jours de semaine sur TF1 à 14h 10.
4. Crédoc: Centre de recherche pour l'étude et l'observation des conditions de vie.
5. Un Gars, une fille et Caméra café sont des sitcoms (comédies de situation) d'un format nouveau (épisodes de
6/7 minutes), la première programmée vers 19h50 sur France 2 (depuis octobre 1999), et la seconde sur M6
vers 20 h 45 (depuis septembre 2001).
6. Les appels téléphoniques et SMS générés par certaines émissions comme Loft Story ou Star Academy, surtaxés,
donnent lieu à un partage des recettes entre l'opérateur téléphonique France Télécom, la chaîne et le
producteur.
7. Les œuvres cinématographiques diffusées par les chaînes de télévision doivent pour 6 0 % minimum être
originaires d'États membres de la CEE et pour 4 0 % minimum être d'expression originale française (EOF).
Étant donnée la faiblesse de la production des autres pays européens, cette règle revient pour les chaînes à
respecter un quota de presque 60 % de films français. Il existe par ailleurs un plafonnement du nombre de
films diffusés, avec notamment un maximum de 104 films diffusés entre 20h30 et 22h30.
Votre question est au centre de la complexité du service public. Elle est souvent posée
avec l'a priori pessimiste que qualité des programmes et force de l'audience s'excluent. En
fait, je la formulerais ainsi: «Est-ce que l'Etat actionnaire est préoccupé par la mesure
d'audience? Est-ce que les conseils d'administration sont préoccupés par le résultat
quantitatif des programmes de la télévision publique, soucieux du rendement social de
l'investissement?» Et je répondrais oui. Au fil des années, je n'ai pas connu de tutelle qui
ne fasse pas attention aux scores d'audience. Les tutelles publiques attendent de nous que
nous obtenions les meilleurs résultats quantitatifs et qualitatifs, eu égard à l'importance des
investissements publics dans le secteur. Cette décision n'est pas laissée au libre-arbitre des
directeurs des antennes. Il apparaît naturel que le gouvernement et les élus, principaux
responsables des chaînes publiques, représentants des citoyens, exigent de ces entreprises
qu'elles soient socialement rentables et, donc, que les programmes soient vus par le plus
grand nombre. Il n'y a pas de service public sans public. C'est une pression qui n'est pas
violente mais, quand l'audience d'une chaîne publique chute de manière sensible, les
premiers à s'en préoccuper, et légitimement, sont les tutelles et l'opinion publique.
L'audience est un critère important et il y a même une fierté des salariés de ces entreprises
à afficher de bons résultats: c'est la reconnaissance de ceux pour qui nous travaillons. Les
chaînes sont utiles quand elles font éclore les talents et l'importance du service se mesure
par la fréquentation.
Question: Etant donnée cette préoccupation de toucher le public le plus large possible,
qu'est-ce qui différencie une chaîne publique d'une chaîne commerciale ?
Les objectifs de l'Etat sont exprimés de façon explicite, à travers des cahiers des
missions et des charges qui sont la colonne vertébrale des chaînes publiques. Dans le
dispositif de régulation, s'est ajouté aujourd'hui un outil supplémentaire qui est le Contrat
d'Objectifs et de Moyens, plus précis dans les résultats à atteindre. La responsabilité des
patrons des chaînes les conduit à une lecture attentive de ces textes qui laissent une part
importante d'initiatives et d'interprétations. Ce ne sont pas des diktats. Ils communiquent
un état d'esprit, une ligne éditoriale, à charge pour les responsables des chaînes de s'en
imprégner et de concevoir grilles et programmes. Ils sont en général le produit d'une
concertation, parfois d'une négociation entre les dirigeants des chaînes publiques et les
services de l'Etat qui représentent les tutelles. Ces textes traduisent le point de vue des élus
sur le rôle de la télévision publique. Il peut être fait reproche à une émission ou à une autre
de ne pas refléter fidèlement l'esprit du texte mais globalement les grilles sont la mise en
musique de la partition juridique.
Les orientations de la 2, de la 3 et de la 5 sont complémentaires et on ne peut
comprendre le paysage audiovisuel public ou les choix éditoriaux de chaque chaîne
publique que si on considère la cohérence du tout. Les trois chaînes de France Télévisions
et Arte sont les pièces d'un même puzzle. Chacune doit occuper sa place et il ne faut pas
attendre de l'une ce que doit faire l'autre. On ne peut donc exiger les mêmes résultats
d'audience de chaînes dont les rôles sont parfois aussi différents, mais aucune n'est
exonérée du résultat optimal. Je crois que les résultats d'audience parfois très modestes de
certains programmes ne sont acceptables que parce que les émissions du groupe public
réunissent tous les jours 4 0 % des téléspectateurs. Cette consommation de masse est
essentielle à la bonne santé du secteur public.
En bref, pour construire les grilles, les responsables des chaînes publiques doivent
coller aux missions qui leur sont confiées, concevoir des programmes en complémentarité
avec ceux des autres chaînes publiques et, sur ces bases, rechercher la plus forte audience.
Le directeur de l'antenne est l'exécutant plus ou moins talentueux d'une volonté collective.
Question: A travers tout ce que vous dites, il apparaît que ce n'est pas le résultat
d'audience qui vous permet de choisir, d'arrêter telle émission, d'en essayer telle autre. Et en
même temps, vous insistez sur l'importance du résultat d'audience. N'y a-t-il pas là un
paradoxe ?
Je crois que ce métier est beaucoup plus difficile à exercer dans le public que dans le
privé. On gère des paradoxes. Il faut savoir faire danser l'eau avec le feu.
L'audience est une récompense, être vu par le plus grand nombre procure un sentiment
de jubilation. La programmation est un acte généreux, attentif aux autres. Il faut offrir. On
ne peut pas penser à la place du public, je déteste les formules qui donnent à croire que le
public serait une masse grégaire aux réactions répétitives et prévisibles et qu'un
programmateur serait la pythonisse électronique destinée à guider les décisions. Les
entreprises en général, et en particulier les entreprises de communication, pour s'épanouir,
doivent produire du sens. La gestion et la programmation peuvent souffrir des mêmes
symptômes, une sorte d'insuffisance respiratoire. Les ficelles, les trucs, les astuces de
programmation ne conduisent pas bien loin. Une grille besogneuse, roublarde ou
pusillanime évite parfois le pire, mais ne provoque pas le meilleur. Certains programmes
sont caricaturaux, c'est l'addition de pièges à audience; elle est parfois au rendez-vous, mais
ces émissions sont comme les malheureux clones de brebis, elles ne vivent pas longtemps.
En contrepartie de ce refus des recettes, il faut savoir digérer l'échec pour avoir le
courage de faire. C'est un métier de prise de risque et on ne peut pas rechercher l'audience
a priori sous peine de la faire fuir, le racolage passe rarement la rampe.
Si une grille doit être au service d'un projet ambitieux et lisible, elle nécessite aussi des
petits gestes régulateurs, des mesures de réajustements, des adaptations faites dans la
précipitation, une sorte de travail de marqueterie pour la finesse du geste et de plombier en
cas de fuite.
Par exemple, sur France 3 début 1994, nous avons bien sûr d'abord lu les textes qui
fixent la règle du jeu mais nous avons aussi pris en compte l'existence d'un important outil
technique de production et pour définir la relation particulière de la chaîne avec le public,
nous avons énoncé un couple de mots qui a ensuite fait florès: la proximité et la curiosité.
Dans son rôle d'accompagnement et de proximité culturelle et géographique, France 3
devait en effet développer une relation douce avec le public avec des liens affectifs forts. Il
apparaissait évident que des émissions tapageuses, comme l'élection de Miss France ou La
Classe, ne correspondaient pas à l'identité de la chaîne. Nous les avons arrêtées malgré les
inquiétudes de l'entourage qui craignait la disparition de ces deux gisements d'audience. Si
Miss France s'était trouvée sur France 2, j'aurais peut-être agi différemment, mais ce n'était
pas la couleur de France 3. En ce qui concerne La Classe, nous n'avions rien sous la main
pour remplacer l'émission. Nous avons donc programmé un dessin animé, pendant une
demi-saison. Il a obtenu un faible résultat. L'auditoire de ce type de programme est étroit
pour cet horaire. Mais le succès d'estime a compensé le problème d'audience. En effet, nous
avons remplacé une émission encore robuste en audience par une offre unique pour les
enfants. Ceux qui jouent aux échecs savent que le gambit, quand il marche, est une
manœuvre jubilaire.
Dans le même mouvement, nous avons lancé Un Siècle d'Écrivains, c'est-à-dire une série
documentaire de 260 épisodes d'une heure sur 5 ans. Nous pensions que, pour promouvoir
la lecture, il fallait faire aimer les écrivains et qu'en montrant la vie, on pourrait faire aimer
les livres. C'était une utopie un peu provocatrice, mais j'avoue que nous avions un espoir sur
le résultat de la programmation. Hélas, certains écrivains ont bien marché, beaucoup non.
Mais quel beau symbole pour France 3, la grande chaîne du documentaire ambitieux !
Nous avons aussi massivement renforcé l'offre de programmes pour la jeunesse,
spécialement à destination des tout-petits, ce qui a contribué à encore améliorer la qualité
de l'offre de la chaîne et, bien évidemment, à rajeunir son public.
La question de la fiction était aussi essentielle. France 3 n'apportait alors que des
investissements complémentaires. Il fallait qu'elle se fasse entendre, qu'elle ait sa propre
ligne de production. Nous avons donc annoncé que nous allions produire moins, mais que
nous produirions mieux. Les syndicats de producteurs ont accepté la proposition. Au lieu
d'émietter nos financements en seconde voire troisième position sur des téléfilms dont la
ligne éditoriale était conçue ailleurs, nous avons décidé d'investir avec plus de discernement,
en limitant le nombre de films financés et en donnant l'argent suffisant pour impulser de
nouveaux projets et permettre aux producteurs d'exercer leur savoir-faire dans de
meilleures conditions. Nous pouvions ainsi faire des choix et imposer nos orientations.
Comme France 3 dispose d'équipes de tournage en régions, nous avons imaginé une
nouvelle ligne de développement qui rassemblait nos préoccupations économiques et
éditoriales: «la fiction de terroir». Pas de flics, pas de gyrophares, mais des héros
provinciaux de la vie civile, dans les campagnes et les petites villes..., le succès a été tel
qu'aujourd'hui c'est devenu un running gag !
La grille de France 3 était un peu hypotonique, il fallait lui donner des couleurs et des
contrastes. On a fait aussi un travail d'horloger, une besogne d'artisan, en prenant des
décisions parfois sans grand prestige mais néanmoins efficaces sur le plan de la gestion
comme, par exemple, l'installation de deux Derrick le dimanche soir. La série européenne a
permis, à moindres frais, de doubler l'audience du dimanche soir et à la chaîne d'exister face
aux films de TFl et France 2. En renforçant l'image, la qualité des programmes, en veillant
à contrôler l'évolution des coûts de grille et en affirmant la personnalité de France 3, nous
avons, en 2 ans, provoqué la plus forte progression de son histoire, en passant de 14, 6 % de
part d'audience à 17, 7 %. Le résultat quantitatif a récompensé la volonté qualitative.
Une chaîne n'est pas un terrain vierge et ne se soumet pas à tous les projets. Elle est
corsetée dans un cadre légal, elle repose sur un gisement de public, elle dispose de structures
techniques spécifiques et ses équipes forment une personnalité collective. En bref, une chaîne
a une histoire qu'il faut connaître, aimer et respecter pour permettre un changement sans
déperdition. Il faut de l'humilité et une capacité d'écoute et d'enthousiasme. La marge de
manœuvre est essentiellement déterminée par l'existant. Il n'y a pas de génies providentiels.
Les dirigeants de TFl ont eu l'habileté de garder la chaîne, une fois privatisée, sur le gisement
de la télévision publique. Ils ont su positionner la, chaîne commerciale en valorisant son image
précédente. D'ailleurs l'origine du malaise de la société française à l'égard de France 2, est en
partie liée à ce trouble schizoide que jette TFl, privée-publique, dans le paysage national.
Pour France 2 aussi, la mission est claire. Il m'arrive de dire en plaisantant que la télévision
a deux fonctions essentielles: vider et remplir la tête. Il y a mille façons de purger et remplir qui
vont de l'élégant au crapuleux. Mais faire oublier, c'est un joli rôle, un beau métier, c'est la
fonction extatique de la télévision. Aider à faire voyager dans la tête, à oublier les soucis, les
tracas, à rire et à s'émouvoir. C'est tout le projet du spectacle. La télévision publique a un rôle
essentiel dans le domaine de la distraction, elle ne doit pas être confinée aux missions de service
ou aux tâches d'apprentissage. Elle ne peut être cantonnée à des fonctions subsidiaires, à faire
ce que le privé ne souhaite pas faire car il estime que certains types de programmes ne sont pas
rentables. Le divertissement, pour le plus grand bénéfice des téléspectateurs, doit être soumis
à la concurrence privé/public. C'est aussi dans cet affrontement que la télévision publique doit
manifester le plus de personnalité, d'inventivité et d'audace et c'est là que le métier public est
le plus dur à exercer car c'est là aussi que l'image est la plus floue et les critiques les plus
violentes. Il y a beaucoup à faire et il faut encourager la prise de risque et accepter l'échec ou
la transgression. Je suis convaincu qu'il n'y a pas de création sans transgression ni iconoclasme,
sans au moins bousculer les habitudes, les idées acquises.
France 2 remplit la tête quand elle nourrit l'opinion par les magazines, les débats ou les
rendez-vous d'information, elle divertit aussi, elle nourrit l'émotion et les rêves: L'Instit,
Napoléon, etc.
J'ai un jour entendu Umberto Ecco dire: «La télévision cultive ceux qui ont un métier
abrutissant, tant pis si elle abrutit ceux qui ont un métier cultivant. » J'adhère sans nuance
à ce propos.
J'ai été privé du confort des résultats de France 3 et parachuté à France 2 en
juillet 1996, à la demande du nouveau Président, dans une situation de crise car la chaîne
était en conflit avec ses animateurs producteurs. Il a fallu bâtir la grille dans des conditions
acrobatiques et faire en 6 semaines ce qui se fait d'habitude en un an. C'était de la chirurgie
de champs de bataille, je crois que nous avons préservé l'essentiel mais je n'ai connu à
France 2 que le temps de la cicatrisation.
Pour rester dans la métaphore médicale, il faut rappeler que c'est dans ces conditions
que nous avons programmé Urgences pour la première fois en première partie de soirée, il
y a maintenant 7 ans et ça dure encore aujourd'hui ! Les meilleures décisions sont parfois
celles qui n'ont pas le temps de mûrir.
D'ailleurs, à France 2 nous avons essentiellement travaillé sur la place de la fiction.
Notre équipe a pris des initiatives qui ont eu des bonheurs différents. Par exemple, la
programmation du Grand Bâtre le dimanche soir à la place du film a été un échec et a fait
couler un peu d'encre et des flots de salive. Je revendique par contre la victoire des
52 minutes. Le succès d'Urgences a contribué à me convaincre de l'intérêt de produire des
52 minutes pour la soirée, ce que ne faisait aucune chaîne française. Nous avons dû lutter
contre toutes les résistances, à l'extérieur comme à l'intérieur de la chaîne, pour imposer ces
nouveaux formats d'une heure.
Je ne pensais pas qu'une initiative qui m'apparaissait évidente puisse susciter de telles
passions. Pourtant, il était flagrant que la seule façon de donner de la force aux fictions
françaises dans ce format était de leur attribuer les moyens financiers accordés aux oeuvres
de premières parties de soirée. Jusque-là, les séries d'une heure n'étaient programmées
qu'aux alentours de 18 heures et ne jouissaient que du maigre budget alloué à ces tranches
horaires. La qualité de création s'en ressentait forcément. Il fallait donc avoir le courage de
limiter les formats de 90 ou 100 minutes hérités du cinéma pour recomposer des premières
parties de soirée plus souples basées sur des formats d'une heure.
Aujourd'hui, ces séries sont un des points forts de la grille de France 2, le public y est
plus jeune et plus important que sur les autres types de fiction. J'ai appris, ces jours-ci, que
les autres chaînes notamment privées s'étaient maintenant lancées dans l'aventure du
52 minutes de «prime time». C'est une bonne nouvelle pour l'industrie française des
programmes. En effet, de telles décisions peuvent apparaître secondaires, mais elles ont
pourtant des conséquences économiques et culturelles très importantes. Grâce à ce
chantier ouvert par France 2, les auteurs, les producteurs, les comédiens français ont pu
révéler leur compétence et nos séries longues en format d'une heure partent à
l'exportation.
L'étape suivante aurait été la programmation à 20h50 de séries courtes (26 minutes). Il
faut aussi donner aux sitcoms les moyens financiers qui permettent de faire appel aux
comédiens, aux réalisateurs les plus talentueux. La fiction a besoin de temps pour être
conçue, pour être tournée. Il faut pouvoir assumer le coût de l'expérimentation, des essais,
des pilotes, et favoriser l'émergence de nouveaux talents. Je crois qu'il faut pour ça se
rapprocher du monde du théâtre.
Une telle politique de création nécessite une forte capacité d'investissement. Seuls les
budgets de la première partie de soirée et l'importance du public à ces heures permettent
de soutenir le poids de l'effort.
Je n'ai pas pu franchir les obstacles et vaincre les résistances, je n'ai peut-être pas été
assez convaincant, j'ai un peu manqué de temps. La rotation des dirigeants des chaînes
publiques est un facteur d'affaiblissement. Les savoirs ne s'élaborent pas et ne se
transmettent pas. Ce sont des entreprises un peu amnésiques. Le successeur s'empresse
souvent d'effacer les traces du prédécesseur.
Je demeure persuadé que la télévision doit faire de la télévision, notamment en matière
de fiction. Il est urgent qu'elle arrête de singer le cinéma. Que chacun fasse son métier et
tout ira mieux. L'énergie principale de la télévision est dans «le direct» et dans le «à
suivre». C'est une force qui permet le pire et le meilleur. C'est d'un côté Loft Story, une
poignée de jeunes gens dont on suit l'ennui, en direct, et d'un autre côté 24 heures Chrono,
Friends, Un gars, une fille... Il est agaçant que les principales références de formats courts
soient encore américaines ou australiennes ou des formats exportés et revisités en France.
Pendant l'été 1997, nous avons programmé trois épisodes de Friends en première partie
de soirée. Nous avions envoyé une équipe aux Etats-Unis pour suivre les tournages et nous
avions, alors, consacré une soirée complète à la série. Le résultat était prometteur. Je regrette
de ne pas avoir pu poursuivre ce type d'expérience avec des talents français.
Les créateurs fourmillent d'idées, mais, pour leur donner corps, il faut faire de la place
dans les grilles et le plus difficile est souvent de savoir, ou pouvoir, arrêter une émission
existante. Cette difficulté conduit parfois à un immobilisme délétère. Les tensions
économiques ou égotiques sont parfois tellement violentes que la tentation de ne pas bouger
est permanente. Il faut aussi témoigner du respect à l'égard de ceux qui font ces métiers
fragiles et dont l'avenir dépend de la décision de la chaîne de faire ou pas une émission. La
vitalité des grilles et de la création est donc liée au courage du programmateur, à sa capacité
à résister aux pressions, à rompre avec les habitudes, les émissions trop longtemps installées
et les contrats répétitifs. C'est un métier dur, très dur.
Une grille qui marche bien est un piège potentiel. La trop longue stabilité provoque
paradoxalement des effondrements d'image et d'audience brutaux. Le dosage du
renouvellement est un art qui doit conjuguer intuitions et audace. En ce sens les
directeurs d'antenne sont aussi des créatifs qu'il faut agiter ! On est rarement intelligent
tout seul, la gestion d'une grille est un travail collectif, un échange et un mélange de
sensibilité.
À France 3, tous ces problèmes sont démultipliés car nous ne disposons que d'une
demi-chaîne. Les questions d'arrêt et de création de nouveaux programmes sont rapidement
insolubles.
Question: Vous raisonnez beaucoup en termes de cibles et, pourtant, la télévision n'(est-
elle pas un média grand public qui cible peu ?
Question: Feut-on imaginer qu'à terme, France 5 devienne un lieu d'innovation pour
les deux autres ?
LE CONFORMISME PROVISOIRE
DE LA PROGRAMMATION
Dès lors que la culture n'est pas produite par une institution en situation de monopole
et de pouvoir mais à travers les mécanismes du marché, le principal problème qui se pose
est de savoir ce qui intéresse les gens, ou, tout du moins, de savoir comment les intéresser.
S'agissant de la télévision généraliste, le débat oppose classiquement les défenseurs et les
dénonciateurs de «l'audimat», c'est-à-dire de l'introduction des mesures d'audience dans
les choix de programmation. D'un côté, l'audimat serait une entrave à la créativité des
professionnels et l'expression d'une «tyrannie de la majorité» sur la diversité des attentes
de publics eux-mêmes divers. D'un autre côté, l'audimat permettrait de remettre le public
réel de la télévision (plutôt familial, populaire et féminin) et ses goûts au centre d'une
programmation jusque-là monopolisée par les prétentions «populicultrices» de
professionnels et de «non-publics» (mais prescripteurs de bon goût culturel) de la
télévision.
L'objet de cet article est de montrer que l'audimat n'est pas la chose dont parlent à la
fois ceux qui le défendent et ceux qui le critiquent: d'un côté il ne représente pas le public
et ses goûts, d'un autre côté il n'est pas le facteur central et déterminant de la
programmation. Il est, bien au contraire, une des médiations parmi d'autres qui font de la
culture de masse l'expression d'un conformisme instable, lui-même à la fois nécessairement
l'objet d'une critique sociale généralisé et objet sociologique passionnante
L'audience n'est pas une «chose» qu'il s'agirait d'engranger, ni un «public» réel qu'il
suffirait de compter, elle est un construit qui désigne à la fois un processus relationnel
complexe entre les individus et la télévision, et la traduction simplifiée, standardisée et
abstraite de cette relation.
Si on se place du point de vue de «l'audience» mesurée par «l'audimat», il est tout à
fait juste d'en parler comme d'un opérateur de marché. En effet, à la différence des autres
industries, les chaînes de télévision ne vendent pas leurs produits aux consommateurs, mais
vendent leurs consommateurs aux annonceurs publicitaires, en proportion des «parts de
marché» que chaque chaîne occupe dans le partage de l'audience totale de la télévision.
Ceci étant, les mesures d'audience permettent-elles de savoir ce qui intéresse les gens qui
regardent la télévision afin de mieux organiser, voire de mieux «programmer» la réception ?
Rien n'est moins sûr, et il apparaît rapidement que si «l'audience» est un étalon de
transaction efficace sur le marché de l'industrie de la communication, elle est une source
d'information très approximative sur les modes de réception de la télévision. Comme nous
allons le montrer, le rapport entre «l'audience», telle qu'elle est construite par le système
médiatique, et les pratiques sociales « réelles » de la télévision est aussi lâche que le rapport
entre le cours en Bourse des titres d'une entreprise et la «réalité» matérielle,
organisationnelle et humaine de cette entreprise2.
Ce n'est pas ici la représentativité et la fiabilité de la mesure qui est en cause: on ne
connaît pas de pratique sociale qui soit autant mesurée, et dans les règles de l'art statistique,
que l'usage de la télévision. Cependant, pour les programmateurs, les indicateurs
d'audience ainsi collectés ne rendent pas nécessairement compte des «goûts» du public.
D'abord parce que l'audimat ne rend pas compte d'une «demande» d'émissions de
télévision, mais de préférences (sans qu'on sache si elles sont positives ou par défaut) au sein
d'une offre nécessairement limitée. Ce ne sont pas ainsi les «goûts» qui sont mesurés par
les «parts d'audience», mais la rencontre à un moment donné entre un volume limité
d'offre d'émissions, et les formes variables de disponibilité sociales et mentales des individus
du panel Médiamétrie qui se trouvent avoir leur poste allumé à ce moment précis. On peut
ainsi regarder des «bêtises» ou «s'autoriser à être con» sans que cela engage en quoi que
ce soit l'expression de «goûts» personnels, mais tout simplement parce qu'à ce moment
précis la télévision est la seule activité désirable en raison précisément de la licence et du
«relâchement» de l'esprit et des corps qu'elle accorde3. Bien souvent en effet, la télévision
est allumée sans être regardée, comme une radio (télévision de compagnie, automatisme
matinal), regardée en faisant autre chose (tâches domestiques, repas) ou bien regardée sans
intérêt pour ses contenus propres, mais parce qu'elle permet de «décompresser» et de se
C'est la raison pour laquelle l'analyse de la place de l'audimat dans les stratégies de
programmation doit distinguer ce qui ressort d'une logique de «marché» et ce qui ressort
d'une logique culturelle. À l'évidence, «l'audimat» est un élément central de la dimension
commerciale de la télévision, mais ces indicateurs, on l'a vu, ont peu à voir avec les «vrais
gens»: en d'autres termes, «l'audience» n'est pas le «public»7. C'est d'ailleurs bien la raison
La programmation de la télévision
est un conformisme provisoire
Le problème des industries culturelles est qu'elles sont confrontées, plus que les autres, à
un système de contraintes et de tensions9. Des tensions liées tout d'abord à l'instabilité de la
production de la culture de masse, première forme de culture collective produite non par une
institution mais à travers l'opérateur par nature instable qu'est le marché. Par ailleurs, la
prétention de la culture de masse à s'adresser au plus grand nombre l'expose à devoir prendre
en compte la diversité des populations et des publics hétérogènes qui constituent le «grand
public». Enfin, dernier élément de tension, l'incertitude dans laquelle les professionnels des
industries culturelles se trouvent concernant le succès de produits coûteux dans un régime de
concurrence élevé entre diffuseurs10. Les industries culturelles sont ainsi confrontées à une
situation paradoxale où, comme le souligne Edgar Morin, «le standard bénéficie du succès
passé» et où «l'original est le gage de succès nouveau», tandis que dans le même temps «le déjà
connu risque de lasser» et «le nouveau risque déplaire»11. C'est d'ailleurs cette instabilité de sa
production qui fait de la culture de masse l'objet d'une critique sociale permanente et
généralisée (et cette critique est d'autant plus forte et partagée qu'elle concerne le média de
masse le plus central: aujourd'hui la télévision, hier le cinéma et la radio): s'adressant
structurellement au plus grand nombre, elle ne satisfait nécessairement personne en particulier.
C'est pourquoi l'observation montre que la relation complexe qui s'établit entre
«l'offre» de programme de télévision et la «réceptivité» des individus se fonde moins sur
l'audimat que sur des «théories» du social et du rôle de médiation de la télévision, théories
développées par les programmateurs de chaque chaîne de télévision, qui tentent ainsi de
définir «ce qui intéresse les gens»: «les Français sont plus soucieux d'environnement»;
« nous passons de l'époque du strass à celle du stress »; « il existe un vieux fond gaulois de
la culture française»; «la télé-réalité, répond au besoin d'authenticité»... etc. L'objectif
étant de rassembler le plus de personnes autour de l'offre de programme proposée, la
programmation est ainsi avant tout le «pari» que telle offre télévisuelle rencontre une
sensibilité commune virtuelle au sein du public.
Pour réduire les risques de chacun de ces « paris » et pour fonder ces « théories », les
programmateurs de télévision rassemblent de nombreuses données les informant des
tendances socioculturelles générales et des tendances de consommation télévisuelle: articles
de presse, études marketing qualitatives, données socioculturelles quantitatives, enquêtes
sociologiques, succès d'outsiders dans l'édition, le cinéma, la télévision (dans le pays ou à
l'étranger), «ratissage» de l'ensemble des autres médias de masse (presse, radio, Internet),
NOTES
1. Je développe ici une partie des analyses présentées dans Eric MACÉ, «Qu'est-ce qu'une sociologie de la
télévision?», Réseaux, n° 104, 2000.
2. Sabine CHALVON-DEMERSAY, «La mesure du public. Approche généalogique de l'audience télévisuelle»,
Quaderni, n° 35, 1998.
3. Véronique LE GOAZIOU, «Le corps des téléspectateurs», Réseaux, n° 92-93, 1999.
4. James LULL, Inside Family Vieving, Londres, Routledge, 1990; D. GAUNTLETT, A. HILL, TV Living, Londres,
Routledge, 1999; Josiane JOUET, Dominique PASQUIER «Les jeunes et la culture de l'écran», Réseaux, n° 92-
93, 1999.
5. Rapporté dans Eve CHAMARD, Alain KIEFFER, La Télé. Dix ans d'histoires secrètes, Paris, Flammarion, 1992,
p. 459.
6. Sabine CHALVON-DEMERSAY, Paul-André ROSENTAL, «Une démographie des comportements volatils?»,
Quaderni, n° 35, 1998.
7. Ien ANG, Living Room Wars, Londres, Routledge, 1996.
8. Dominique PASQUIER, «Une télévision sur mesure», Réseaux, n° 39, 1990.
9. Éric MACÉ, «Éléments d'une sociologie contemporaine de la culture de masse», Hermès, n° 31, 2001.
10. Comme le souligne David HESMONDHALG, The Cultural Industries, Londres, Sage, 2002, p. 19, citant des
producteurs qui décrivent de façon imagée leur méthode pour compenser les risques des « paris » que sont
chaque lancement de nouveau produit de la culture de masse: il s'agit de «balancer la sauce sur le mur et
attendre de voir ce qui reste collé» (throwing mug against the wall and seing what stiks).
11. Edgar MORIN, L'Esprit du temps, 1, Névrose, Paris, Grasset, 1975, p. 35.
12. D'où le titre de Ien ANG, Desperately Seeking the Audience, Londres, Routledge, 1991.
13. Michel SOUCHON, «Les programmateurs et leurs représentations du public», Réseaux, n° 39, 1990.
14. Michel SOUCHON, «L'apport des méthodes quantitatives à la connaissance du public de la télévision»,
Hermès, n° 11-12, 1993.
15. Nathalie COSTE-CERDAN, Alain LE DIBERDER, La Télévision, Paris, La Découverte, 1986, p. 73.
16. Éric MACÉ, «La télévision du pauvre», Hermès, n° 11-12, 1993.
17. Cité par P. PEAN, C. NICK, op. cit., p. 478.
18. Todd GITLIN, Inside Prime Time, Berkeley, University of California Press, 1983.
19. François JOST, «La promesse des genres», Réseaux, n° 81, 1997.
20. Eric MACÉ, «Sociologie de la culture de masse: avatars du social et vertigo de la méthode», Cahiers
internationaux de sociologie, vol. CXII, 2002.
RÉFÉRENCES BIBLIOGRAPHIQUES
Ce n'est pas un hasard si, très vite après l'instauration de la mesure d'audience par le
dispositif dit de «l'audimat», certains journalistes de télévision ont été amenés à parler de
la «dictature de l'audimat» qui, selon eux, pèserait désormais sur les programmes. La
métaphore politique, en raison même du succès qu'elle a immédiatement remporté, doit
être prise au sérieux car, contrairement à ce qui a été très largement perçu à l'époque,
l'instauration de ce système de mesure de l'audience en continu, inspiré par et pour les
publicitaires, loin de signifier la fin de la censure politique sur l'audiovisuel et sur
l'information, a marqué en fait une politisation accrue quoique masquée. Il est, en effet, très
superficiel de penser que l'audimat aurait marqué l'avènement du téléspectateur-
consommateur pouvant désormais choisir librement de regarder ce qu'il souhaite regarder.
Cette vision, qui semble faire du marché économique l'arbitre des choix en matière de
programmation, occulte le fait que la mise en place de l'audimat, en 1982, qui s'inscrivait
dans une transformation qui était déjà largement engagée a cependant marqué une rupture
majeure dans le fonctionnement même du média télévision. La logique économique qui a
progressivement investi ce média et la concurrence pour l'audience entre les chaînes
avaient en commun d'être un regard sur les audiences passées (plus exactement sur les
comportements déclarés). La multiplication des écrans de publicité, le fait qu'ils s'insèrent
progressivement avant et après toutes les émissions, la négociation avec les régies
publicitaires pour fixer, pour chaque spot, un tarif qui est fonction de l'audience générée par
l'émission ont conduit les publicitaires à s'intéresser aux audiences qu'ils souhaitent
connaître à la fois le plus rapidement possible et le plus exactement possible. C'est eux qui
veulent mettre au point un instrument de mesure qui permettra de constater le plus
rapidement et le plus objectivement possible, émission par émission, minute par minute, les
audiences afin de disposer d'une base indiscutable pour fixer les tarifs et pour affiner leurs
stratégies de diffusion des spots (choisir en fonction des publics et des audiences). Or,
l'audimat, qui est la technologie adaptée à cette attente, s'apparente à une sorte de
referendum permanent sur les programmes et exerce, du même coup, un puissant effet de
verdict, à la fois techniquement et politiquement parce que scientifiquement constaté et
surtout parce qu'il s'agit d'un verdict «objectif» au sens de «collectif» et «anonyme» par
opposition à «individuel» et à «subjectif». Les courbes d'audience sont analysées en détail
tous les jours par l'ensemble des professionnels intéressés à l'économie de la télévision, qu'il
s'agisse des annonceurs qui veulent rentabiliser au mieux leurs investissements publicitaires,
des responsables des régies qui veulent remplir leurs écrans publicitaires, des
programmateurs des chaînes qui cherchent à tout moment le programme qui rassemblera le
public maximum et des producteurs qui recherchent des recettes afin de financer leurs
émissions. Tous ces professionnels sont pris dans la logique de la recherche du programme
«qui cartonne», «qui nique la concurrence» et savent par expérience le type d'émission qui
attire ou, à l'inverse, risque de faire fuir le «grand public» (c'est-à-dire en fait le public
populaire qui est le public majoritaire sur lequel se concentrent les stratégies de captation)
et même, à l'intérieur de chaque émission, ce qui entraîne un relâchement de l'intérêt (tel
chanteur, tel type de débat, etc. ). L'audimat conduit, comme les cotes de popularité et les
sondages préélectoraux en politique, à fixer l'attention sociale moins sur les contenus que
sur les courbes qui deviennent une fin en soi.
S'il est vrai que le téléspectateur dispose, en regardant certains programmes, d'une
sorte de droit de vote permanent étant donné l'économie générale de ce média, on ne peut
que suivre Michel Souchon lorsqu'il remarque qu'il s'agit d'une sorte de droit de vote
censitaire à l'envers puisque, étant donné le type de programme qui est diffusé sur la quasi-
totalité des chaînes, les milieux populaires qui sont de gros consommateurs de télévision,
«votent» ainsi quatre à cinq fois plus que les autres milieux sociaux.
Ainsi, paradoxalement, la télévision s'est en réalité politisée plus encore que par le passé
lorsque le parti au pouvoir entendait contrôler étroitement les programmes, veillant
directement à la «bonne moralité» des programmes. ainsi qu'aux prises de position
politiques qui pouvaient s'exprimer. Le fait que le pouvoir ait dû progressivement renoncer
à son rôle de censeur pointilleux n'a pas signifié le retrait du politique mais seulement
l'instauration d'une forme plus démocratique de contrôle politique. En dépit du sentiment
- aussi indiscutable qu'éphémère - de libération éprouvé par la plupart des journalistes de
télévision qui se sont retrouvés à l'abri des pressions exercées directement par le pouvoir
politique en place et qui même ont pu à leur tour s'imposer aux hommes politiques, la
télévision est en réalité quasi totalement investie par la logique politique. L'absence de
contraintes politiques ouvertes ne signifie pas l'absence de toutes contraintes. Les
contraintes politiques ont simplement pris la forme d'impératifs économiques symbolisés
entre autres par le rappel à l'ordre que représente l'affichage quotidien, dans les locaux des
chaînes, des «scores» des émissions de la veille. Forme transfigurée et euphémisée du
pouvoir politique, le pouvoir économique est en fait beaucoup plus efficace puisqu'il passe
par les mécanismes anonymes du marché et met, dans la tête même de chaque producteur
de télévision, actuel ou potentiel, comme principe régulateur et comme critère de jugement
dominant qui mesure la valeur de tout programme, le nombre de téléspectateurs qui le
regardent. Ceux qui ne sont pas capables de «faire de l'audience» sont d'emblée exclus, ou
mieux s'excluent eux-mêmes. Aujourd'hui, c'est toute l'entreprise de production de biens
culturels qui tend à être soumise à la «loi de la majorité» d'une population en fait
politiquement définie.
Les producteurs culturels de ces médias grand public sont placés dans une position
proche de celle qu'occupent les hommes politiques, les présentateurs sollicitant en
permanence les suffrages des téléspectateurs. La politisation du champ de production des
biens culturels réside moins dans la décision - politique - de placer l'ensemble de la
télévision dans une logique commerciale3 que dans le libéralisme économique qui impose et
traduit indissociablement une vision politique du monde social qui est située aux antipodes
de la logique du champ de production des biens culturels.
Lire, comme on tend à le faire aujourd'hui, le jeu politique démocratique à travers les
concepts de l'économie capitaliste (on parle d'«offre», de «demande» et de «marché»
politiques), c'est, par une inversion faussement éclairante, encourager une naturalisation du
champ politique derrière les mécanismes collectifs et anonymes de l'économie de marché
sans voir que cette économie-là repose précisément sur la philosophie politique qu'elle
prétend analyser4. S'il n'est donc pas faux de dire que la recherche de l'audience obéit à une
logique proprement économique, il convient d'ajouter qu'elle n'est si bien acceptée par
ceux qui font les programmes que parce qu'elle s'accorde plus ou moins inconsciemment
avec une vision politique implicite, c'est-à-dire avec une représentation politique du public:
la télévision est globalement perçue comme instrument de « démocratisation » qui doit donc
«démocratiquement» plaire au plus grand nombre possible de téléspectateurs, cette
représentation étant de surcroît en affinité avec le fonctionnement économique de ce média.
Comme le livre ou le cinéma, la télévision n'est en soi qu'un moyen de diffusion qui aurait
à s'imposer, même dans les espaces sociaux qui, historiquement, se sont constitués contre
l'opinion commune ou ordinaire8, le critère de qualité intrinsèque de ce type d'émissions,
qui prête nécessairement à discussion étant donnée la dispersion culturelle du public, étant
remplacé comme en politique, par un critère statistique apparemment plus simple à mesurer
et surtout plus en affinité avec la logique économico-politique qui a investi ces médias.
Au-delà de cet univers culturel dominé par les sondages d'audience, la logique du
nombre tend ainsi à devenir un principe de jugement universel: ceux qui critiquent la
chaîne Arte dénoncent en réalité une certaine culture en se fondant principalement sur les
indices d'audience, jugés ridiculement faibles par rapport à ceux des chaînes populaires
(bien qu'ils soient en réalité très élevés par rapport aux programmes diffusés) et sur le
supposé caractère abscons et ennuyeux des émissions9.
NOTES
1. Sur l'usage des sondages dans les débats politiques à la télévision, voir P. CHAMPAGNE, « Qui a gagné ? Analyse
interne et analyse externe des débats politiques à la télévision», Mots, n° 20, septembre 1989, p. 5-22.
2. Deux vagues d'enquêtes étaient réalisées chaque année auprès d'échantillons de population très importants,
3. Plutôt que, comme c'est le cas par exemple pour la recherche fondamentale ou la musique contemporaine ou
encore la radio publique par exemple, dans une logique de mécénat public.
4. J. SCHUMPETER, qui fut l'un des premiers à mettre systématiquement en relation les systèmes politique et
économique, comparait de façon plus juste la logique économique de marché à la logique démocratique, l'acte
d'achat étant considéré comme un vote (et non l'inverse). Voir notamment Capitalisme, socialisme, et
démocratie, Paris, Payot (première édition en anglais en 1942).
5. Cela ne signifie pas que les chaînes privées soient gratuites pour le téléspectateur: il les paie, de façon moins
visible qu'avec la redevance, en tant que consommateur à travers la publicité qui est intégrée dans le prix des
produits.
6. C'est une philosophie analogue qui est au principe de tous les palmarès par sondage que font réaliser les
journaux. Voir P. Bourdieu, «Le hit-parade des intellectuels français, ou qui sera juge de la légitimité des
juges ?», Actes de la recherche en sciences sociales, n° 52-53, juin 1984, p. 95-100.
7. Gustave FLAUBERT, Correspondance, II, Paris, Gallimard, Bibliothèque de la Pléiade, 1980, p. 90.
8. Notamment le champ intellectuel. Sur ce point, voir P. BOURDIEU, Les Règles de l'art, Paris, Le Seuil, 1992.
9. L'audimat a pour objectif de compter le nombre de gens qui sont susceptibles de voir les spots publicitaires
(pour en fixer les tarifs) plus que les émissions elles-mêmes. Or, la qualité d'une émission peut la rendre re-
diffusable, ce qui peut faire à moyen terme une audience cumulée bien supérieure à celle des émissions très
liées à l'actualité, sans grande valeur interne, qui peuvent faire en une seule fois une forte audience (la seule
qui est prise en compte et publiée) mais ne sont guère rediffusables. Or, la logique économique tend à ne
(re)connaître que les produits à rendement immédiat.
Valérie Patrin-Leclère
Université de Paris 4 Sorbonne,
Ecole des hautes études en sciences de l'information
et de la communication (Celsa)
Laboratoire langages, logiques, informatique,
communication, cognition (LaLICC), CNRS
Tout n'a-t-il pas été dit sur Loft Story? L'arrivée en France de la «télévision du réel» 1
a suscité une avalanche de commentaires: n'y avait-il pas là une rupture dans la télévision
nationale, un bouleversement des règles ?
Pour répondre à cette question, on peut scruter la signification sociale de l'émission,
par exemple son rapport emblématique ou caricatural avec la culture des jeunes. Nous ne
prendrons pas ici position dans ce débat. Notre point de vue est différent, il concerne la
mise en place d'un programme télévisuel particulier, en rapport avec ses conditions
d'évaluation et de succès économiques. De ce point de vue, nous ne considérons pas cette
émission comme une rupture, mais comme l'aboutissement d'un système fondé sur la mesure
de l'audience2, un système dont les concepteurs de Loft Story (désormais: LS) ont tiré toutes
les conséquences. C'est ce qui fait de ce programme un objet d'analyse révélateur à l'égard
des évolutions actuelles de la télévision.
Quand les diffuseurs parlent d'audience, ils cultivent une ambiguïté bien commode: un
bon résultat d'audience serait la preuve que la chaîne a su offrir aux téléspectateurs le
programme qui leur plaît, voire la garantie qu'une mission de service public a été accomplie.
Argument séduisant mais trompeur. Il est plus glorieux de faire passer les résultats
d'audience pour un indice de satisfaction des téléspectateurs que pour des mesures de la
pression publicitaire; ce qu'ils sont en réalité, dans une logique économique qui ne
s'encombre guère de quelque mission que ce soit.
Dès lors qu'une chaîne de télévision dépend des revenus publicitaires, sa politique de
programmation vise des consommateurs susceptibles d'intéresser les annonceurs.
L'« audience »3 est un concept inventé dans ce cadre par et pour les professionnels de la
publicité sur un marché dans lequel les prix dépendent du nombre et des caractéristiques
socio-économiques des personnes touchées mais aussi de la capacité qu'a le média-support
de prouver son aptitude à valoriser les messages. Dans cette logique, la satisfaction du
public est un moyen et non une fin. Comme on va le voir, le lien entre satisfaction et
audience est conjoncturel et non nécessaire.
C'est à cet égard que LS offre un terrain d'analyse passionnant. En effet, c'est un
produit audimétrique «parfait». Un cas d'école. Tout à la fois symbole et symptôme:
symbole d'une stratégie audimétrique inédite dans son parachèvement et symptôme du
régime dans lequel s'inscrivent la plupart des chaînes de télévision. Tout y est conçu pour
maximiser l'audience -télévisuelle (toucher le plus de téléspectateurs possible) et l'optimiser
(vendre cher l'espace publicitaire à beaucoup d'annonceurs).
Maximisation de l'audience
Optimisation de l'audience
LS est donc une machine à produire de l'audience. Mais, pour ce faire, il ne suffit pas de
filmer tout simplement «X célibataires dans un loft de Y m2 avec Ζ caméras 7 jours sur 7 »11.
Cette promesse crée l'événement; mais elle masque un dispositif très élaboré. Voir en LS
une télévision introvertie, dans un espace clos, ne résiste pas à l'examen. LS n'est pas
centripète mais centrifuge. La promesse (« deux heures de direct pour savoir ce qui se passe
dans le Loft, ça commence tout de suite») n'est que le premier ingrédient d'un programme
fait de bandes-annonces, de plateaux, de reportages, de micro-trottoirs.
L'émission brasse toutes les formes du commentaire, de la reprise, de la critique. C'est
logique: au pays de l'audimétrie, - et + s'additionnent. Les jugements, les postures et les
valeurs les plus différents se multiplient et se croisent, des plus favorables aux plus
dépréciatifs. La satisfaction et l'insatisfaction s'ajoutent, l'éloge et le blâme s'additionnent,
comme s'additionnent le spectateur qui apprécie, celui qui dénigre, celui qui ironise, celui
qui polémique. Pourvu qu'il regarde, chacun compte pour un.
C'est pourquoi la chaîne a fabriqué un objet polymorphe, condensant tous les
ingrédients de la télévision occidentale contemporaine, sans offrir l'innovation dont elle
s'est pourtant prévalue. LS cumule tous les formats télévisuels: feuilleton (rendez-vous
quotidiens scénarisés), sitcom (saynètes-cultes rediffusées), documentaire (sujets «pris sur le
vif»), talk-show (ex-lofteurs invités sur le plateau), débat de société (discussions-débats
amorcées par le psychiatre et la psychologue), jeu (votes des lofteurs et des téléspectateurs
pour éliminer un concurrent), et même roman-photo (images légendées). LS reprend les
trois « genres » traditionnels: fiction, information et divertissement. Enfin, LS est en parfaite
adéquation avec les modes de la TV contemporaine: direct, interactivité, authenticité,
dévoilement de l'intimité par l'image et par le discours. À l'arrivée, LS est donc à la fois
inclassable et archétypique12.
Il y a plus. L'émission est une machine de lancement et de dissémination des
commentaires. Elle organise la circulation incessante entre trois pôles: le pouvoir scopique
de la caméra (loft), le discours de la télévision sur elle-même (plateau) et l'influence sociale
des médias (sujets tournés sur tout le territoire). D'où les paradoxes de l'intériorité et de
l'extériorité: on entre dans l'univers médiatique en sortant du loft, scénario orchestré par
des êtres du dedans-dehors (animateurs, psys, anciens lofteurs) et théâtralisé par une logique
de sas.
Ces entrées et sorties imposent une mimésis du commentaire: l'émission est un
dictionnaire de conversation, un Bouvard et Pécuchet télévisuel. Tous les types d'acteurs,
toutes les situations de discours, tous les thèmes discutables entrent dans le dispositif
télévisuel, appareil à capturer et à rediffuser les matières à parler. Les «lofteurs» enfermés
anticipent le jugement de leurs actes; libérés, ils le commentent. Le programme atteste
l'existence d'une traînée de poudre communicationnelle dont il est en réalité le créateur.
Enfin, le vrai casting de l'émission est celui des acteurs du dialogue social: parents,
intellectuels, psys, experts (les anciens lofteurs), vrais jeunes, etc. Ce qui autorise les
interventions incessantes sur le même thème: parlez-en. «Loft Story est l'occasion d'entamer
de nouveaux débats entre amis et en famille, alors n'hésitez pas» 13 . C'est la «spirale de la
parole», enserrant les lofteurs, les invités, les familles, les producteurs médiatiques,
l'animateur, réactivant inlassablement le contrat énonciatif à travers annonces, génériques
réitérés et détournés, relances. LS est moins un lieu de discussion qu'un espace de
manipulation de l'expression, d'accumulation des postures et points de vue.
Pour permettre la prolifération des commentaires, il est nécessaire avant tout de retenir
l'attention des médias d'actualité. Ainsi un simple programme télévisuel peut-il se muer en
événement d'actualité. Les annonces, événements, provocations de M6 ainsi que le système
des fuites et révélations progressivement distillées ont permis de capter d'emblée l'attention
du journalisme d'actualité. Le ressort utilisé, c'est l'exploitation de la logique économique
propre à ces médias, qui est celle de la concurrence. Le bon journaliste d'actualité se doit
de parler de ce qui préoccupe les Français et de faire réagir les acteurs de la société civile
sur un problème qui prend du relief. Le risque essentiel consiste donc à ne pas parler de ce
dont les concurrents parlent, ou encore à en parler trop tard. On voit bien comment, pour
ne pas courir ce risque, les médias se sont tous retrouvés à promouvoir un programme en
événement social, ce qui libère le débat critique.
pré-formaté par les concepteurs de l'émission eux-mêmes et par les « intellectuels » qui se
sont empressés de mettre en mots les différents points de vue critiques adoptables
(«voyeurisme», «poujadisme intellectuel», «crise de la pensée», «spectacle totalitaire»,
«monde concentrationnaire», «monde répressif», «exhibitionnisme», «violence»,
«perversité»... et à l'autre pôle «modèle d'intégration», «création de lien social»,
«portrait collectif d'une génération», etc. ). Épiscopat, Medef14, hommes politiques,
chercheurs, tous les représentants de la société française y sont allés de leur petite saillie...
apportant du même coup de l'eau au moulin audimétrique et donc économique de M6.
Ces phénomènes sont peut-être le signe d'une tendance lourde qui ne concerne pas la
seule télévision. Toute la stratégie décrite ici témoigne d'une prise en compte plus
méthodique du fait qu'on est sorti du système de la critique, dans lequel le succès dépend
de discours promotionnels sur les productions culturelles, pour entrer dans celui de la
mesure d'audience, travail purement quantitatif sur l'exposition au média.
«Faire de l'audience» est avec LS une réalité ouvertement distincte de «plaire aux
téléspectateurs». L'argument habituel de la télévision commerciale («nous offrons aux
téléspectateurs ce qu'ils aiment ») ne vaut plus: M6 a offert aux téléspectateurs non pas ce
qu'ils aiment, mais au contraire ce que beaucoup se disaient près de détester. Autrement dit,
nous avons affaire là encore à une forme aboutie de la logique économique: la chaîne offre
non ce que les clients aiment mais ce que les clients regardent.
On peut aller plus loin. Des Illusions perdues aux Cahiers de la Quinzaine, on a
combattu pendant un siècle la «littérature industrielle», système dénoncé dans le champ
artistique, philosophique, musical comme une «Foire sur la place»15. On a pu penser que
le fait d'acheter ou de circonvenir les critiques afin de convaincre le public était le «stade
suprême» d'une industrialisation de la culture.
LS montre qu'il n'en est rien. Ce programme met en question un modèle de réussite
télévisuelle. Dans le modèle «classique», il s'agissait de réunir la meilleure audience
commerciale possible en proposant aux téléspectateurs un produit télévisuel qui les
satisfaisait, dans le but implicite de maximiser les recettes publicitaires. Dans ce qu'on
pourrait nommer le «modèle LS», on réunit la meilleure audience commerciale possible en
proposant aux téléspectateurs un produit télévisuel incontournable parce qu'il fait parler de
lui - notamment parce qu'il prête le flanc à la suspicion et à la dénonciation - dans le but à
peine caché et même revendiqué de maximiser les recettes publicitaires16.
Le signe le plus sûr de ce changement - qui manifeste de la part de M6 une intelligence
des logiques actuelles des industries de la culture - est le statut conféré aux «bruits». Loin
d'être des parasites, ils sont initiés et orchestrés par la production elle-même. Celle-ci
organise des rumeurs, des scoops, des vrais-faux dérapages et trucages, etc., abondamment
commentés dans la presse TV (ainsi des couvertures de Télé Star du type «Loana et Jean-
Edouard: vrais ou faux inconnus?» ou «Coup de foudre ou coup de bluff?») mais aussi
dans la presse d'information généraliste recyclée un temps dans le scandale (Le Parisien,
France Soir, Le Monde, Libération, etc. ). Le principe est simple: faire parler de LS en
suscitant le doute sur la vérité de la procédure (les producteurs ne cessant de manifester leur
irrespect des règles qu'ils ont eux-mêmes instituées) et en nourrissant de nombreuses
polémiques (par exemple en ne payant les lofteurs que 2 euros (13 F)/heure).
La critique à contre-emploi
par les annonceurs. Bref, ils ont participé à la production du programme, en conférant du
sens à une entreprise économique et en lui donnant la dimension d'un débat public23.
L'œil de M6 omniprésent
L'utilisation du logotype dans les médias est un indice flagrant du piège dans lequel
sont tombés beaucoup de ceux qui ont voulu faire entendre une voix critique. L'«œil» du
Loft a été massivement repris dans les médias, avec les codes-couleurs qui l'accompagnent.
Alors qu'habituellement un logotype est jalousement gardé par son propriétaire, ici il a
manifestement été gracieusement distribué... Ce qui a donné lieu à des paradoxes, comme
celui de, Marianne, dénonçant le fait que la France soit prise « en otage dans un bunker de
225 m 2 » 24 et livrant dans le même temps les indices visuels de sa propre sujétion, avec en
couverture les couleurs bleu et orange de l'émission et pas moins de 22 reprises du
logotype...
Pourquoi les médias ont-ils repris ainsi les marqueurs sémiotiques de Loft Story ? Sans
doute parce que l'œil choisi comme logo par M6 fait référence au Big Brother de 1984,
symbole de la terreur, du haïssable. M6 a choisi pour son émission un anti-logo, une contre-
publicité: la chaîne a fait d'un symbole du détestable son image de marque et un objet
d'adoration. D'où l'ambivalence des reprises: les médias critiques l'ont repris au nom de son
signifié «absolu» (hors-contexte LS), alors qu'en contexte (sur le marché médiatique) ils ne
faisaient que rendre service au programme stigmatisé. De l'espace des couvertures à
l'économie visuelle des kiosques à journaux, l'occupation du champ visuel par la signature
de LS a fait des critiques des partenaires économiques malgré eux - est-ce vraiment malgré
eux d'ailleurs, puisque les ventes ont connu une hausse non négligeable pendant la période
de diffusion du Loft ?
De l'instrumentalisation de la critique
à l'industrialisation de la trivialité
(ce qui est en jeu, c'est bien le rapport entre logiques communicationnelles et logiques
financières). À cet égard, plusieurs perspectives s'offrent à nous. La première consiste à
mettre LS en rapport avec un phénomène médiatique plus général, la montée d'une
«logistique de la trivialité» dont on a vu beaucoup de formes récemment. Les médias y
apparaissent comme producteurs, moins d'un discours sur le monde que d'un dispositif de
réactivation incessante du commentaire affectionnant, non le débat, mais la querelle. Pour
le dynamisme médiatique d'un tel dispositif, plus la question est porteuse de malentendus,
plus les commentaires prolifèrent25.
C'est peut-être l'un des aspects qui rassemblent le plus profondément - au plan des
logiques de dispositifs plus que de telle ou telle technologie - les dynamiques de la
télécommunication, celles de la presse et celles de l'audiovisuel. Dressant quelques
perspectives d'observation et d'analyse des «industries du contenu», Bernard Miège
souligne la complexité des rapports qui unissent aujourd'hui les industries de programme
proprement dites et la confection de dispositifs destinés à permettre l'activité
communicationnelle. Ces derniers visent à développer des potentialités de communication,
attendant des acteurs sociaux qu'ils les investissent et leur donnent toute leur rentabilité26.
Ce à quoi nous assistons, avec LS, c'est à une forme d'articulation très particulière de ces
deux logiques. L'entreprise médiatique crée des programmes en même temps que des
structures et des formes que les acteurs remplissent de leurs propres productions
communicationnelles. À cet égard, LS s'apparente d'une certaine façon à la série
messageries, forums, libre antenne, etc. La chaîne ne choisit pas entre média de programme
et média de relation, mais systématise une logistique de l'interdépendance entre ces deux
dimensions du travail médiatique. D'où la place tout à fait nouvelle occupée par la critique,
et plus généralement le débat, dans l'économie télévisuelle.
Enfin, la réflexion ici amorcée pourrait contribuer à «décrisper» quelque peu le débat
théorique au sein de la sociologie des médias. Il est très difficile de sortir d'une position du
problème qui obligerait à choisir entre des industries culturelles comprises comme
asservissement des esprits et une liberté souveraine du «récepteur». L'expérience de LS
suggère la solution imaginée par le capitalisme pour dépasser cette alternative: celui-ci n'a
nullement besoin de contrôler les jugements pour étendre sa capacité à industrialiser le
champ culturel. Il lui suffit d'assurer une industrialisation de la réception, ou plus
exactement de la trivialité. Du point de vue des experts de l'audience, quelle que soit la
posture du récepteur, qu'il collabore, dénonce ou négocie le code, pour reprendre les
termes de Stuart Hall27, tout est bon. Everything goes.
NOTES
1. Terminologie évidemment idéologique (Jost, François, La Télévision du quotidien: entre réalité et fiction, INA
De Boeck, 2001).
2. Système qui s'est généralisé avec la domination de la télévision commerciale, déclenchée en France par la
privatisation de TFl en 1987.
3 II ne faut donc pas considérer comme synonymiques les expressions «l'audience d'une émission» et
«l'ensemble de ses téléspectateurs». C'est vrai pour tous les médias de masse: l'audience d'une émission de
radio, ce n'est pas la même chose que son auditoire; l'audience d'un titre de presse, ce n'est pas la même chose
que son lectorat. Ce n'est pas la même chose... alors que dans l'usage les concepts sont employés
indifféremment, sous prétexte que «l'ensemble des consommateurs» désigne les mêmes individus que
«l'ensemble des téléspectateurs», «des auditeurs» ou «des lecteurs»...
4. Émission quotidienne à 18 heures du 26 avril 2001 au 20 mai 2001, puis à 19 heures du 21 mai 2001 au 5 juillet
2001 et «best-of» de quelques minutes tous les jours à 20 h 45.
5. Chaque jeudi à 20 h 45.
6. «Loft Story prenant la succession du traditionnel film du jeudi limité par la loi à une seule interruption
publicitaire, M6 a pu insérer un écran de coupure supplémentaire et augmenter ainsi son temps de diffusion
publicitaire du jeudi soir sur la tranche 20h50-23h30. La conjugaison de la hausse des tarifs et de
l'augmentation du temps de publicité a permis à M6 de multiplier ses recettes brutes, qui ont plus que triplé
entre un jeudi moyen d'avant Loft et un jeudi moyen durant Loft Story. » (Communiqué de presse de l'Union
des annonceurs, 11 juillet 2001, «Les annonceurs français et la télévision-réalité»).
7. 570000 personnes se seraient connectées quotidiennement en moyenne en 2001. Elles seraient près de
700000 en mai 2002 (Le Parisien, 31 mai 2002).
8. 600 000 exemplaires vendus pour les trois numéros du magazine (Source: extraits d'analyse financière réalisée
par Crédit Lyonnais Securities Europe, supplément publicitaire au Journal du Dimanche, 1 avril 2002. Article
«Loft Story: le salaire de la peur»).
9. Disque des lofteurs vendu à plus de 1, 2 million d'exemplaires en 2001.
10. Estimées à 4 millions d'euros; même source que note 7.
11. Comme annoncé en voix off dans le jingle de présentation de l'émission.
12. Dominique Mehl voit dans ce programme l'apogée de la «néotélévision», marquée par la participation du
public, le jeu entre réalité et fiction, la dominante relationnelle du contrat de communication et la prétention
de la télévision à agir dans le social (Mehl, D., «La télévision relationnelle», Cahiers internationaux de
sociologie, vol. CXII, 2002, p. 63-95).
13. Benjamin Castaldi, 24 mai 2001.
14. Le Medef n'a pas pris une position morale, mais il s'est inquiété pour la productivité des entreprises
françaises, en raison du grand nombre de salariés connectés au Loft depuis leur lieu de travail.
15. Rolland, Romain, «Jean-Christophe: La Foire sur la place», Cahiers de la quinzaine, 9e série, 13e cahier, 1908.
16. Les chiffres d'audience et les prix de vente de l'espace publicitaire ont été généreusement fournis par M6 aux
différents médias, notamment de presse écrite, qui les ont fait connaître au grand public. Or il est rare que les
médias-supports communiquent des chiffres relatifs à la vente de leur espace publicitaire: vis-à-vis des
destinataires, ils préfèrent généralement rester aussi discrets que possible sur le fait que la production et la
diffusion de programme ont pour but l'obtention de revenus publicitaires.
17. «Voici trois versions afin de savoir quoi dire dans le bus, au dîner de famille ou à vos enfants qui vous serinent
avec Aziz, Kenza, Jean-Edouard, Loana et les autres. » (France-Soir, 19 mai 2001).
18. Libération, 3 mai 2001.
19. «Le Monde a voulu connaître la façon dont les Français regardent ce programme, qui a suscité une abondante
polémique, notamment dans nos colonnes. » (Le Monde, 19 mai 2001).
20. «Pour Loft Story», Les Cahiers du cinéma, n° 558, juin 2001.
21. Les catégories sont empruntées à Dominique Mehl («Loft Story: la fracture culturelle», in L'État de l'opinion,
Sofrès, Paris, Seuil, 2002, p. 143-157).
22. Sur ce point, notre analyse se distingue nettement de celles qui défendent l'idée que l'émission aurait réussi
en dépit des critiques. Le dispositif LS est fabriqué pour tirer bénéfice de la critique et de la dénonciation, il a
été bâti pour les susciter et s'en nourrit. De ce point de vue, l'idée d'un succès contre la critique couronne la
création de sens en qualifiant le programme comme culture populaire authentique opposée à
l'intellectualisme, aux « gens d'en haut ».
23. Le moindre succès de Loft Story 2 nous semble confirmer cette analyse. Les voix critiques n'étant plus
présentes pour conférer du sens à l'entreprise, l'audience chute malgré le maintien et l'accentuation du
caractère exhibitionniste du programme et la chaîne se voit contrainte à dévoiler le dessous des cartes. M6
répond à cette difficulté d'exciter la réécriture par le cynisme, en parlant argent, en revendiquant sa réussite
économique et surtout en occupant elle-même le terrain critique laissé vacant (Le loft du samedi soir, Le
morning live, partenariat avec Fun radio, etc. ). LS 2 est moins une nouvelle émission identique qu'un élément
du processus de commentaire.
24. Marianne, n° 216, 11-17 juin 2002.
25. JEANNERET, Yves, L'Affaire Sokal ou la querelle des impostures, Paris, PUF, 1998.
26. MIÈGE, Bernard, Les Industries du contenu face à l'ordre informationnel, Grenoble, Presses Universitaires de
Grenoble, 2000.
27. HALL, Stuart, «Encoding/Decoding», Culture, Medias, Languages: Working Papers in Cultural Studies,
Londres, Hutchinson, 1980.
Michel Souchon
Sophie Benoit
Dominique Boullier
Marc Tessier
Michel Souchon
Groupe Bayard
L'audimat accusé
Lorsque les chaînes se multiplient et que la publicité joue un rôle grandissant dans le
financement des sociétés de programmes, la situation change totalement. Dans les années
1980, l'instrument audimétrique se met en place, alors que les chaînes commerciales font leur
apparition dans le paysage audiovisuel. Les observateurs et les critiques voient dans cette
nouvelle concomitance la grande malchance de la télévision. Et, depuis lors, la dénonciation
de la «dictature de l'audimat» est un des thèmes récurrents des discours sur la télévision.
Avec un présupposé implicite: l'opposition de l'audience et de la qualité. On ne peut servir
deux maîtres, il faut choisir. D'où la nécessité de compléter la mesure de l'audience par
l'évaluation de la qualité, l'«audimat» par le «Qualimat». La première apparition du terme
est bien antérieure: elle date déjà de l'éclatement de l'ORTF, en 1975, lorsque le législateur
introduit la note « Q » dans l'équation de répartition de la redevance entre les sociétés issues
de PORTE Nouvelles manifestations en 1989 dans la bouche du premier «président
commun» de la télévision publique, Philippe Guilhaume, puis de Jean-Noël Jeanneney en
1991. Dans le même sens, on se souvient des déclarations de M. André Santini, lors de la
privatisation de TF1 en 1987 («On ne demande pas à Antenne 2 de faire de l'audience, on
lui demande de faire de la culture. ») et de celle de M. Jean-Jacques Aillagon, quinze ans plus
tard. Les nominations aux mêmes postes produisent les mêmes effets de discours.
Injonctions contradictoires
Ainsi, tout au long de son histoire, le service public de la télévision a été invité à remplir
une mission présentée, de manière drôle et très juste, par Françoise Giroud à la fin des
années 1980: «On demande à Antenne 2 d'avoir l'audience de TF1 avec les programmes
d'Arte. » C'est enfermer les responsables de la télévision publique dans ce «double bind»
dont nous ont beaucoup parlé les psychologues de l'école de Palo Alto. «Faites bien ce que
vous voudrez, de toute façon, ce sera mal. Votre audience est faible: c'est mal; certes vous
avez de bons programmes, mais vous êtes incapables de rassembler les foules dans les
grandes célébrations joyeuses de la culture. Votre audience est forte: c'est mal; vous racolez
le public avec des émissions qui ne présentent pas suffisamment de différence par rapport
à celles des télévisions commerciales. »2 Je vais essayer de montrer que les travaux sur le
public de la télévision, sur l'audience de la télévision peuvent aider à sortir de cet
enfermement dans des injonctions contradictoires.
Entendons-nous bien: l'objectif de ce texte n'est pas de faire l'apologie d'une politique
de programmes médiocre. Il est bien clair que la recherche obsessionnelle de l'audience
maximale conduit à la démagogie. Mon but est différent: il est de montrer qu'il est possible
de faire une utilisation intelligente et féconde de l'instrument audimétrique, y compris pour
des télévisions du service public. Pour enseigner les mathématiques à John, dit la vieille
sagesse des pédagogues, il faut connaître les mathématiques et John. Pour faire une bonne
politique de programmes, il faut connaître le public, dans la diversité de ses attentes et de
ses comportements. À quoi l'instrument audimétrique contribue. Il n'est assurément pas le
seul. Dans la mesure où le public de la télévision est coextensif à la société française, tous
les travaux économiques ou sociologiques et toutes les études de prospective sont utiles
pour connaître les téléspectateurs. Les sociétés de programmes ont encore recours à des
réunions de groupe, à des entretiens non directifs, à des tests de «pilotes», etc. Mais,
compte tenu du coût de l'instrument audimétrique, il serait malheureux qu'il ne soit pas
utilisé aussi intelligemment que possible par les responsables des sociétés de programmes.
Pendant les premières années de son existence, les audimètres ne mesuraient que l'audience
des foyers. En 1988-1989, l'addition des boîtiers comportant des touches individuelles a
permis des tris beaucoup plus intéressants et le suivi des comportements personnels. À
partir des données ainsi collectées, une utilisation intelligente suppose la construction
d'indicateurs, car l'audience est une réalité complexe que l'on ne peut appréhender par un
seul indicateur.
Le volume L'Année TV 2001, publié par Médiamétrie, nous apprend que la part
d'audience de TF1 sur l'ensemble de l'année a été de 32, 7 % , celle de France 2 de
21, 1 %, celle de France 3 de 17, 1 %, celle de M6 de 13, 5 %, etc. Pour comprendre ces
chiffres, il faut passer par un volume total d'écoute de la télévision additionnant toutes
les heures passées devant le petit écran par les 7 240 personnes « de quatre ans et plus
vivant dans un foyer équipé au moins d'un téléviseur» qui font partie du panel
audimétrique de Médiamétrie et qui représentent (au sens des sondages) la population
de référence (53 millions). Ce volume d'écoute se chiffre en heures par individu (en
2001, 3 heures 17 minutes en moyenne journalière; 1 054 heures 32 minutes en volume
annuel) ou mieux en heures-spectateurs (55, 89 milliards sur l'année). Pourquoi
privilégier cette dernière approche? Parce que le chiffre par individu est un chiffre
moyen qui conduit à penser que les différences entre les individus sont peu
importantes. On dira couramment que les Français regardent la télévision pendant plus
de mille heures par an. Ce qui est faux: certains regardent pendant beaucoup plus de
temps et d'autres pendant beaucoup moins. Le volume d'écoute exprimé en heures-
spectateurs n'induit rien de tel. De plus, je montrerai plus loin que cette manière de
présenter le volume d'écoute permet des analyses nombreuses et révélatrices des
comportements différenciés des spectateurs.
À partir des banques de données constituées par les relevés audimétriques, on peut
construire des indicateurs très nombreux. Citons en quelques-uns:
- l'audience instantanée (Instant Audience) est le plus simple: c'est l'ensemble des
personnes présentes devant la télévision ou telle chaîne à un moment précis;
- l'audience cumulée (Reach ou Cumulative Audience) est l'ensemble des personnes qui
ont vu au moins un fragment de la période étudiée (émission ou tranche horaire);
- l'audience en entier {Programme Total Audience) est l'ensemble des personnes qui ont
vu toute la période étudiée (émission ou tranche horaire);
- l'audience moyenne {Rating ou Average Audience) est le nombre de personnes
présentes, en moyenne, pendant la durée d'une émission ou d'une tranche horaire
(autrement dit, c'est la moyenne de toutes les audiences instantanées);
De ce qui précède, on peut déduire que «l'audience d'une émission» ne peut être
mesurée par un seul chiffre. Ou plutôt, l'audience d'une émission ne devrait pas être
mesurée par un seul chiffre, car le plus souvent on entend ou on lit des phrases comme:
«Telle émission a eu 10 % d'audience, ce qui, compte tenu de la valeur du point, représente
5, 3 millions de spectateurs. » C'est réduire la notion d'audience à un seul indicateur,
l'audience moyenne. Donnons deux exemples qui montreront que la réalité de l'audience
est bien différente. Deux films ont été diffusés par la télévision publique pendant la semaine
du 11 au 17 mai 1992: Les Liaisons dangereuses (mardi 12 mai, France 2, 20h56,
115 minutes) et Le Guépard (jeudi 14 mai, France 3, 20h47, 171 minutes). Les indicateurs
utilisés ici sont assez faciles à saisir. Disons seulement que le pourcentage de fidélité répond
à la question: sur 100 personnes présentes au début de l'émission, combien l'ont vue en
entier ?
On voit bien, sur ces deux exemples, que le public d'une émission est à la fois
beaucoup plus et beaucoup moins important que le chiffre de l'audience moyenne.
Beaucoup plus important, parce que, presque toujours, le nombre de ceux qui voient un
fragment d'une émission donnée est plus grand que celui qui est exprimé par le chiffre de
l'audience moyenne de cette émission: beaucoup de gens entrent et sortent, passent
quelques instants. Beaucoup moins important, si on ne retient comme «spectateurs» de
l'émission que ceux qui l'ont vue en entier (à la manière des spectateurs d'une salle de
cinéma)4. Autrement dit, l'audience d'une émission et de la télévision en général ne peut être
analysée uniquement avec la métaphore de la salle de spectacle, une partie relève de la
métaphore de la salle des pas perdus.
Les utilisateurs de l'audimétrie ont des manières de faire différentes et privilégient tel
indicateur plutôt que tel autre. Les publicitaires, par exemple, construisent des indicateurs
tels que le «GRP» (c'est-à-dire l'addition des pourcentages d'audience moyenne obtenus
par un message publicitaire lors de ses différents passages à l'antenne), la «couverture» (le
nombre total de personnes ayant vu un message publicitaire au moins une fois lors de ses
différents passages à l'antenne) ou le «taux de répétition» (le nombre moyen d'expositions
à un message publicitaires pour les personnes figurant dans la «couverture»). Les
programmes de média planning sont destinés à chercher l'utilisation optimale du budget
d'un annonceur en déterminant les emplacements les plus favorables, en termes de GRP, de
couverture ou de répétition, en fonction de la cible des messages. Il faut ajouter à ces calculs
permettant de déterminer le «coût au mille» le plus faible possible, des facteurs moins
facilement pondérables comme la «prime au leader», la notoriété et le prestige d'un
programme, etc. Ici peuvent intervenir une bonne politique de communication et l'accent
mis sur un indicateur de la «force globale» de la chaîne: sa part de marché.
Autre exemple, moins savant et plus anecdotique, d'un usage des données
audimétriques. Cet exemple illustre la surévaluation d'un seul indicateur, la «part de
marché», dans les télévisions commerciales. J'étais responsable des études à TF1 au moment
de la privatisation, en 1987. Les nouveaux responsables de la chaîne disaient: «Nous n'avons
acheté rien d'autre que 40 % de part de marché. Et nous les avons payés très cher {le plus
gros chèque jamais signé par un Auvergnat, a dit Francis Bouygues dans une interview). On
annonce que nous descendrons à 33 % en 1992. Il faut éviter cette baisse. » La barre des 40 %
devint la ligne bleue des Vosges. Pendant l'été, une note de service me demanda de faire
chaque semaine un document qui porterait, sur la grille de programmes hebdomadaire, pour
chaque émission de la chaîne, l'objectif d'audience correspondant à 40 % de part de marché
et l'audience réalisée, «afin qu'on voie rapidement les émissions viables et celles qui n'ont
plus leur place dans la grille». L'utilisation de stabilos rouge et vert rendait le document
rapidement lisible!5 Ayant surtout travaillé dans le secteur du service public, je souhaite
montrer que l'instrument audimétrique présente beaucoup d'intérêt pour évaluer les
télévisions de ce secteur, lorsqu'on dépasse cette manière simpliste de l'utiliser.
J'aime bien le mot de Jean Paulhan: «C'est le langage qui a besoin d'être simple, et les
opinions un peu compliquées. »... Pour compliquer un peu les analyses, il m'a semblé utile,
à plusieurs reprises, de croiser les variables d'âge, de niveau d'instruction et de sexe pour
obtenir une «variable complexe» que j'ai appelée - pas très finement - Anis. À partir de
deux niveaux d'instruction (relativement bas et relativement élevé), de trois classes d'âge
(jeunes, personnes d'âge moyen et personnes âgées) et des deux sexes, on obtient une
typologie en douze groupes construite a priori9.
Encore un autre souvenir d'ancien combattant. Lorsque je travaillais dans le secteur des
études de la télévision publique, la demande m'a été adressée à plusieurs reprises de
construire des «indicateurs de la qualité» qui compenseraient le poids jugé excessif de
l'audience. L'utilisation des sondages à cet effet se heurtant à des difficultés de méthode qui
me semblaient - et qui me semblent toujours - insurmontables, j'ai toujours plaidé pour la
recherche d'indicateurs basés sur le comportement objectif des responsables des chaînes,
suivant la règle énoncée par Maria Casarès dans un vieux film de Bresson: «Il n'y a pas
d'amour, Hélène, il n'y a que des preuves d'amour. » Quelles preuves d'amour de la qualité ?
Par exemple: le nombre d'heures de documentaires diffusés; la nature des émissions placées
dans le prime time (ouvrent-elles vraiment les choix des téléspectateurs aux heures de plus
grande écoute?); la part du budget consacrée aux créations dans le domaine de la fiction et
des programmes caractérisant le service public, etc. Mais il est possible d'emprunter une
autre voie qui s'appuie à contre-courant sur les chiffres de l'audimétrie. Par exemple, il est
possible de calculer le nombre de personnes ayant suivi la totalité d'une émission, et de
produire des «pourcentages de fidélité» répondant à la question: «Sur 100 personnes
présentes au début de l'émission, combien l'ont suivie jusqu'au bout ? ». Il est clair que cet
indicateur apporte des informations sur la capacité des émissions à intéresser leur public.
L'utilisation des indicateurs que nous avons énumérés et définis ci-dessus permet
d'apporter encore d'autres preuves de la qualité d'une chaîne de service public... à
condition évidemment que ses résultats soient probants !
Exemples:
- Les chiffres d'audience cumulée sur une semaine (en retenant une durée minimale
significative, de l'ordre du quart d'heure en continu) montrent que beaucoup de gens
utilisent la chaîne, la jugent «utile»: malgré l'extrême diversité des publics et malgré les
exigences contradictoires des spectateurs, la proportion est très faible de ceux qui, au cours
d'une semaine, ne trouvent absolument rien d'intéressant sur cette chaîne; ce qui apporte
la preuve qu'elle est authentiquement «généraliste».
- Dans la structure du volume d'écoute de la chaîne, les émissions de la curiosité, de
l'intelligence et de l'information tiennent une place importante: les spectateurs manifestent
qu'ils ont besoin de cette chaîne pour ce type de programmes qu'ils trouvent plus
difficilement ailleurs (plus rarement ou à des heures de moins forte écoute).
- La part d'audience de la chaîne est élevée dans tel groupe de la population, négligé
par les télévisions commerciales, alors que ce groupe, pour diverses raisons, compte
beaucoup sur la télévision pour son information, son divertissement et sa culture.
- P o u r ce qui est des émissions caractéristiques d'une télévision publique (les
documentaires, les magazines d'information ou de reportages), les parts d'audience de la
chaîne sont supérieures à la part d'audience moyenne, ce qui prouve la différence de ses
productions et de sa politique de programmation.
NOTES
1. Voir le livre qu'ils ont publié sous ce titre chez Calmann-Lévy, en 1963.
2. J'ai raconté cette histoire dans un essai de «sociologie narrative»: «Télévision et culture. Jalons et anecdotes
pour servir à l'histoire d'un malentendu», Revue de l'Institut de sociologie, Université libre de Bruxelles, 1995,
1-2, p. 155-170.
3. Voir «L'audience de la télévision: plaidoyer pour la notion d'heures-spectateurs», Médias Pouvoirs, 4 e
trimestre 1994, p. 11-20.
4. Le pourcentage de fidélité nettement plus faible obtenu par Le Guépard peut s'expliquer par deux facteurs:
sa plus grande longueur (une heure de plus que Les Liaisons dangereuses), qui a favorisé l'instabilité des
téléspectateurs (abandon pour certains, report en fin des programmes concurrents pour d'autres); son rang
de passage élevé (7e diffusion) qui en faisait un film déjà connu pour une bonne part de son auditoire, alors
que le film de Stephen FREARS, datant de 1988, était inédit à la télévision.
5. Dans le même temps, les responsables du budget recevaient commande d'un document analogue: sur la grille
des programmes de la semaine précédente, étaient portés le coût de chaque émission et la recette publicitaire
qu'elle avait générée.
6. Rappelons au passage que les durées d'écoute sont très différentes: 20 % des spectateurs réalisent près de la
moitié du volume total d'écoute, un peu plus de la moitié des heures-spectateurs étant assurée par les 80 %
restants. Une autre expression simple de cette inégalité est la loi paradoxale «1/3 = 2/3»: un tiers des
spectateurs est responsable des deux tiers des heures-spectateurs, etc.
7. Voir Les Structures du temps d'écoute: une nouvelle classification, Exposé aux journées de l'Irep (1990); Le
Public de la télévision, des comportements différents, Institut national de l'audiovisuel-Médiamétrie
(mai 1991); Régine CHANIAC et Jean-Pierre JÉZÉQUEL, Télévision et cinéma. Le désenchantement, Nathan et
Institut national de l'audiovisuel, 1998 (chapitre 4, «Public du cinéma et public de la télévision»).
8. Denis McQUAIL (dir. ), Sociology of Mass Communications, Penguin Books, p. 163.
9. On trouvera des résultats anciens des études Anis dans Petit écran grand public (La Documentation française,
1980, p. 38-60) et dans «Le vieux canon de 75. L'apport des méthodes quantitatives à la connaissance du
public de la télévision» (Hermès 11-12, 1992, p. 187-199).
À ce titre le rôle des responsables et des chargés d'études est primordial. C'est à eux
que revient le choix et la pertinence de la méthode, l'observation, l'analyse et la synthèse et
enfin la présentation et la diffusion des résultats.
Il se passe beaucoup de choses dans un service d'études. Dès 9 heures du matin, les
coups de téléphone affluent, responsables d'émissions, directeurs, attachés de presse,
animateurs, tous préoccupés par leur taux d'audience de la veille. Mais le rôle des Études
ne se résume pas à sa capacité à répondre au téléphone. D'ailleurs, la diffusion des résultats
bruts, taux de pénétration, part d'audience, est depuis longtemps automatisée, proposée
sous forme de grille que chacun peut consulter dans la chaîne. Même si quelques confusions
peuvent perdurer, entre part d'audience et audience moyenne (sic), aujourd'hui, les
principaux acteurs de la chaîne percutent immédiatement à la lecture des résultats, soucieux
d'avoir touché leur public.
L'outil primordial et le plus performant pour quantifier l'écoute des téléspectateurs des
chaînes hertziennes reste le Médiamat. Les résultats issus du panel de Médiamétrie
fournissent les audiences de chaque chaîne, minute par minute et sur 27 cibles standard.
La première cible observée est celle qui comptabilise l'ensemble des téléspectateurs de
plus de 4 ans. Mais toutes les cibles sont passées à la loupe, des enfants de 4 à 10 ans aux
seniors de plus de 60 ans en passant par les CSP+ (catégorie socio-professionnelle élevée).
Dernière cible, mise en avant et exploitée par France Télévisions Publicité: les 25-59 ans.
En effet, pendant longtemps on a séparé de manière un peu systématique les moins de
50 ans, jeunes adultes et les plus de 50 ans, les vieux... Aujourd'hui, même si la ménagère
de 15 à 49 ans reste la cible privilégiée des annonceurs, certains regroupements collent
mieux avec la réalité démographique et économique de la société.
Médiamétrie met à la disposition des chaînes les données d'audience agrégées et
individuelles. Chaque service d'études peut, à partir de là, créer ses propres
«assemblages» (comme, par exemple, la cible des lecteurs de Télérama qui possèdent
deux voitures ! ! !).
De nombreux logiciels sont utilisés pour «triturer» au mieux les données du panel, afin
de fournir des résultats fiables et affinés. Ainsi presque chaque programmation aura sa
radiographie après diffusion: audience de l'émission et de sa concurrence, profil de public,
courbe minute à minute, audience cumulée, flux des téléspectateurs... On peut même
aujourd'hui observer ces données d'audience minute à minute en visionnant les
programmes en même temps. Un outil qui permet une analyse très fine des flux de public,
des reports d'audience d'une chaîne à l'autre.
Toutes ces données n'ont finalement qu'un seul but: permettre aux «faiseurs» de
programmes et à leurs programmateurs de rencontrer leur public. Ainsi les premiers
interlocuteurs des Etudes sont les Directions des programmes et de la programmation.
Quoi de plus normal, en effet, pour la programmation d'une chaîne, de s'interroger,
avant la mise en place d'émissions pour enfants par exemple, des moments où ceux-ci sont
devant le petit écran, ou au contraire quand leur maman se retrouve seule au foyer, au cœur
de la matinée par exemple, et à qui la chaîne pourra proposer une émission
d'accompagnement.
L'art de la programmation réside donc, en fonction des observations de l'audience, à
capter le public majoritaire à un instant donné, ou bien en fonction de la concurrence, se
placer en offre complémentaire. Ainsi un étudiant rentré trop tôt de son université pourra
s'étonner, en allumant son poste, de la diffusion d'épisodes un peu vieillots de polars
allemands, mais qui font toujours recette auprès des téléspectateurs de plus de 50 ans,
majoritairement présents à cette heure-là de la journée.
Études qualitatives
Les résultats d'audience seuls ne sont pas suffisants pour analyser l'impact d'un
programme. Il importe à la chaîne de connaître plus finement les réactions de son public
afin d'ajuster au mieux ses programmes: l'habitude de regarder Derrick chaque jour cache
peut-être un énorme ras le bol, qui ne peut être immédiatement décelé dans le taux
d'écoute. Les études qualitatives vont permettre d'anticiper les lassitudes ou les envies de
nouveautés et nuancer ainsi les données chiffrées. C'est à partir de ces études, que l'on peut
comprendre les atouts ou les écueils d'un programme et de sa programmation. Elles sont
réalisées auprès de groupes de téléspectateurs, recrutés en fonction des objectifs de la
recherche (focus groupes), ou à partir d'entretiens individuels.
La conduite à bien de ces études est tout aussi fondamentale dans une direction
d'Etudes que l'analyse des données du panel.
Elles sont multiples et variées, traitent d'une émission en particulier ou d'un genre
télévisuel dans son ensemble (la fiction, le documentaire, le sport etc. ), servent à tester un
nouveau concept ou les réglages d'un nouveau jeu. Toutes donnent la Parole au
téléspectateur, seul ou en groupe, sélectionné en fonction du champ de l'étude et à qui l'on
demandera de «plancher» quelques heures sur un programme.
Les résultats mis à plat et analysés par des experts (psychologues, sémiologues,
sociologues, ethnologues ou tout cela à la fois ! ) sont présentés aux directions concernées et
la plupart du temps débouchent sur des mesures concrètes: ajustement du programme,
nouveau décor, changement de créneau de programmation, promotion plus ou moins forte.
Après la mise à l'antenne d'une nouvelle émission, l'audience peut paraître décevante.
On lance alors une étude qualitative qui permettra d'évaluer les résultats plus finement, de
recadrer éventuellement le format de l'émission et d'évaluer son potentiel. Un certain
nombre d'émission de «marque», quelques semaines après leur lancement et avec des
résultats d'audience moindres, Ça se discute, Donkey kong, Tout le monde en parle, Union
libre pour citer les plus emblématiques, ont récolté les faveurs des téléspectateurs, jeunes ou
plus âgés, lors de réunions de groupe. Et ces études qualitatives ont permis à la fois de
rassurer la direction de programme sur ses choix et de renforcer la communication.
Quelques mois plus tard, on pouvait retrouver ces mêmes programmes en tête des palmarès
d'audience et d'image.
Un gars, une fille, petit programme décapant et ne répondant pas aux normes
habituelles de la chaîne: format court (7 minutes), mi-fiction mi-sketch divertissant, humour
grinçant, générique à l'américaine..., autant de points très controversés au sein même de la
chaîne à la lecture des premiers résultats d'audience. Mais que fallait-il véritablement penser
de ces chiffres: le programme était-il définitivement rejeté ou n'était-il pas encore repéré...
notamment auprès d'un public peu fidèle à la chaîne ? Fallait-il le programmer à un autre
endroit dans la grille ? L'étude qualitative menée assez rapidement après sa mise à l'antenne
a montré des résultats extrêmement intéressants qui ont encouragé la programmation à
maintenir le programme à sa place. La réaction des plus jeunes téléspectateurs était
enthousiaste, s'amusant de se voir à l'avance dans les travers d'un couple, les plus âgés s'y
retrouvant avec nostalgie, et ceux du même âge, les « trentenaires », un peu gênés par ce
miroir tendu, mais prêts à en rire. Tous reconnaissant un programme culte qu'ils n'avaient
pas encore repéré à cet horaire sur une chaîne un peu traditionnelle.
Forte de ces résultats, la direction de la chaîne a tenu bon, remportant quelques
semaines plus tard les fruits en termes d'audience (programme de France 2 le plus regardé
chez les moins de 50 ans), en terme d'image (l'émission est systématiquement citée comme
source de renouvellement et modernisation de la chaîne), en vente de cassettes et de
disques. Chouchou et Loulou au rayon des produits cultes.
Dans un autre genre, mais tout aussi emblématique pour le public, le magazine
d'information Envoyé spécial occupait les jeudis de France 2 depuis plus de dix ans quand
ses deux présentateurs-fondateurs-producteurs ont laissé la place à un nouveau couple de
femmes, reporters de terrain. En même temps, apparaissaient le jeudi sur une chaîne privée,
Loft story, le Big Brother français qui allait déchaîner les passions et quelque peu bouleverser
les parts d'audience. Là aussi, les études qualitatives allaient pouvoir aider à repositionner
le magazine et confirmer le bon accueil des fidèles du magazine à l'égard des nouvelles
présentatrices avant que l'audience se redresse.
Dans tous les cas, il s'agit d'avoir l'aval du public en termes de satisfaction. Et au fil de
l'existence de la télévision, le téléspectateur est devenu de plus en plus exigeant, voire quasi-
professionnel. Il sait dire quand il s'ennuie, quand les sujets du journal sont confus ou s'il
adore la soirée de polars du vendredi. L'amateur de jeux n'aime pas quand les règles sont
trop faciles dans un cas, ou cafouilleuses dans un autre. Et il aime aussi que les décors soient
«à la hauteur» et que l'animateur soit clair et chaleureux !
Ainsi plusieurs fois par an, les téléspectateurs sont sondés sur la qualité des
programmes, sur leur satisfaction par rapport à la chaîne. Et les verbatim résonnent parfois
comme des slogans: «France 2, la seule chaîne que l'on est fier de regarder ! »
Mais ces études n'ont pas valeur de représentativité (30 à 60 personnes interviewées).
Il convient de les croiser avec les résultats du Médiamat et d'autres sondages.
Baromètres quantitatifs
Il existe en effet un certain nombre de baromètres, montés avec des instituts d'études
reconnus sur le marché, qui permettent également de sonder le public sur ses habitudes
d'écoute, ses goûts et ses attentes. À partir d'échantillons représentatifs de la population
française, ces sondages nous renseignent sur l'image de la chaîne, son positionnement par
rapport à la concurrence, les genres les mieux traités. Certains sont publiés dans la presse
média, notamment le sondage Ipsos-Stratégie qui, par exemple, plaçait encore cette année
France 2 comme la meilleure chaîne de débats.
Leur fréquence d'interrogation permet de surveiller étroitement les positionnements
des chaînes. Les items sont construits de manière à répondre aux préoccupations des
chaînes de service public. Exemple: la chaîne « qui correspond le mieux à l'idée que je me
fais du service public», «qui éveille ma curiosité», «proche de mes préoccupations», «qui
divertit le mieux», «qui informe le mieux» etc. Ces baromètres sont d'ailleurs, dans la
plupart des cas, pilotés par la direction des études du groupe.
Ils sont utilisés également pour les émissions et pour les animateurs. France 2 comme
les autres, plus que les autres (?), a le souci de mettre en avant sur son antenne des
présentateurs proche de ceux qui les regardent. Que ce soit pour la présentation d'un jeu
d'été ou d'un magazine de société.
Il existe également des baromètres sur des « cibles » particulières, bien vilain mot pour
désigner une catégorie de personnes fédérées à partir de leur âge ou de leur particularité.
Ce sont dans la plupart des cas des études par souscription, accessibles à de nombreux
clients qui vont des chaînes de télé aux vendeurs de yaourts. Les plus jeunes, enfants et
adolescents sont régulièrement interrogés sur leurs goûts alimentaires, musicaux,
vestimentaires. Les responsables des programmes «jeunesse» de la chaîne peuvent, grâce à
ces indicateurs réguliers, garder un œil sur les exigences de leurs jeunes téléspectateurs qui
aiment le hip hop, Djamel et KD2A.
Mais que font-ils, qui sont-ils, ces téléspectateurs qui regardent souvent ou peu la
télévision. Bien connaître la société française, son évolution, va permettre de nourrir les
unités de programmes qui réfléchissent à l'évolution de leurs émissions mais aussi à la
création de nouveaux formats. Du responsable de la fiction à celui des magazines,
chacun s'intéresse à la façon dont les Français appréhendent la vie, le travail, les loisirs,
la famille.
Nous ne sommes plus là sur les relations entre les publics et les programmes de
télévision, mais sur l'analyse plus globale des comportements. Plusieurs types d'études vont
permettre d'observer les tendances de la société. Chaque année, un grand Institut de
sociologie (Sociovision-Cofremca) fournit les résultats d'un long et passionnant sondage qui
s'intéresse autant à l'humeur des Français qu'à leur relation à autrui ou à la politique.
Ainsi, l'on peut mieux comprendre, entre autres, l'énorme succès du magazine Ça se
discute qui traite des grands thèmes de société à travers le témoignage de l'individu. Ou le
succès fulgurant du film Le Fabuleux Destin d'Amélie Poulain. On le comprend mais
difficile de le prévoir. Le rêve de chacun serait de pouvoir augurer de ce que sera demain
afin de précéder la demande... Les études peuvent parler de tendance, comme dans les
cahiers de tendance de la mode, mais ne prédisent pas les choix, les décisions ultimes qui
feront le succès de tel produit ou de tel film. D'autant plus qu'aujourd'hui l'individu
revendique ses choix... paradoxaux! ! !
Autre institut, autre outil: l'étude «Budget-temps» (Sofrès) offre une approche très
concrète des téléspectateurs. Il s'agit de connaître sur une semaine type, quart d'heure par
quart d'heure, l'emploi du temps de l'ensemble de la population.
Depuis des années, sur les deux premières chaînes nationales, les journaux du soir
démarrent à 20 heures. La réussite de ces éditions (environ 13 millions de téléspectateurs
pour TF1 et France 2 réunies, soit presque les trois quarts du public disponible) va de pair
avec un horaire de programmation adapté aux habitudes de vie des Français.
Avec les enquêtes Budget-Temps on peut tout savoir, ou presque, sur les horaires et les
activités principales des individus: l'heure du réveil, du petit-déjeuner, du dîner, du
coucher... travail, bricolage, jardinage, révision avec les enfants, lecture, etc. À 20 heures, la
plupart des gens sont rentrés chez eux, ont terminé de dîner... et ont déjà allumé leur TV.
Mais c'est à 21 heures que la majorité du public est réellement disponible, les jeunes parents
ayant couché leurs enfants. Si la direction des programmes décidait de démarrer les
programmes de premières parties de soirées à 20h30 pile, elle contenterait les plus âgés au
détriment de la population jeune et active.
Conclusion:
la connaissance du public au service du public
Dans le fond, une direction des études à France 2 dispose sensiblement des mêmes
outils que n'importe quel autre département marketing. Nous retrouvons d'ailleurs assez
souvent lors de séminaires en France ou à l'étranger nos homologues de Channel 4, BBC,
Prisma, ou Mac Donald.
Mais comparer un programme de France 2 à un gros hamburger fait frémir, quoique !
Que cherche-t-on avant tout? Que la deuxième chaîne nationale et première du service
public soit regardée, par des téléspectateurs fidèles; que la chaîne puisse toucher tous les
publics mais pas forcément à la même heure; qu'elle cultive, informe, distraie sous des
formes variées, modernes ou plus classiques. Qu'elle innove aussi sans bousculer les
habitudes, qu'elle donne la parole aux individus et aux institutions. Qu'elle soit le reflet de
la société actuelle et enfin, comme ils disent, «que ses téléspectateurs soient fiers de la
regarder».
NOTES
1. Soit 54% d'audience cumulée, calculée à partir d'un seuil de vision de 15 minutes d'écoute consécutives
(Source Telereport).
2. Band of brothers est une série américaine de dix épisodes d'environ une heure chacun, produite par Tom
Hanks et Steven Spielberg à partir de l'ouvrage de l'historien Stephen Ambrose. Elle retrace l'épopée de
l'Easy Company du 506e régiment de l'armée américaine lors de la Seconde Guerre mondiale en Europe,
chaque volet démarrant par des témoignages de vétérans. France 2 l'a diffusée chaque lundi soir, du 22 juillet
au 19 août 2002, à raison de deux épisodes à la suite.
3. Le teasing désigne une campagne de publicité construite autour de deux messages au moins, véhiculés
successivement par le même média (affichage, radio, télévision). Le premier message ou teaser, destiné à créer
un effet d'appel, d'attente, est très court (10 secondes dans le cas de Band of brothers).
DU TELESPECTATEUR
CONSOMMATEUR
AU TÉLÉSPECTATEUR CITOYEN
Cette première étape peut être la base d'une future épreuve avec tous les autres acteurs
de l'univers audiovisuel pour leur imposer aussi ce cadre de référence. Mais elle peut aussi
se résumer à une cohabitation de principes différents pour des sociétés de télévision à
statuts différents, cohabitation qui peut tourner à la partition complète si le service public
renonçait à émarger aux recettes publicitaires par exemple, ce qui semble exclu à moyen
terme mais qui est le cas ailleurs (BBC). Il faut en effet admettre que tant que la sanction
des recettes publicitaires demeure essentielle à la survie de toutes les chaînes de télévision,
il est hors de question de substituer un autre mode de représentation des téléspectateurs à
celui qui intéresse les annonceurs. Dans ces conditions, considérer que l'on peut interpréter
la mesure d'audience marchande comme un mode de représentation civique, démocratique,
comme un vote, c'est sans doute faire seulement contre mauvaise fortune bon cœur et
admettre que, pour avoir le pouvoir de changer les règles, il faut au moins faire ses preuves
avec les règles existantes.
- Il existe aussi une autre forme de stratégie, la plus forte mais aussi la plus difficile, qui
consiste à produire un mode de représentation du téléspectateur qui gère la diversité des
principes selon lesquels on le représente. Ce méta-positionnement est bien entendu le plus
incontestable. D'une certaine façon, il s'agit là aussi de fédérer divers principes mais à un
niveau beaucoup plus général, en donnant à chaque acteur la possibilité de décliner le
téléspectateur selon ses intérêts propres. Nous ne voyons pas pour l'instant les ressources,
ni même les modèles, qui pourraient servir de préfiguration à un tel dispositif.
Notons pour mémoire que les questions d'évaluation spécifique au service public
dépassent le cadre de la télévision6. Le principe industriel et marchand (performance et
prix) a gagné le secteur public de l'audiovisuel sans qu'il ait pu réellement trouver le
compromis avec le principe civique qui le conduit encore à «assumer des missions» ni
performantes ni «vendables».
Il existe cependant une différence de taille entre les missions du service public du
transport ou de l'éducation, par exemple, et celui de la télévision: les deux premiers peuvent
prétendre agir dans le sens de la justice. Pour cela, ils peuvent contredire, de plus en plus
difficilement, une logique marchande ou industrielle (on subventionne des petites lignes, on
offre une école gratuite pour tous, etc. ). Le transport et l'éducation offrent en effet des
produits désirables dont seraient effectivement privés certains si le seul principe marchand
dirigeait la fourniture de ces services. Or, pour la télévision, c'est la fourniture marchande
des services qui aboutit à satisfaire les « demandes » de ceux que l'on classe habituellement
comme défavorisés: l'offre standard actuelle de programmes labellisés «culturels» par
exemple, n'est pas réellement désirable pour ces téléspectateurs (semble-t-il, et selon les
formes actuelles de construction de la demande, précisons-le, d'où les recherches et les
enthousiasmes pour les programmes nobles-et-pourtant-populaires, dits «de qualité»!!).
On aboutit alors à cette situation étrange où ceux qui sont effectivement « privés » d'un type
de service (une télévision «noble» culturellement) sont par ailleurs les plus pourvus dans
tous les autres biens (les groupes sociaux les plus cultivés et les plus aisés). La mission du
service public pour la «justice» consisterait alors, pour caricaturer, à préserver l'accès des
élites intellectuelles à des programmes télévisés qui leur conviennent et qu'en tout état de
cause, elles ne regarderaient pas !
La désirabilité des programmes est dans tous les cas difficile à apprécier puisque le
système de mesure d'audience permet d'éviter l'épreuve marchande directe, client par
client, pour la trancher de façon agrégée à un niveau institutionnel: la consommation de
programmes télévisés est proche de la gratuité et, en tout cas, non indexée sur le temps de
consommation ou sur le type de programme consommé (qu'il soit coûteux ou non). On
aboutit ainsi à une situation où:
- le principe marchand gouverne l'offre de programmes et parvient à satisfaire ainsi
(disent les programmateurs à l'aide de leurs indices) le plus grand nombre;
- aucune épreuve marchande réelle n'est pourtant organisée (pas de consommation
payante, c'est un marché construit en l'absence du consommateur final, entre institutions);
- les biens qui pourraient être proposés au nom d'un principe civique par le service
public ne satisfont pour l'instant que les plus privilégiés par ailleurs, qui, de plus, ne sont
pas réellement demandeurs de télévision.
Le service public peut dès lors difficilement argumenter son statut particulier sur la
base d'une mission vis-à-vis des plus défavorisés (ou alors en maintenant un modèle de
l'acculturation - éduquer les masses - qui ne marche même plus dans le cas de l'école laïque
et obligatoire).
Il faudrait sans doute qu'il puisse construire une demande d'un autre ordre et non
seulement un principe de jugement différent: il est en effet à peu près certain que les
supposés «besoins» sont encore à créer, et que la répétition des stéréotypes ne peut à elle
seule assurer une stratégie commerciale gagnante. Les chaînes privées auront d'ailleurs beau
jeu de souligner que c'est précisément grâce à la pression d'un principe de gestion
commercial qu'elles se trouvent dans l'obligation d'innover, alors qu'elles continuent aussi
d'assurer la fourniture du «less objectionable programme».
Dans les deux cas, la représentation civique par les associations de téléspectateurs ou
par le CSA, le principe marchand peut en fait rester dominant, lorsque le groupe de
pression agit comme groupe consumériste, revendiquant de meilleurs produits, ou lorsque
le CSA veut garantir la qualité du produit annoncé (respect des horaires, par exemple).
Dans le cas de la télévision, le problème n'est pas simple dans la mesure où la controverse
porte précisément en permanence sur ce que pourrait être un «bon produit». Lorsque le
service public produit de sa propre initiative un porte-parole des téléspectateurs à travers
l'émission du médiateur, il prétend explicitement recréer un lien de type à la fois marchand
(vos critiques, le service après-vente en quelque sorte) comme l'avait fait Canal +, même s'il
prétend lui donner une dimension civique.
- Le paiement d'une redevance, s'il renvoie à un statut de contribuable, dit clairement
que la télévision dépasse les affaires de goût privé ou même de « public culturel » et qu'elle
concerne la collectivité, «l'intérêt général». On ne paye pas de redevance pour le théâtre ou
pour le livre, on achète une place ou un ouvrage. Mais la redevance télé ne définit pas de
bien commun, elle tend à devenir soit un impôt forfaitaire sans motivation (cf. l'ex-vignette)
soit un prix pour un service selon un principe marchand.
Dans tous les cas, le paiement est un lien très significatif et la façon dont il s'effectue
fait varier le principe même de la représentation du téléspectateur: on peut en effet
considérer que dans le cas du paiement à l'émission (pay-per-view), le téléspectateur est
strictement représenté comme consommateur de produit télévisuel. Sa participation à
l'univers télévisuel passe par ce paiement et sa décision peut dès lors être éventuellement
interprétée comme une forme de représentation marchande du public (ils payent, donc ils
aiment), en dehors de tout mode de représentation de type civique. Le paiement est
essentiel dans tous les cas parce qu'il permet de dénombrer et d'analyser la population de
téléspectateurs le plus exactement possible à partir de ses pratiques.
- Soulignons enfin l'importance des autres médiateurs dans les liens existants avec la
télévision et dans la production de la représentation des téléspectateurs: les journaux de
télévision, qui sont les entreprises de presse les plus profitables, fournissent, à travers leurs
courriers des lecteurs notamment, une occasion unique d'expression publique à des
«téléspectateurs anonymes». Le lien qui se crée avec la télévision peut aussi passer par ces
médiateurs qui préforment des opinions. Il serait aisé de rabattre le jugement de qualité
civique sur un critère de notoriété, sur le monde de l'opinion, à l'aide de ces journaux et par
la nature même de média de masse qu'est la télévision, machine extraordinaire à faire et
défaire les réputations. Pourtant, cela ne dirait rien encore de la qualité artistique ou de la
qualité citoyenne de la programmation ou d'un programme en particulier.
Résumons l'argument:
- nous avons admis l'impossibilité d'exploiter la mesure d'audience pour autre chose
que la fixation des prix du marché publicitaire;
- nous cherchons à construire cependant un dispositif d'objectivation des propriétés
des programmes télévisés aussi performante que l'audience mais basée sur d'autres
principes;
- les liens actuels avec les téléspectateurs relèvent plutôt de l'opinion et du quasi-
marchand;
- l'émergence d'un principe civique de jugement des programmes télévisés ne peut
calquer directement les procédures démocratiques de débat et de représentation sous peine
de lourdeur et d'extension infinie à tous les biens communs;
- de plus, la construction de repères communs et la définition des sanctions doivent
être effectuées en même temps, de façon à assurer à ces instances autre chose qu'un rôle
consultatif où se confronteraient les opinions politiques déjà constituées a priori (un pur
décalque des partis ou syndicats reconnus). Nous sommes plus proches en fait des situations
de controverses, centrées sur un problème donné, dont les formes de représentation des
membres doivent être adaptées au cas par cas7;
- les bases fournies par le rôle central du CSA doivent pouvoir être exploitées et ses
deux faiblesses corrigées.
Le CSA peut fort bien se doter lui-même d'une instance de consultation qui serait triple
(et qui irait au-delà de la Loi d'août 2000 qui instituait un Conseil consultatif des
programmes, composé de téléspectateurs8):
- les représentants auto-déclarés des téléspectateurs (les associations sous réserve de
vérification de leur activité réelle et de leur poids en termes d'adhérents);
- les «correspondants du CSA», téléspectateurs ordinaires constitués en panels reliés
par des techniques spécifiques, différentes de celles adoptées par la mesure d'audience;
- des intervenants ad hoc, constitués provisoirement selon le type de problème mis en
débat (ex: la présentation de telle minorité dans les émissions de télévision en général).
Cette troisième partie assure l'ouverture constante des membres de l'instance pour éviter un
monopole de la parole citoyenne, soit de la part des associations, soit de la part des
techniques de représentation à base de panels.
Ces trois méthodes de représentation combinées permettent de délibérer sur tout
problème émergent et de proposer des cadres réglementaires nouveaux sur des thèmes
encore non encadrés. De ce fait, par le pouvoir de suivi du CSA, le respect des principes
civiques qui sont dégagés par ces assemblées peut être contrôlé. Le pouvoir de sanction est
aussi indispensable dans les termes actuels (ou même étendus), avec en point de mire, le
renouvellement ou non des attributions de chaînes et de fréquences. La représentation
civique ainsi instituée doit se doter de moyens de sanction aussi puissants que ceux fournis
par les recettes publicitaires pour la mesure d'audience. Comme c'est le cas pour l'audience
marchande qui applique ses règles à tout l'audiovisuel, le CSA pourrait prétendre porter le
principe de qualité civique en l'étendant à tout l'audiovisuel, puisque son domaine de
compétence est général. Nous sortons ainsi d'une séparation de sphères (à la Walzer) entre
service public et sociétés marchandes pour adopter une approche en termes de principes
supérieurs communs (à la Boltanski et Thévenot) qui s'appliquent tous à tout l'audiovisuel,
selon des compromis différents cependant. Les chaînes privées ont aussi des obligations
civiques (et elles le clament souvent, d'ailleurs) et les chaînes publiques continuent pour
l'instant à vivre de la publicité.
Les formes délibératives de cette instance de consultation que nous proposons
dépassent les formes classiques dans le monde civique car nous introduisons un système de
panel de citoyens, «correspondants du CSA», équipés techniquement pour pouvoir donner
des avis ou recueillir des données les concernant en permanence. C'est ici que les leçons de
la mesure marchande de l'audience peuvent être largement exploitées de façon à rendre
opérationnels les principes de jugement civique9. Une objectivation de l'avis du citoyen doit
être aussi performante et exploitable que la mesure marchande si elle veut prétendre jouer
un rôle dans les stratégies et décisions de programmation. La constitution d'un panel
statistiquement représentatif de la population (et de segments de population selon les
objectifs) ne pose guère de problèmes. La connexion technique est déjà mise en œuvre par
les techniques de l'audience. Tout le problème réside dans les indicateurs qui peuvent
constituer un «indice agrégé de qualité civique» et dans l'état dans lequel on place le
téléspectateur pour fournir les éléments d'information. Le critère du «je regarde» ne
répond pas à nos objectifs puisque nous prétendons demander explicitement au
téléspectateur de fournir un jugement. Nous avons longuement étudié la façon dont
s'exprimaient les jugements des téléspectateurs dans des situations d'enquête et nous savons
à quel point ils peuvent être différents des goûts et des pratiques10. Nous pouvons faire le
pari cependant que des méthodes anonymes, régulières, de fourniture de jugement peuvent
réduire ces écarts. Il est possible de demander explicitement à des téléspectateurs de se
prononcer sur certains critères de qualité, encore à construire. Les déclarations seront
nécessairement fermées de façon à permettre le calcul.
C'est ici que la différence avec les formes traditionnelles de la représentation civique
apparaît: il faut parvenir à constituer un nouveau «centre de calcul»11 dont les limites
seraient certes reconnues mais partagées par les participants de cet univers. Sur cette base,
des «labels civiques» pourraient être donnés à des programmes récurrents. Cette politique
des labels, bien connue dans le monde alimentaire, correspond typiquement à des univers
où la mesure objective d'un acte d'achat ne peut suffire à définir une garantie de satisfaction.
Le label incorpore la dimension subjective du jugement en lui donnant le poids issu de
l'accord construit par les acteurs. Plus encore, cette dimension subjective peut elle-même
faire l'objet de calcul et de modélisation, comme on le fait en mathématiques du flou
appliquées à l'évaluation subjective12. Cette politique de labels permet de prendre pied dans
l'ordre de la prescription vis-à-vis du public et, dès lors, de peser sur le marché lui-même13.
C'est donc un puissant levier face à la mesure marchande de l'audience qui n'est jamais que
rétrospective. Mais il faut pour cela monter un dispositif particulièrement rigoureux sur le
plan des indices, et producteur de conventions14 entre les acteurs15.
Conclusion
NOTES
1. SOUCHON, M., Petit Écran, grand public, Paris, La Documentation française, 1980.
2. Nous nous inspirerons ici des approches de WALZER, parlant de sphères et de celles de BOLTANSKI et
THÉVENOT fondant des principes supérieurs communs, ce qui constitue deux façons différentes de conjuguer
le souci pluraliste de la justice. WALZER, M., Sphères de justice. Une défense du pluralisme et de la démocratie,
Paris, Le Seuil, 1997 (l re édition, 1983), BOLTANSKI, L., THEVENOT, L., De la Justification. Les économies de la
grandeur, Paris, Gallimard (NRF), 485 p., 1991.
3. Nous étendons ainsi un principe posé par Goody pour l'écriture, GOODY, J., La Raison graphique: la
domestication de la pensée sauvage, Paris, Minuit, 1979, 274 p.
4. CACHE, B. «Rawls regarde la télévision» in Médiaspouvoirs, n° 14, avril-mai-juin 1989.
5. RAWLS, J., A Theory of justice, Oxford, Oxford University Press (édition originale, 1972).
6. Par exemple nos travaux dans le transport: «Y a-t-il un client dans le réseau. Techniques de communication
et lien social dans le transport» (avec Josée BETAT), Rennes, Lares, 1987 et «Portrait du citoyen client-roi en
carte-à-puce», IRIS-TS, 1989.
7. Nous rejoignons ici CALLON, M., LASCOUMES, P., BARTHE, Y, Agir dans un monde incertain. Essai sur la
démocratie technique, Paris, Le Seuil, 2001.
8. Au moment de conclure cet article, est paru le rapport revigorant de Catherine Clément qui préconise une
mise en œuvre de cette loi, avec tirage au sort de 50 jurés ou des représentants de téléspectateurs. Notre
approche recombine ces deux solutions, y ajoute d'autres impératifs et étend surtout la sphère de validité de
ses avis à tout l'audiovisuel et non au seul service public.
9. C'est ce qu'a tenté de faire Médiamétrie avec son audimètre ou que projette JOSÈPHE, P., avec son
« Qualimat », qui ont encore à faire leurs preuves mais qui montrent bien la tendance.
10. Voir nos travaux avec LEGRAND, M., GOURIOU, E, réalisés notamment en contribution à une étude de l'Ina
pour le SJTI (Étude préalable à la mise en place d'indicateurs concernant les attitudes des téléspectateurs à
l'égard des chaînes publiques, 1990) publiés dans «La conversation télé» (à paraître, 2003).
11. LATOUR, Β., «Les vues de l'esprit. Une introduction à l'anthropologie des sciences et des techniques», Culture
Technique, n° 14, 1985.
12. Par exemple, ZALILA, Z., FATENE, M., «Opérateurs flous en théorie des expertons: sémantique d'une décision
de groupe en évaluation subjective». Actes 7e conférence internationale IPMU, Information Processing and
Management of Uncertainty in Knowledge-based Systems, Paris, 6-10 juillet 1998, vol. II, p. 1691-1699.
13. N'oublions pas que les autorités catholiques fournissent des recommandations pour les films et que cela aide
certains à se repérer.
14. Nous renvoyons sur ce point à tous les travaux des analystes des conventions en économie, cf. ORLEAN, A.
(dir. ), Analyse économique des conventions, Paris, PUF, 1994.
15. C'est dans ce sens que les activités centrées sur l'audience, dans le cadre du Laboratoire des Usages (Lutin)
en cours de création à la Cité des Sciences et de l'Industrie, seront développées.
16. HENNION, Α., La Passion musicale. Une sociologie de la médiation, Paris, A. -M. Métailié, 1993.
LE TÉLÉSPECTATEUR, AU CŒUR
DE LA TÉLÉVISION PUBLIQUE
Question: Vous présidez depuis quatre ans le groupe France Télévisions, mais vous avez
aussi une expérience de la télévision payante, ayant été président de Canal Plus International
pendant de longues années. Comment définiriez-vous la spécificité du rôle de la mesure
d'audience en ce qui concerne la télévision publique ?
Aucun média ne peut faire l'économie d'une réflexion et d'un choix sur les modes de
mesure et les critères qui lui permettent de suivre la réalisation de ses propres objectifs.
S'agissant d'un service de télévision plus précisément, aucun ne peut faire l'économie d'une
mesure de son audience. Deux questions se posent alors: Quelle utilisation en sera faite ? Et
sur quel instrument de mesure s'appuyer? La réponse à ces questions diffère
nécessairement d'une chaîne à l'autre, mais il est impensable de piloter un programme sans
critères ni instruments de mesure d'audience.
Dans le cas d'une chaîne payante, il est fondamental de mesurer l'intensité de la relation
nouée avec le téléspectateur abonné et de l'évaluer quantitativement. Le taux de
consommation des programmes reflète le mieux cette satisfaction. Du fait des mécanismes
de multidiffusion, le taux d'audience instantané d'un programme est en revanche moins
significatif. À Canal Plus, on est très soucieux de classer les films en fonction de l'audience
totale qu'ils obtiennent toutes diffusions incluses, et de le comparer au coût pour la chaîne.
Il doit y avoir en effet une forte corrélation entre le coût d'un programme et sa
consommation effective par les abonnés.
Une analogie entre Canal Plus et la télévision publique est utile à la réflexion: en effet,
dans une certaine mesure, la télévision publique est financée également par le téléspectateur.
Au-delà de ce point de départ commun, la différence entre les deux télévisions est
essentielle. La réflexion de la télévision publique sur la contrepartie qu'elle doit offrir au
versement d'une somme annuelle par la totalité des téléspectateurs relève en effet d'un
débat général orchestré par les représentants démocratiques, les Autorités représentant
l'Etat, et non plus seulement d'un raisonnement d'entreprise comme à Canal Plus.
Dans le cas des chaînes commerciales, la problématique de gestion dépend d'abord de
l'annonceur. La mesure sera donc forcément volumétrique et intègrera un élément qui
n'existe pas pour la télévision publique: le rapport entre l'audience et le coût des
programmes. La télévision publique n'est pas tenue en effet de hiérarchiser ses programmes
selon un tel rapport. Je développerai cela plus loin.
On peut enfin évoquer par souci d'exhaustivité le cas particulier des chaînes
thématiques. Fonctionnant selon un principe plus proche de celui de Canal Plus, elles ont
pour critère essentiel l'audience cumulée, au moins pour celles dont la majorité de leurs
recettes provient d'un reversement des opérateurs commerciaux du câble et du satellite, et
donc du client final. La problématique consiste alors à justifier le montant de la recette par
le nombre de téléspectateurs qui ont un contact régulier avec la chaîne, qui savent
l'identifier et peuvent l'intégrer dans leur décision de renouveler leur abonnement à l'offre
de bouquet le moment venu.
programmes pour le même type de publics, avec la même part d'audience, or ce serait
contradictoire avec la diversification de l'offre.
Une troisième raison est d'ordre interne. L'État a créé une holding et demande aux
dirigeants et au Conseil de celle-ci de fixer des lignes éditoriales dans le cadre du Cahier des
charges; il est normal qu'en retour la holding demande à chaque chaîne un compte rendu
sur l'audience. Il s'agit d'un instrument d'évaluation indispensable.
Par contre, j'ai toujours refusé que l'on fasse, par programme ou par genre de programme,
un rapport entre son coût et la recette publicitaire qu'il génère. Je ne vois pas pourquoi la
télévision publique s'imposerait la même contrainte que ses concurrents, celle du rapport entre
le coût et la recette, alors que la sienne doit être l'audience cumulée ou le positionnement moyen.
Question: Quand vous avez décidé d'arrêter Âge sensible, qui avait des résultats
d'audience décevants, n'est-ce pas aussi en tenant compte de V importance de l'investissement?
Age sensible1 était une fiction qui avait vocation à être récurrente. Or nous avons
constaté que l'émission ne rencontrait pas ses objectifs de cible et qu'elle n'avait aucune
chance d'y parvenir. Ce constat étant fait, il était opportun de tenter une autre émission afin
de mieux réaliser les objectifs de la télévision publique. La question est de savoir quand il
faut prendre une telle décision, sachant qu'un des atouts de la télévision publique est de
pouvoir prendre son temps et d'avoir plus de sérénité dans ses choix, sans remettre en cause
son équilibre économique comme c'est le cas pour une chaîne commerciale.
D'une manière générale, les dirigeants de la télévision publique ont à répondre à cette
question: À quel moment doit-on prendre la décision de remplacer un programme, quelle
que soit l'estime dans laquelle on le tient, par rapport aux objectifs d'une télévision
publique ? Et est-ce que le critère de l'audience est le seul critère ?
Un changement de grille peut être motivé par deux facteurs. Tout d'abord, la
conviction d'une érosion continue de l'audience du programme à laquelle on ne voit pas le
moyen de remédier. Ensuite, l'espoir que l'on met dans un nouveau programme de
remplacement pour atteindre les mêmes objectifs. On ne supprime pas une émission
uniquement parce qu'elle s'use, mais parce qu'on a le sentiment qu'il y a une alternative
différente et crédible à proposer. Pour un responsable d'antenne, le changement d'une
émission de longue tradition est toujours une question délicate qu'il faut gérer en douceur.
Question: Toujours dans le COM, les objectifs d'audience s'intègrent dans la mission plus
générale de «placer le téléspectateur au centre du dispositif». Quels sont les moyens mis en œuvre
par France Télévisions pour renforcer le lien entre téléspectateurs et les chaînes publiques ?
Nous avons tout d'abord posé un droit pour le téléspectateur à obtenir une réponse,
lorsqu'il formule individuellement une critique ou pose une question. Ensuite, il y a un droit
du téléspectateur à s'assurer que la télévision publique accepte un débat et un réexamen
interne lorsque cela est nécessaire. Pour répondre à ces droits, la télévision publique doit
avoir à la fois un certain état d'esprit, mais aussi un dispositif.
Le système mis en place est double. D'une part, les médiateurs sont le truchement du
public, avec un statut qui garantit leur indépendance. D'autre part, le traitement par le
Service des relations avec les téléspectateurs (SRT) des questions posées par ceux-ci nous
permet de répondre à chacun dans le plus grand respect. Un rapport de synthèse quotidien
est établi et adressé à l'ensemble des responsables des chaînes pour les familiariser avec ce
nouveau service et leur fournir un précieux retour d'information.
À la rentrée, sur France 5, nous allons proposer une émission sur la redevance, à partir
des remarques faites par les téléspectateurs: voilà l'usage qui est fait de la redevance, qu'en
pensez-vous et quelles sont vos critiques ou vos suggestions ? Au-delà de la diffusion, nous
nous engagerons à répondre à toutes les questions et remarques dans un délai d'une
semaine.
Question: Vous paraît-il possible de s'appuyer sur un jugement des téléspectateurs, qui
s'exprimerait au-delà des réactions spontanées de mécontentement, pour prendre des décisions
en matière de programmes ?
Ce qui était un problème aigu d'arbitrage au sein d'une même grille il y a vingt ans, peut
être traité de manière plus satisfaisante aujourd'hui alors qu'il n'y a plus seulement trois
chaînes de télévision. En première partie de soirée, l'offre globale de France 2, France 3 et
Arte comporte régulièrement des émissions avec un contenu culturel, du spectacle vivant,
des débats, etc. Pourquoi faudrait-il que toutes les chaînes publiques fassent la même
chose? Ne faut-il pas profiter de la diversification, surtout au regard des financements
publics investis ?
Ensuite, il faut considérer la culture dans ses différentes dimensions. Si vous observez ce
que diffusent France 2 et France 3 en première partie de soirée: des émissions politiques, des
émissions telles que Des Racines et des ailes ou Thalassa, des magazines comme Envoyé spécial,
et des grandes fictions patrimoniales, on peut considérer que la majorité des soirées a une
finalité culturelle. On ne peut pas dire que l'offre publique ne comporte des programmes
culturels que «la nuit et l'été», comme l'a prétendu Catherine Clément dans son rapport2.
Nous devons intégrer dans nos perspectives le fait que les téléspectateurs, dans une
proportion non négligeable, disposent d'une offre élargie. Doit-on faire une télévision pour
ceux qui sont abonnés au câble et au satellite ou doit-on faire une télévision publique pour
ceux qui, ne l'étant pas, doivent avoir une offre généraliste? Nous risquons de perdre
beaucoup d'intérêt pour la première catégorie si nous nous centrons trop sur la seconde et
réciproquement, d'être insatisfaisant pour celle-ci en termes de diversité de l'offre si nous
sacrifions des genres offerts largement par les chaînes de complément. Cette difficile
question ne s'est pas encore posée de manière trop aiguë aussi longtemps que la pénétration
du câble et du satellite était inférieure à un tiers des foyers, mais elle va devenir cruciale.
Nous n'avons pas encore véritablement anticipé tous les choix de programmation qui vont
se poser. Dans deux domaines, l'information et les programmes pour enfants, nous avons
maintenu une offre conséquente, nonobstant la présence de chaînes thématiques très
performantes dans ces domaines, car nous avons parié sur la surabondance de l'offre, mais
cette position pourra ne pas être toujours la même si une écrasante majorité de la population
est exposée à une offre élargie.
NOTES
1. Age sensible est une série de 26 minutes, diffusée du lundi au vendredi à 17 h30 sur France 2, du 2 septembre
au 18 octobre 2002. Destinée aux adolescents, cette série française a été arrêtée faute d'audience, se situant à
moins de 11 % sur les 15-24 ans.
2. Rapport de la mission «d'évaluation, d'analyse et de propositions concernant l'offre culturelle de France 2 et
France 3», confiée à Catherine Clément par Jean-Jacques Aillagon, ministre de la Culture et de la
Communication, et remis en décembre 2002, sous le titre La Nuit et l'été.
Jean-Pierre Jézéquel
Josiane Jouët
Hubert Bouchet
Alain Le Diberder
Jean-Pierre Jézéquel
Institut national de l'audiovisuel (Ina)
NOUVELLE ECONOMIE:
ENTRE UNITÉ ET DIVERSITÉ
L'expression «nouvelle économie» 1 est apparue dans la seconde moitié des années
1990; relayée par les journalistes, particulièrement ceux spécialisés dans l'actualité
financière, elle a connu rapidement un succès certain. La galaxie de différents secteurs et
activités englobée sous le vocable de nouvelle économie peut être aussi désignée par les
expressions, nouvelles techniques de l'information et de la communication, société de
l'information, troisième révolution industrielle, Internet ou ère du numérique, cette liste
n'ayant aucune prétention exhaustive. Avant même tout effort de mise en ordre des idées et
des catégories, l'observateur extérieur, mais curieux, ressent intuitivement un sentiment de
nébulosité et d'hétérogénéité, suggéré par les expressions elles-mêmes.
Il convient cependant de définir un champ, afin que le lecteur sache un peu plus
précisément de quoi l'on va lui parler. Quatre secteurs d'activité nous semblent baliser, à
peu près, le champ exploré ici: informatique, électronique, télécommunications,
communication audiovisuelle2. L'élargissement de la logique informatique au traitement et
à la circulation de l'information dans ces différents domaines cristallise une communauté
technologique popularisée un temps sous l'étiquette de «convergence». Ces différentes
sphères ont aussi en commun un certain nombre de caractéristiques économiques qui
fondent leur rassemblement dans un même vocable, à défaut d'un même concept; mais la
grande diversité des réalités de fonctionnement, des systèmes d'échanges des biens et
services concernés demeure. À travers cette diversité, s'impose aussi celle des stratégies de
marchés et des instruments de régulation, telles que la mesure de l'audience ou la
connaissance de la demande.
Nous en relèverons trois, étroitement imbriquées les unes dans les autres.
Les échanges dans la nouvelle économie sont «numérisés», c'est-à-dire exprimés en 0
et en 1, selon les règles du langage informatique. Cette aptitude à la numérisation, qui
simplifie les opérations de traitement de l'information, autorise de très importantes
économies d'échelle, leur première caractéristique. Dans le domaine des biens
d'information, les coûts fixes de production peuvent être élevés; que l'on pense au
développement de nouveaux logiciels, par exemple. Mais par la grâce de la numérisation,
les coûts de reproduction et de distribution sont quasi nuls. Les coûts fixes peuvent se
répartir sur une production qui augmente exponentiellement3. De plus, sous l'effet de ce qui
est communément nommé la mondialisation, le potentiel de clients augmente au gré de
l'élargissement des réseaux qui sont eux-mêmes au cœur de la nouvelle économie. Une sorte
de cercle vertueux se met en place entre le développement des réseaux numérisés qui
augmente la demande potentielle et le prix des biens échangés qui diminue au fur et à
mesure de cette augmentation.
Cette économie d'échelle se transforme en plus-value pour le réseau lui-même: de plus
en plus de biens peuvent être échangés, à des prix de moins en moins élevés et à un nombre
grandissant de clients. Cette valorisation des réseaux est connue sous le nom de Loi de
Metcalfe qui s'énonce ainsi: la valeur d'un réseau augmente à proportion du carré de ses
membres4. Alors que, pour les biens traditionnels, le développement du réseau de
distribution entraîne une propension aux déséconomies d'échelle (accroissement des coûts
de gestion et d'organisation), dans la nouvelle économie c'est le contraire: l'augmentation
de la distribution se traduit par des économies d'échelle. Le plomb se transforme en or.
Pour certains biens enfin, tels les logiciels informatiques, plus le nombre d'utilisateurs
est élevé, plus la valeur de ce bien augmente: il devient un «standard», celui qui sera
recherché prioritairement.
En second lieu, le développement de la nouvelle économie est un facteur
d'augmentation de la productivité. La plupart des réussites en matière de distribution de
biens et services dans la nouvelle économie proviennent de la destruction de poches de
rétention de productivité5. Il existe traditionnellement dans tout système de production ou
de distribution des frictions dans leur fluidité; ces frictions peuvent même se traduire par des
niches monopolistiques, ou oligopolistiques, fondées sur le manque de transparence du
système productif lui-même. La nouvelle économie permet une transparence de
l'information et un accès direct au client sans intermédiaires plus ou moins inutiles. Toute
fonction d'intermédiation voit, de toutes les façons, ses marges écrasées. Les possibilités
qu'ouvre la nouvelle économie dans le domaine de la productivité commencent à avoir leur
On peut donc identifier quelques caractéristiques très générales qui définissent cet
objet aux contours flous que constitue la «nouvelle économie». Ce terme peut trouver une
certaine légitimité terminologique en ce que les secteurs concernés et inventoriés en début
d'article sont considérés comme les secteurs moteurs du développement global de
l'économie, et ce pour une période de plusieurs dizaines d'années. Ils sont appelés à jouer
le rôle qu'ont pu jouer le secteur des chemins de fer au XIXe siècle et le secteur pétrolier et
automobile au XXe siècle. Au moment de l'émergence de ces secteurs, on aurait pu imaginer
que certains emploient à leur sujet le terme de nouvelle économie. En l'occurrence le terme
se justifie à la fois par la montée en puissance d'un secteur d'activité nouveau et par ses
conséquences sur les autres secteurs de l'économie. Au même titre que le développement
des moyens de communication ferroviaire et automobile a considérablement influencé et
bouleversé les structures de la production et de la distribution des autres secteurs, il en est
de même avec le développement des techniques de numérisation de l'information. Le
manque d'unité et d'homogénéité des secteurs au cœur de la nouvelle économie est
concomitant d'une grande variété de conséquences dans des secteurs d'activité très divers
par ailleurs. Au bout du compte, il est logique de constater une aussi grande diversité des
instruments de régulation correspondant tant aux nouveaux secteurs qu'aux secteurs
traditionnels réorganisés par les nouveaux moyens d'information. Pour illustrer ce propos,
on peut employer une image un peu triviale qui renvoie à l'analogie avec l'essor de
l'industrie automobile. Le concessionnaire d'une marque d'automobile qui vend un
véhicule, le vendeur d'essence à la station-service, la société autoroutière qui encaisse les
péages, le transporteur routier qui facture moins cher que le rail les mètres cubes de
marchandises qu'il transporte sont tous des «enfants» de l'ancienne économie fondée sur
l'énergie pétrolière et le moteur à explosion. Leurs logiques commerciales, leurs modes
d'encaissement des recettes et les instruments de mesure de leur activité sont évidemment
différents; et personne ne s'attend à ce que leur dénominateur commun pétrolier ait
vocation à unifier les indicateurs qu'ils utilisent pour leurs activités spécifiques. Il en est de
même avec la nouvelle économie et ses différents secteurs.
Il n'est pas nécessaire de s'attarder outre mesure sur les différences qui peuvent exister
dans les logiques d'échanges et de marché de secteurs tels que la vente de micro-
ordinateurs, le marché des composants électroniques ou la location de faisceaux hertziens.
Aussi nous nous concentrerons sur le secteur de l'Internet et des services qui y sont
proposés.
Peu importe pour notre propos que l'on considère Internet comme un média; bornons
nous à constater que l'on échange sur la toile des informations et des contenus, plus ou
moins organisés et mis en forme, au milieu d'autres biens ou services de toute nature. Il est
évident que l'ensemble de ce marché (au sens strict de mise en rapport entre une offre et
une demande) ne dessine pas un modèle économique unique. Ce trait de caractère est
d'ailleurs souvent traduit par le slogan illusoire, «Internet n'a pas encore trouvé son modèle
économique»; que l'on est tenté de compléter par, «... et il ne le trouvera jamais». On ne
voit vraiment pas pourquoi l'accès à des pages de journaux ou magazines, le téléchargement
de programmes audiovisuels ou de jeux vidéo, la fourniture de services bancaires, l'achat de
prestations telles que voyages ou billets de transports, les paris en ligne, les sites de mises
aux enchères ou de petites annonces, le commerce électronique de biens matériels, la
recherche de documents pédagogiques ou culturels, la prise de connaissance de textes
réglementaires, ou l'utilisation de la messagerie électronique devraient relever d'un modèle
unique de transaction. Dans cet inventaire à la Prévert, certains exemples n'ont même pas
vocation à échange commercial.
La communauté des pionniers d'Internet (essentiellement des chercheurs et des
universitaires) a promu le développement de la toile en insistant sur son caractère gratuit et
convivial. S'est ainsi constituée une sorte de culture de l'Internet qui s'est trouvée en porte-
à-faux avec l'irruption d'offreurs de services qui ne pouvaient s'installer sans bénéficier
d'une quelconque forme de ressources. En économie marchande, la vraie gratuité n'existe
pas et, fut-ce de manière indirecte, le consommateur final doit participer au financement du
service utilisé. Biens publics8 par excellence, les médias audiovisuels ont depuis longtemps
éprouvé les deux formes de fausse gratuité qui fondent leur économie: service public
financé par la fiscalité, service commercial financé par la publicité. Ces deux formes n'étant
pas exclusives, elles peuvent se combiner, la plupart des pays européens ayant testé
différentes modalités de combinaisons possibles. Dans un deuxième temps, les firmes qui
ont commencé à investir Internet pour y effectuer des opérations marchandes ont essayé de
concilier cette idéologie de la gratuité avec leurs objectifs commerciaux. Le modèle de
« gratuité » des médias audiovisuels fondé sur le financement publicitaire a semblé pouvoir
fournir la réponse adaptée. La conjoncture économique déprimée à partir de 2001, en
particulier celle du marché publicitaire, a précipité la prise de conscience que la gratuité, ou
pseudo-gratuité, ne pourrait suffire à rentabiliser toutes les offres qui envisageaient de se
développer sur Internet.
L'idée qu'Internet ne pourrait croître qu'en s'appuyant sur des services (directement)
payants a progressivement fait son chemin, non sans soulever nombre de réticences et de
répugnances. Pendant l'été 2001, le cabinet conseil Andersen réalisait une enquête auprès
de plusieurs centaines d'entreprises engagées dans le webcasting (les différentes activités
liées à la vidéo sur Internet) 9 . Pour l'ensemble des entreprises répondantes, la publicité ne
devrait plus représenter à l'avenir que moins de 50 % des revenus. Les autres sources de
financement citées étaient dans l'ordre: l'abonnement, le pay per view et le commerce en
ligne. En outre, ces différents modes de financement étaient associés par les sondés à
différents modes de diffusion: la publicité et l'abonnement à l'accès en direct, et le pay per
view au téléchargement. La valeur d'un tel type d'enquête doit naturellement être relativisée
et l'on peut s'interroger sur la rigueur apportée tant au questionnaire qu'aux réponses
enregistrées. Elle a le mérite de donner un coup de projecteur instructif sur l'état d'esprit
des acteurs économiques et la hiérarchisation des revenus potentiels dans ce champ
d'activité. Mais ce qui nous importe le plus ici est la diversité des types de transaction
qu'évoquent spontanément les différents acteurs d'un secteur d'Internet pourtant à peu
près délimité, en l'occurrence la vidéo. Il est acquis que le modèle économique fondé sur la
seule publicité ne saurait constituer une perspective crédible. La place de la publicité
pourrait être importante, mais elle voisinera avec des services qui se feront rémunérer selon
diverses modalités.
rôle équivalent, même lorsque sa conjoncture particulière sera revenue à une meilleure
fortune. Mais la différence entre les deux mondes, du point de vue des publicitaires, se situe
encore à un autre niveau. Étant donné la diversité des services offerts et surtout la spécificité
des rapports entretenus entre l'offreur de services et son usager, l'idée même d'un
instrument de mesure d'audience unifiant cet univers et hiérarchisant entre les différentes
plates-formes offrant des services devient illogique, contradictoire avec les atouts propres
d'Internet. Les médias traditionnels s'adressent à des consommateurs de manière
indifférenciée et ceux-ci leur sont en quelque sorte anonymes. Le caractère massif et
indifférencié de la publicité traditionnelle oblige les acteurs de ce secteur à effectuer des
constructions abstraites de cibles pour mieux cerner le public qui est exposé aux messages.
La technique des sondages et des panels est au cœur de «l'économie publicitaire». Le
Médiamat de la télévision représente sans doute le plus haut degré de sophistication jamais
atteint par ces techniques.
Avant même l'épuisement des perspectives de croissance du modèle publicitaire, les
télévisions ont cherché de nouvelles ressources avec les chaînes payantes par abonnement.
Aux Etats-Unis, HBO apparaît en 1973; Canal Plus, son équivalent français, commence à
émettre en novembre 1984. Que ce soit pour l'organe de presse ou pour la chaîne de
télévision cryptée, l'abonné se réduit à une adresse postale; on connaît par ailleurs la valeur
marchande attribuée à ces fichiers qui sont susceptibles de permettre un meilleur ciblage
pour la promotion d'un produit ou d'un service particulier. Sur la «toile», l'offreur de
contenu inaugure un contact privilégié et personnalisé avec l'usager. Cette relation est
d'ailleurs matérialisée par la liaison électronique bilatérale qui relie les deux protagonistes:
l'information circule dans les deux sens. La navigation de l'internaute à l'intérieur d'un site
exprime bien la singularité d'une démarche individuelle. Contrairement aux principes
fondamentaux d'un média de masse (unilatéralisme, indifférenciation, simultanéité), la
diffusion d'un contenu se traduit par l'envoi, à des moments différents, d'informations à un
certain nombre d'adresses qui se sont portées candidates, avec des possibilités de
rétroaction plus ou moins développées selon les cas. Cette relation beaucoup plus riche
entraîne des conséquences majeures sur les rapports commerciaux et le type de marketing
qu'elle autorise10. La relation Internet reconstitue, à distance, une sorte de face à face entre
un fournisseur et un client. Non seulement ce dernier est identifié, mais son comportement
à l'égard des différentes offres peut être enregistré et mis en mémoire. L'identification et
l'enregistrement chronologique du comportement de l'usager accomplissent sa traçabilité.
Pour reprendre l'analogie du fichier d'abonnés, non seulement on dispose de l'adresse du
client, mais aussi de la trace de son parcours, sur des mois ou des années, à travers
l'ensemble des offres d'un portail ou d'une plate-forme donnée. Si la publicité traditionnelle
peut s'apparenter à du prêt-à-porter, la politique commerciale rendue possible par des
informations aussi individualisées relèvent de la confection sur-mesure. À l'individualisation
NOTES
1. Dans La Croissance, début de siècle, Paris, Albin Michel, 2002, Robert BOYER se livre, au terme d'analyses
détaillées, à «l'autopsie de la nouvelle économie». Par commodité, nous conservons ce vocable de nouvelle
économie, sans méconnaître les mythes et les controverses qu'il suscite.
2. Pour cet effort de délimitation voir le paragraphe « Contours de la nouvelle économie» in Nouvelle économie,
D. COHEN et M. DEBONNEUIL, rapport du Conseil d'Analyse Économique, septembre 2000.
3. Économie de l'information, Carl SHAPIRO et Hal R. VARÍAN, Édition De Boeck Université; recension dans Le
Monde, du 24 mars 2000.
4. «Les logiques fondatrices d'Internet», Jean-Paul BERBÈZE, Le Monde, 17 octobre 2000.
5. « Qu'est réellement la nouvelle économie ? », Philippe LEMOINE, Le Monde, 4 juillet 2000.
6. « La nouvelle économie n'était pas qu'une chimère », Guillaume DuVAL, Alternatives économiques, mars 2003.
Pour plus d'éléments sur les questions de productivité voir « Croissance économique et diffusion des TIC »,
notes d'études et de recherche de la Banque de France, décembre 2001 et «Croissance et technologies de
l'information en France et aux États-Unis», Hélène BAUDCHON et Olivier BROSSARD, Revue de l'OFCE,
janvier 2001. Ce dernier document s'efforce en particulier de donner des explications au retard constaté entre
le développement des moyens informatiques dans les années 1970 et 1980 et leur impact sur les chiffres de la
productivité globale de l'économie, à partir de 1995 et seulement aux États-Unis. Voir aussi le rapport
Nouvelle économie du Conseil d'analyse économique, déjà cité.
7. «Anatomie d'un crash», Lawrence H. SUMMERS et J. Bradford DELONG, Le Monde, 19 juin 2002.
8. En Science économique, un bien est dit public si son utilisation par un usager n'entrave pas l'utilisation par
un autre usager. Les médias audiovisuels représentent un exemple presque idéal.
9. «Vers de nouveaux modèles économiques pour le webcasting», Écran total, 26 septembre 2001.
10. Ces aspects sont développés par Louis CHAMMING'S, Veut-on parler d'audience sur Internet, Dossiers de
l'audiovisuel mai-juin 2002, Les nouvelles technologies: quels usages, quels usagers?
11. Une forme fruste de publicité sur Internet est encore à la recherche d'instruments «fiables» de cette nature
pour tenter de construire des grilles de tarifs inspirés de celles des médias de masse traditionnels. Ce n'est pas
la voie la plus riche dans tous les sens du terme.
Internet a-t-il une audience ? Certains allégueront que non car le réseau des réseaux
n'est pas un média de masse et les usagers d'Internet ne constituent en rien une audience
comme celle de la radio ou la télévision. La généalogie des études d'audience les lie en effet
à l'avènement des médias de masse or Internet ne s'inscrit pas dans une logique de diffusion
mais de connexion. Nous ne sommes plus en présence d'une offre construite pour rejoindre
simultanément de vastes auditoires car Internet est un pluri-média qui donne accès à une
multitude de services d'information, de loisirs, de jeux, de transaction, de commerce ou de
communication interpersonnelle et collective. C'est aussi un hyper-média qui assigne à
l'utilisateur une posture de communication interactive fort distincte de la posture de
réception des médias de masse. De plus la polyvalence d'Internet lui confère un caractère
globalisant qui fait éclater les sphères d'activités traditionnelles des médias de masse et
s'étend, entre autres, à la sphère du travail et de l'échange communicationnel. Or a-t-on
jamais entendu parler de l'audience des outils de travail ou de l'audience du téléphone ?
L'architecture technique d'Internet défierait donc en elle-même l'application de la notion
d'audience.
D'autres rétorqueront que si, l'audience d'Internet existe bien. En effet, depuis 1996,
Internet s'est démocratisé et son ouverture vers «le grand public» s'est accompagnée non
seulement de l'arrivée des grands médias de masse sur le Web mais de fournisseurs d'accès,
de moteurs de recherche et de portails qui se sont largement inspirés du modèle médiatique
et, en particulier, du modèle de la presse magazine et de la télévision. « Que cherchent en
effet tous les opérateurs du Net qui, quel que soit leur métier de départ, cherchent à se
constituer en portails ? Ils prétendent, eux aussi, agréger des publics pour les faire passer
par leur point de passage obligé, dans le but essentiel de maximiser, là aussi leurs revenus
publicitaires. Le modèle économique calqué à travers les portails est celui de la télévision:
l'émergence de la guerre des méthodes de mesure d'audience sur Internet n'est qu'un
symptôme mais elle est en même temps la pièce maîtresse de cette opération de compromis
avec les publicitaires. » (Boullier, 2000). L'art de la conception de site s'apparenterait donc
à l'art de la programmation dans la sphère audiovisuelle, à l'art de l'offre éditoriale et de la
mise en scène graphique dans la presse écrite, arts qui recourent largement aux études
d'audience et au marketing.
Si le glissement d'Internet vers le modèle éditorial justifie, du moins en partie,
l'emprunt de la notion d'audience, la mesure d'audience d'Internet n'est pas un simple
calque des mesures d'audience des médias. Elle se greffe d'emblée sur deux autres logiques:
la logique de mesure de trafic des télécommunications et la logique de numérisation de
l'informatique. Les filiations techniques du réseau des réseaux contribuent à la genèse de la
mesure d'audience d'Internet. En effet, la construction de ce dispositif repose sur un
agencement entre d'une part, les outils de la technologie sociale empruntés aux études
d'audience classiques et au marketing et, d'autre part, les outils de l'informatique et des
télécommunications (numérisation, procédures de capture, suivi et observation des trafics
et des flux... ). Ainsi, la mesure de l'audience d'Internet est d'abord et de façon massive une
mesure sur Internet.
Nous prenons en compte dans cet article, non seulement les travaux de mesure de
l'audience mais aussi les travaux d'enquête qui étudient les internautes en recourant soit aux
méthodes classiques de questionnaire ou d'entretien, soit aux questionnaires en ligne.
L'objectif n'est pas d'exposer l'ensemble de la panoplie des études d'audience d'Internet qui
font florès ni d'entrer dans les raffinements en évolution constante des techniques utilisées1
Le texte ne fournit pas non plus de résultats statistiques sur les audiences d'Internet en
raison d'une part, de leur obsolescence et, d'autre part, du fait qu'ils sont, du moins pour la
partie qui n'est pas confidentielle, aisément accessibles en ligne. La perspective est autre, car
il s'agit d'aborder les enjeux des études d'audience, de s'interroger sur les modes de
construction des principales méthodologies et de cerner la représentation des internautes
qui émerge de ces dispositifs.
Un marché fragmenté
En moins d'une décennie, le marché des études d'audience d'Internet a explosé sous
l'effet de la «bulle Internet». C'est encore un marché ouvert qui a ainsi vu l'apparition de
petites sociétés d'études qui rivalisent dans l'élaboration d'outils de mesure ou d'études
performants. Il se caractérise par une forte instabilité et concurrence et s'y déploient de
grands instituts de sondage, comme Médiamétrie, aux côtés de petites start-ups comme
eStat, Weborama ou Atinternet, spécialistes de la mesure de trafic sur réseau dont la
clientèle initiale de petits éditeurs de site s'est élargie à des acteurs plus importants. En
outre, des bureaux d'étude et de marketing de taille moyenne, comme Novatris, réalisent
aussi des enquêtes sur les internautes. La fragmentation actuelle du marché de l'audience
se caractérise de fait par un double phénomène de spécialisation et de partenariat
international, dans un climat d'incertitude économique qui renforce les concentrations.
Dans cette course aux études, chacun est à la recherche de la killer application et
aucune ne s'impose de façon définitive. D'ailleurs la spécificité du média Internet n'appelle
pas nécessairement l'imposition à terme d'une mesure d'audience unique, comme cela s'est
passé pour la télévision avant l'arrivée des chaînes thématiques, mais peut-être se produira-
t-il une coexistence de mesures renvoyant à l'hétérogénéité du média Internet et de ses
intervenants.
Aujourd'hui il est de bonne guerre d'évoquer les écarts de résultats sur l'audience
d'Internet obtenus par les différentes méthodes. La mesure d'audience d'Internet repose en
effet sur un paradoxe: il est le média qui a priori se prête le mieux à la connaissance de ses
publics car l'usager en ligne laisse quantité de traces mais il est à la fois le média le plus
complexe à mesurer. De nombreux obstacles surgissent en effet pour obtenir des comptages
rigoureux et précis. L'utilisation de serveurs «proxy» et des caches masquant les fichiers logs
font que plus une page est demandée moins elle est comptabilisée, le problème étant résolu
par la présence de marqueurs sur les pages. Des difficultés techniques surgissent aux
niveaux des navigateurs, des fournisseurs d'accès, des types d'ordinateurs des usagers, des
lieux de connexion (domicile, entreprise, cybercafé, université... ). De plus, les méthodes de
mesure diffèrent et les logiciels de comptage n'enregistrent pas nécessairement les mêmes
paramètres. « Ces différences sont un frein à la crédibilité du média, car les chiffres sont
souvent comparés entre eux sans que l'on sache comment ils ont été obtenus. » (Brignier et
al, 2002). Il existe par ailleurs une forte instabilité de la démographie des internautes qui
exige une mise à jour permanente et périodique des enquêtes de calage réalisées par les
grands instituts de sondage afin d'ajuster la représentativité des échantillons. De plus, à
l'inverse de la télévision par exemple, l'audience d'Internet est par définition internationale
même si les études montrent que les sites nationaux sont très majoritairement consultés par
les résidents de leur pays. Surtout, le média Internet qui offre une diversité d'applications
et de services (information, messagerie interpersonnelle et de groupe, transfert de fichiers,
transaction etc. ) rend impossible une mesure d'audience unique et exhaustive y compris
dans le seul domaine du Web en raison de la multitude des sites qui se chiffrent par
centaines de milliers. La différence avec les médias de masse est donc ici majeure et une
vaste partie d'Internet échappe de fait à toute mesure.
Si les mesures d'audience d'Internet sont encore loin d'être parfaitement cohérentes et
fiables, elles tendent à converger de plus en plus grâce entre autres aux efforts des instances
interprofessionnelles qui ont chargé les organismes de contrôle (le Centre d'études des supports
de publicité et Diffusion contrôle) d'opérer une certification et une labellisation des outils de
mesure soumis à un audit régulier. Ainsi, la mise en place par le CESP d'une « Terminologie
pour la mesure d'audience d'Internet » a permis d'établir une définition précise des différents
indicateurs de mesure reconnus et appliqués par les organismes d'audience2. A l'instar des
médias de masse, l'audience d'Internet est désormais mesurée à l'aune de ses propres
indicateurs parmi lesquels: le nombre de pages vues, de pages vues avec publicité, de session
utilisateur correspondant à la durée totale d'une connexion qui peut elle-même comprendre
plusieurs visites, soit un ensemble de pages vues sur un même site au cours d'une même session,
de visiteurs (individus consultant un même site au cours d'une période donnée)...
Du côté des mesures «user centric», les panels d'Internautes sont en quelque sorte le
décalque de l'audimétrie télévisuelle et, tout comme pour le Médiamat, ils sont constitués
d'individus consentant à l'installation d'un logiciel espion sur leur ordinateur. Ce système
d'enregistrement passif est a priori le plus fiable car l'internaute s'identifie dès qu'il se
connecte à Internet (les différents membres du foyer ont chacun un code d'accès spécifique)
et il est suivi à la trace. Grâce à l'interactivité du média, on peut repérer toute inactivité
supérieure à un temps donné, qui est assimilée à une fin de session, et ce dispositif paraît
supérieur en précision au Médiamat dont le système de boutons poussoir ne permet pas de
cerner l'attention du téléspectateur au petit écran. Les panels reposent sur un échantillon
représentatif d'internautes correspondant à des catégories sociales précises et fournissent
des renseignements précieux sur les usages d'Internet et leur évolution dans le temps.
La tendance à l'internationalisation et à la concentration est remarquable pour ces
panels d'Internautes très onéreux qui, conjointement implantés dans plusieurs pays,
permettent des mesures comparatives sur plusieurs zones géographiques. Ainsi, les trois
panels présents en France au début de l'année 2002, étaient-ils tous les résultats d'alliances
entre opérateurs nationaux et multinationaux. Médiamétrie s'est associé à Nielsen, le grand
spécialiste américain de l'audience, à travers la société Nielsen-NetRatings; la Start up
Netvalue, associée au groupe Taylor Nelson Sofrès, avait développé un partenariat avec le
groupe américain ComScore, avant d'être absorbée par le même NetRatings à l'automne
2002. Le troisième panel, Jupiter Médiametrix Europe, était une joint venture de
l'Américain MediaMetrix avec des instituts européens, dont l'Allemand GFK et le Français
IPSOS, avant d'être racheté par ComScore et d'être utilisé à d'autres fins. A la fin de l'année
2002, il ne demeure plus sur le marché français de la mesure user centric que le panel de
Nielsen-Netratings commercialisé par Médiamétrie.
Néanmoins, la connaissance par le biais des panels présente des limites car les données
recueillies sont valides pour la fréquentation des gros sites (portails, moteurs etc. ), mais non
pour cerner la consultation des petits sites en raison de l'extrême fragmentation du Web.
« On touche ici une limite importante de ce type de mesure: comme on compte les visites
à l'intérieur d'un échantillon, il faut accumuler des observations dans la durée pour obtenir
des chiffres qui puissent être significatifs. C'est une limite frustrante dans le cas d'un média
interactif comme Internet. » (Haering, 2002). En effet, les échantillons - même s'ils
atteignent, par exemple en France, environ 10 000 panélistes pour le seul panel restant - ne
sont pas très extensibles car le coût de recrutement et de gestion des panels est très élevé.
Si les panels sont apparus à la fin des années 1990 comme la méthodologie la plus adéquate
pour mesurer l'audience d'Internet, cette approche reste aujourd'hui complémentaire des
mesures effectuées côté sites.
Ainsi, les mesures dites site centric, qui avaient été les premières mesures effectuées sur
Internet, connaissent un regain d'intérêt car leurs logiciels deviennent de plus en plus
sophistiqués et permettent aujourd'hui, outre la simple quantification, des approches de
qualification de l'audience. Les études de fréquentation de sites sont des comptages externes
réalisés par des organismes spécialisés qui installent leur propre marqueur sur les pages des sites
ce qui garantit la validité et la comparabilité de la mesure. Cette méthodologie présente
l'avantage d'enregistrer toutes les connexions sur les sites étudiés, qu'elles proviennent du
domicile, de l'entreprise ou d'un lieu d'accès collectif, assurant ainsi la fiabilité des résultats,
alors que les panels d'internautes sont encore largement résidentiels et plus difficiles à installer
dans le monde professionnel. Le marché du site centric se répartit entre huit sociétés dont les
outils ont été labellisés par Diffusion contrôle dont Cybermétrie (dispositif de Médiamétrie),
mesure collective et commune de fréquentation de sites, et d'autres sociétés spécialisées moins
importantes3. La spécificité du média Internet favorise en effet la construction de dispositifs de
mesure innovants qui combinent la technologie de l'informatique, via des logiciels de capture
des traces de plus en plus exhaustifs, et la technologie sociale du marketing. Ces sociétés
présentent des classements de sites par thématiques et leurs services répondent au montant de
la souscription du client, allant de la gratuité pour le comptage de la fréquentation des sites
personnels (moyennant un encart publicitaire de la société), à des services de plus en plus
onéreux selon les niveaux de statistiques et de conseils marketing demandés.
Ces dispositifs conjuguent d'une part du tracking avec des logiciels de capture qui
fournissent aux sites souscripteurs des données précises sur leur fréquentation, les
caractéristiques des visites du site, l'assiduité des internautes et, d'autre part, parfois du
profiling qui vise une qualification de l'audience. Les internautes ne sont pas identifiés
nommément ni selon leurs caractéristiques socio-démographiques, à l'inverse des panels.
La reconnaissance des visiteurs repose sur l'identification du navigateur de l'ordinateur
grâce aux cookies. Les techniques de profiling suivent par exemple le parcours des
internautes sur la toile pour saisir leurs centres d'intérêt et en déduisent de façon indirecte
et probabiliste le profil des utilisateurs des différents sites (leur âge, leur sexe, leurs goûts,
leur consommation). Une analyse sémantique des sites consultés est aussi parfois effectuée.
Le profiling débouche sur des recommandations qui orientent l'offre éditoriale mais aussi
bien sûr l'offre publicitaire. Là encore, Internet se distingue des médias de masse en
permettant une insertion dynamique des publicités qui peut varier en fonction de la cible
et en fonction de l'exposition préalable de l'internaute aux messages publicitaires. De plus,
les annonceurs peuvent a priori connaître l'efficacité de leurs campagnes avec les
indicateurs de pages vues avec publicité, les taux de clics sur les publicités voire les clics
through (publicité totalement téléchargée). Les serveurs de publicité via la technique du
marquage des messages publicitaires disposent donc de statistiques d'audience précises.
Si la traque des traces est la poule aux œufs d'or des mesures d'audience d'Internet,
d'autres sociétés sont spécialisées dans les études d'audience visant à connaître les publics
d'Internet. La méthode la plus utilisée est celle des questionnaires en ligne qui fournissent
des renseignements sur les types et les modalités d'usage d'Internet, mais aussi sur la
consommation et le mode de vie des internautes. Ces enquêtes en ligne peuvent être
effectuées par vague et de façon régulière par certains bureaux d'études, comme Ipsos ou
Novatris, qui disposent ainsi de bases de données conséquentes sur plusieurs milliers
d'internautes qu'ils qualifient de «panel» dans la mesure où ces derniers peuvent être
régulièrement sollicités. Ces grandes études multi-clients se doublent d'enquêtes ad-hoc
réalisées à la carte et accompagnées de conseil marketing. L'analyse des données de ces
enquêtes devient de plus en plus pointue et ciblée autour de la représentation de
l'internaute comme consommateur. Si les enquêtes en ligne présentent les avantages d'un
faible coût et d'une rapidité de mise en place, leurs limites résident dans la représentativité
des internautes qui acceptent de remplir les questionnaires en ligne car le volontariat des
réponses entraîne une sur-représentation des usagers les plus assidus et enthousiastes. De
plus, la participation à ces enquêtes ou à des jeux organisés pour la collecte de données
auprès des pratiquants d'Internet peut être motivée par des cadeaux... Malgré ces limites,
les enquêtes en ligne livrent beaucoup de données sur les usages d'Internet, données d'une
autre nature que les mesures d'audience.
Traqué sur le réseau des réseaux, suivi, «profilé», l'internaute serait devenu
transparent. En se branchant, il tisse lui-même les fils de sa reconnaissance (ses connexions
en fréquence et en durée, ses types d'utilisation d'Internet, ses sites favoris, ses trajectoires
sur la toile). Aucun média n'a jamais permis d'en savoir tant à l'insu même de son auditoire.
Les instruments de mesure nous livrent une avalanche inédite de chiffres pour décrypter les
comportements des utilisateurs. La puissance des logiciels de capture, le raffinement des
outils de traitement de données, la finesse des modèles d'analyse statistique produisent une
évaluationencontinudesactivitéssur
une telle mine de données ? Quel éditeur, annonceur ou publicitaire n'a-t-il ainsi désiré
accéder au repère et au calcul en temps quasi réel des comportements de son audience ?
Cependant ces nébuleuses de traces fournies quotidiennement ne livrent pas d'elles-
mêmes les principes de leur interprétation. L'énormité des corpus, la complexité des
données et des indicateurs exigent une simplification et une présentation qui puissent être
lisibles par les commanditaires. Les éditeurs de site sont ainsi submergés par les
représentations statistiques en ligne (principaux indicateurs d'audience, graphes de suivi
dans le temps, outils pour connaître la fidélisation de leur public et les liens affluents des
internautes venant sur leur site etc. ) et on observe une sous-exploitation des résultats. La
gestion de site appelle la formation d'analystes qui puissent lire et interpréter la
sophistication des recueils de mesure existants pour optimiser leur offre éditoriale, moyens
dont ne disposent que les gros sites.
Les études d'audience d'Internet se sont en effet mises en place plus rapidement que
pour les médias de masse et elles ont été d'emblée façonnées par le marketing. Certes la
gratuité des services offerts sur Internet n'est pas étrangère à cette approche commerciale et
publicitaire des études d'audience pouvant conduire à une réactivité immédiate de l'offre.
Cette tendance indique sans doute un recul des mesures d'audience globales au profit de
mesures de plus en plus sectorisées, qui offrent l'avantage de ciblages précis sur un site, une
catégorie de sites ou de thématiques, par exemple, mais qui perdent du coup en regard
distancié sur l'évolution d'ensemble du média où se repèrent les grandes tendances
sociétales. Ainsi les mesures d'audience ne sont-elles pas tant conçues pour la connaissance
des publics que comme outils stratégiques. Elles construisent un modèle de l'internaute
client qu'il s'agit d'identifier par son profil, voire par son identité, aux fins de lui adresser
des messages publicitaires ou de lui proposer des produits répondant à ses intérêts et à son
mode de vie. « La propriété caractéristique d'Internet est d'être un média interactif.
Parfaitement adapté au marketing direct, il est l'outil idéal pour identifier et solliciter, non
pas des cibles statistiques, mais des individus concrets. » (Chammings, 2002). La visée du
Néanmoins, les mesures et enquêtes d'audience d'Internet peuvent être aussi utiles aux
sciences sociales. Les dispositifs varient, comme nous l'avons vu, selon les méthodes, selon
les outils de collecte, de gestion et de rendu, mais les diverses représentations qu'ils nous
livrent cernent dans leur complémentarité diverses figures de l'internaute. La connaissance
des modes de construction de ces dispositifs permet de les utiliser et de les interpréter avec
les précautions requises. De plus, ces bases de données, une fois rendues accessibles,
peuvent faire l'objet de traitements statistiques complexes et d'analyses scientifiques,
comme le montre l'étude approfondie du « Suivi d'une cohorte d'internautes du panel
Netvalue France en 2000 »4. On ne saurait toutefois oublier que l'internaute mesuré est
réduit à un dénombrement d'actes (hits, clics... ), à des parcours sur Internet, mais on ne sait
rien de ses motivations, du sens qu'il investit dans ses pratiques, du rôle que remplit Internet
dans sa vie sociale. Car que nous offrent ces dispositifs si ce n'est une représentation des
internautes construite par un agencement d'outils informatiques, statistiques et marketing
qui produit des modèles de quantification et des procédures de catégorisation.
Le poisson internaute est donc malgré lui pris dans les filets du Net et - ainsi tatoué,
marqué, taggué - devient un produit. Pour autant, l'internaute glisse entre les mailles et sa
transparence a pour revers son opacité. Ecrasé sous des lignes de chiffres, il s'évapore. La
quantification excessive risque de ne plus produire que des modèles formels, des
segmentations de publics, des stéréotypes de comportements, des typologies hâtives qui ne
se ressourcent pas dans l'épaisseur du social. Tout comme Dominique Boullier (1987) l'avait
si bien analysé à propos de la télévision « l'activité télé déborde largement ce qui se passe
sur le petit écran », de même l'activité Internet se déploie aussi largement en dehors des
connexions. L'internaute-utilisateur construit par la mesure d'audience n'est pas
l'internaute-usager construit par les sciences sociales. Les internautes rangés dans des
profils, devenus «qualifiés» par le marketing, perdent de leurs qualités. Étiquetés via leurs
connexions, réduits à des enchaînements d'actes, les internautes demeurent opaques.
NOTES
1. Pour plus de précisions sur les méthodes et techniques d'audience d'Internet voir, partie 6, Internet, in
BRIGNIER et al, 2002, et HUSSHERR, F-X., NERON, S., 2002.
2. Pour ces indicateurs, voir le site du Centre d'études des supports de publicité [cesp. org].
3. Sociétés et outils labellisés par Diffusion Contrôle [ojd. com] en 2002; Stat SAS (eStat), Weborama SA (le
Weboscope), Médiamétrie (cybermonitor), At Internet (Xiti), ID. fr (wysistat), WebSideStory (Hit Box
enterprise), Nedstats SAS (sitestat), Telmédia (visiostats).
4. BEAUDOUIN, V, HOUSSEM, Α., BEAUVISAGE, T., LELONG, B., LICOPPE, C , ZIEMLICKI, C , (France Telecom),
ARBUES, L. (Net Value), LENDREVIE, J. (HEC), « Suivi d'une cohorte d'internautes du panel Net Value France
en 2000 », rapport HEC, NetValue, France Telecom R&D, 2002.
RÉFÉRENCES BIBLIOGRAPHIQUES
DANS LA TOILE:
ARAIGNÉE OU ABEILLE
Avec «Caïn qu'as-tu fait de ton frère?» ou encore «l'œil était dans la tombe et
regardait Caïn», la bible traduit une condition de l'être humain sous le regard de l'autre.
Prosaïquement, Jacques Brel fait écho à semblable préoccupation dans sa chanson «les
fenêtres... qui... nous suivent et nous poursuivent... jusqu'à ce que peur s'en suive jusqu'au
fond de nos draps ».
Naturellement dans le premier cas, s'agissant de Dieu, le regard est virtuel et procède
d'un face à face qui, rappelant l'assassin à sa culpabilité inextinguible, peut ne pas sortir du
champ des protagonistes. S'agissant de Brel, c'est le rappel de la curiosité de l'autre, celle-
ci non virtuelle. Dans ce dernier cas aussi le regard n'a pas de caractère universel et l'objet
de l'observation peut rester dans l'ignorance de la part de sa vie captée par le regard
inquisiteur, ou simplement curieux, du «voyeur». Dans le plus anodin des cas, le
rassemblement des regards de plusieurs fenêtres nourrit des rumeurs qui n'intéressent que
les amateurs de cancans. Moins anodine est la situation où un fait divers peut amener la
police à enquêter et rassembler ce qui n'était qu'objet de commérage. Et à l'autre extrême
de l'usage des parts de vie captées, c'est l'inquisition dont les ordres religieux n'eurent pas
l'exclusivité.
Avant-hier et jusqu'à la révolution industrielle, l'utilité à savoir sur l'autre était
cantonnée. Mauvaise et bonne curiosité visaient la connaissance d'informations sans
caractère marchand. Naturellement, le caractère non marchand n'enlevait rien à la cruauté
dans une situation qui voyait autrui savoir sur vous ce que vous ignoriez qu'il sût, et d'où il
le tenait. Cette situation a fondé une culture de l'abri d'autrui avec les trésors d'invention
déployés par nos ancêtres pour voir sans être vus. Si l'inventaire de ces trésors est infaisable,
les capacités respectives à les mettre en œuvre établissaient une hiérarchie dans laquelle la
plus grande transparence équivalait à la plus grande vulnérabilité. Celui sur lequel tout était
su n'avait aucune marge de manœuvre alors qu'aux antipodes se situait celui dont les
ressorts de l'action n'étaient pas dévoilés: «le tireur de ficelles». Entre transparence totale
et opacité complète s'est, tout au long de l'histoire, déployée toute la diversité des
comportements humains, pour le meilleur et pour le pire.
Avec l'entrée dans l'ordre industriel marchand, une raison supplémentaire impérieuse
et nouvelle de savoir sur autrui est apparue. Progressivement, le lien entre le producteur et
le consommateur est devenu moins dissymétrique du fait de l'éloignement de la situation de
rareté qui donnait la prééminence à l'offre. Quand il y a abondance, le rapport s'inverse
entre les protagonistes de l'échange, marchand ou non, avec le privilège à celui qui peut
choisir entre différentes offres. Il revient à tout offreur de se différencier pour diriger le
choix vers lui. S'impose naturellement la nécessité de la connaissance la plus détaillée de
l'acheteur éventuel pour se porter à sa rencontre et faire marché avec. Tout exagérée qu'elle
soit, la notion de « consommateur roi» manifeste cette situation ou la dissymétrie du rapport
s'est déportée. Affleure l'idée que, pour le roi, rien n'est trop beau. Il convient d'accéder à
ses désirs qu'il faut connaître.
Pour connaître encore et toujours plus, des techniques n'ont cessé d'être inventées,
avec le secours des sciences humaines. Sondages et enquêtes d'opinion visent tous le même
objectif avec des moyens qui n'ont cessé de se sophistiquer. Mais pareilles au Larousse qui
sème à tous vents avec beaucoup de déperdition, les techniques de sondage «pré-Internet»
recueillent des éléments collectifs d'opinion alors que l'efficacité la plus grande résulterait
aussi de l'approche des comportements et pratiques de chacun.
A supposer même que cette approche individuelle fut réalisée avec les techniques pré-
Internet, l'importance de l'arsenal nécessaire à sa bonne fin en eut altéré la rentabilité et
biaisé le résultat, du fait de la rétivité engendrée par «l'intrusivité» des moyens.
La génération des techniques dont Internet est emblématique permet de s'affranchir
des limites de la panoplie des outils de la génération précédente et d'approcher la
connaissance la plus fine des pratiques individuelles. Cela se fait le plus naturellement grâce
à la trace laissée par chaque transaction sur le réseau. Dès lors, toutes les traces rassemblées
sont susceptibles de dévoiler l'individu comme jamais auparavant. Pour ce dévoilement,
existent bien sûr les traces passives des actes banals de la vie domestique et professionnelle.
Existent aussi les traces laissées volontairement afin de bénéficier d'une commodité ou d'un
service particulier. Ces services et commodités ont vocation à concerner toutes les facultés
de l'être humain soucieux de se simplifier la tâche ou d'être tout simplement distingué des
autres. Appliquée au quotidien, cette perspective peut affecter tous les actes du travail et de
la vie ainsi facilités.
Se faciliter la vie joue comme un leitmotiv. En son nom, il est naturel de délivrer des
informations personnelles ciblées pour permettre la meilleure satisfaction de tel ou tel
besoin. C'est ainsi que le commerçant attitré disposera d'informations sur le genre de vie
pour offrir les meilleurs produits pendant que le médecin conservera toutes données
médicales pour être plus prompt à intervenir au cas où... Le banquier fera de même
comme tous ceux avec lesquels quiconque a affaire. Ici l'imagination peut se laisser libre
cours et l'esprit le plus inventif ne saurait concevoir toutes les applications justifiant
qu'autrui dispose d'informations pour le meilleur service à quiconque. Parmi d'autres, les
promesses de la formation en ligne ne seront-elles pas directement conditionnées par la
connaissance la plus détaillée de l'état intellectuel de l'apprenant... pour l'efficacité par
l'intrusivité sans limite. De proche en proche se trouvent dévoilés des éléments de
fonctionnement interne de l'individu inaccessibles jusqu'alors. La formation en ligne
encore appelée «e-learning» ouvre la voie à la mise au jour du secret du fonctionnement
intellectuel avec le risque sans pareil de la transparence. Ici c'est pour la bonne cause que
l'individu se dévoile. Ce faisant, il ouvre la voie qui pourra permettre ce dévoilement pour
d'autres causes par exemple pour discriminer entre des salariés au vu de ce qui sera su de
leur aptitude à raisonner.
En final des données concernant chacun peuvent stationner dans tous les lieux qu'il
fréquente.
Hier déjà, cela existait dira-t-on ! Évidemment mais à la différence qu'elles restaient
éparses faute de facilité à les réunir. C'est l'ordinateur qui a changé la donne et ouvert la
possibilité de réunir toutes les informations concernant quiconque. Au cours des années
1980, l'idée de faire converger sur l'identifiant le plus universel de chacun le maximum
d'informations le concernant naquit. En ce temps-là, il fallait que les informations soient
matériellement réunies. Désormais la technique récente et le réseau facilitent les choses et
permettent l'automatisation complète de tout processus de collecte et de traitement des
données.
Parmi d'autres, certains exemples permettent d'approcher les questions nouvelles nées
des nouvelles fonctionnalités des techniques en réseau.
- La diffusion sur Internet de fichiers de membres d'obédiences maçonniques, internes
à ces groupements, à l'insu des personnes concernées. Plus de 3 000 noms et coordonnées
ont été diffusés sur Internet, en infraction avec l'article 31 de la Loi du 6 janvier 1978 qui
interdit la mise en mémoire ou la conservation de données nominatives qui font,
directement ou indirectement, apparaître notamment les opinions philosophiques des
personnes. Ainsi, une telle mise en ligne mettait l'auteur de la divulgation en infraction avec
les dispositions de la loi et, tout particulièrement, avec l'article 226-19 du Code pénal qui
sanctionne le fait, hors les cas prévus par la loi, de mettre ou de conserver en mémoire
informatisée, sans l'accord exprès de l'intéressé, de telles données. Seules les données
manifestement rendues publiques par les personnes concernées font exception à cette règle.
- La diffusion sur Internet des décisions de justice. Les audiences des cours et
tribunaux sont presque toujours publiques et les jugements et arrêts sont communicables à
toute personne qui en fait la demande. Pourtant la compilation des décisions de justice sous
la forme de bases de données et leur diffusion sur Internet soulèvent des interrogations
particulières au regard de la protection des données personnelles. En effet, des risques
particuliers s'attachent à la libre diffusion sur Internet de décisions de justice mentionnant
l'identité des parties au procès. Par la seule mécanique des moteurs de recherche, c'est un
casier judiciaire universel, permanent et ouvert à tous, auquel on aurait à faire face, pouvant
conduire à une «peine d'affichage numérique».
- L'Internet et les mineurs. L'utilisation d'Internet par les enfants constitue
indéniablement une source de préoccupation importante pour les parents et les éducateurs,
conscients des dangers auxquels les enfants peuvent être confrontés sur le réseau du fait des
contenus qui peuvent être illégaux ou de nature à les troubler (pornographie, racisme,
violence physique et psychologique), de l'existence de messageries (avec la possibilité de
contacts directs avec des tiers virtuels) ou du caractère marchand et commercial des sites.
L'inquiétude des parents et éducateurs se trouve d'ailleurs souvent renforcée par leur
manque de maîtrise des techniques et leur sentiment de ne pas être en mesure d'exercer leur
autorité sur les enfants qui eux surfent avec une grande aisance sur la toile. Un aspect
particulier concerne l'utilisation des enfants pour obtenir de manière déloyale des
informations sur eux et leurs proches. En effet, la rapidité des échanges, l'interactivité, voire
l'aspect ludique du réseau Internet font des enfants des cibles idéales pour se procurer des
données toujours plus nombreuses et plus précises et ainsi constituer, à l'insu de leurs
parents et sans que les enfants en aient eux-mêmes conscience, des bases de données très
performantes sur l'environnement social et économique des familles, qui sont susceptibles
de porter atteinte à leur vie privée.
L'image de la toile apparaît ici et selon que vous êtes araignée ou abeille...
L'araignée tisse et retisse toujours reliant les fils qu'elle élabore et organise en réseau.
Elle est au cœur de la toile qu'elle agence à son gré.
L'abeille est piégée par la toile qui l'emprisonne. Le voudrait-elle qu'elle ne pourrait se
dépêtrer car elle n'a aucune intelligence du réseau et de ses composants. Prise dans une toile
d'araignée, elle est d'abord entravée et puis meurt.
Alors abeille ou araignée, telle apparaît l'alternative. Être abeille postule la plus grande
transparence avec l'externalisation du pilotage de l'individu, consciente ou non. Ce qui est
su de lui l'identifierait et ne lui parviendraient que les signaux choisis par d'autres. Le risque
d'instrumentation est ici central avec la personne traitée en objet.
Prendre le parti de l'araignée est aux antipodes avec l'intelligence des réseaux qui le
concernent par chacun alors sujet.
Poursuivant l'image qui situe araignée et abeille aux antipodes l'une de l'autre,
l'observation conduit à constater que les êtres humains se distribuent sur la trajectoire qui
rejoint l'une et l'autre.
Côté abeille se situent tous ceux qui sont empêtrés par la technologie, parfois jusqu'à
l'impotence. Côté araignée se trouvent les virtuoses qui sont comme poissons dans l'eau et
tirent le maximum de toute technique mise à leur disposition.
La capacité à tirer le plus des techniques nouvelles est pour partie affaire de génération.
En son temps déjà Michelet avait pointé la question dans sa leçon du 22 mai 1839, au
Collège de France: «les plus grands esprits d'il y a 200 ans ne comprendraient rien aux
choses d'aujourd'hui tandis qu'il suffit à l'enfant de naître pour être initié à tous les secrets
de la vie contemporaine. C'est là l'utilité de la mort. Elle simplifie les questions en détruisant
l'impuissance de comprendre, en ménageant sans cesse des êtres nouveaux pour les choses
nouvelles ».
Parler de notre temps à l'aune de Michelet invite d'abord à relativiser l'avis des gens
«installés» au moment où une nouvelle technique naît. Seuls ceux qui naissent au même
moment sauront s'en emparer. Si cela vaut à l'évidence pour le maniement des outils, cela
peut aussi aider à raisonner à l'endroit de la maîtrise de leurs conséquences. L'invite est alors
à tenir l'équilibre entre les catastrophistes pour lesquels tous sont abeilles inextricablement
empêtrées dans la toile et les béats qui ne se voient et voient tout le monde qu'araignées.
L'invite est aussi à laisser la technique produire tous ses effets, assurés que ceux-ci ne peuvent
jamais être totalement prédéterminés. L'expérience apprend qu'il n'est pas de techniques que
l'on sait durablement entraver et dont on ne trouve des effets au plus loin de leurs berceaux.
Alors semblable situation dans laquelle l'incertain règne appelle l'individu à l'adoption
d'une posture de vigilance individuelle. Cette posture nourrit le double souci de la virtuosité
pratique dans l'usage des techniques et de la conscience lucide de l'externalisation
d'informations qui exposent chacun au regard, donc à l'influence du dehors.
Sur la virtuosité pratique, la cause est entendue avec les dires de Michelet et ce qu'il en
faut déduire. La conscience lucide interpelle chacun dans la donne nouvelle de
surexposition qui risque d'altérer sa liberté individuelle.
Instruire de la réalité s'impose d'abord, pour inviter à la mesure, dans l'exposition des
données personnelles. L'école doit jouer son rôle. Au même titre qu'à lire, écrire et compter,
elle doit désormais apprendre le code de la société nouvelle et instruire de la nécessité et des
moyens de s'y protéger. Sa protection est d'abord l'affaire de chacun. «Protège-toi, le ciel
te protègera. » est-on tenté d'avancer détournant là une formule de textes connus.
Naturellement, la protection est l'affaire de la collectivité qui doit établir le code de la
route des autoroutes de l'information.
LA MESURE D'AUDIENCE
DES NOUVEAUX MÉDIAS:
UNE BONNE RÉPONSE
MAIS QUELLE EST LA QUESTION ?
Les mesures d'audience sont à l'économie des médias ce que les mots sont au langage.
Malgré leur apparente scientificité, ces chiffres bruts et parfois brutaux n'ont guère de sens
objectif en eux-mêmes mais seulement replacés dans un contexte plus général. Contexte qui
peut, à son tour, être décrit autour de trois pôles: la qualité technique du dispositif de
mesure, la pertinence des concepts mesurés, enfin l'insertion dans un processus de prise de
décision. Ce dernier point est essentiel. Ainsi, dans les chaînes généralistes, il y a toute une
écologie de la donnée d'audience qu'ignorent allègrement les critiques primaires de la
«dictature de l'audimat». Un même chiffre lu par la régie publicitaire, la direction des
programmes, les financiers, l'équipe de l'émission n'aura pas le même sens, et une bonne
partie de l'activité professionnelle des «gens de télé» consiste en des arbitrages complexes
entre ces différentes visions d'un même chiffre. À l'inverse, dans le cas des chaînes de
télévision thématiques comme dans celui des sites Web de contenu, c'est justement la
manière dont les mesures d'audience s'insèrent dans les processus de décision
professionnels qui pose le plus de problèmes. Leur écologie est particulièrement pauvre. De
ce fait, une dictature du MédiaCabSat1 serait bien plus pernicieuse que celle, prétendue, de
l'Audimat.
Deux exemples tirés de l'actualité française de l'été 2003 peuvent l'illustrer. Quelques
jours après la publication du MédiaCabSat du premier semestre 2003, on apprenait que la
survie de la chaîne TV Breizh était menacée, ses résultats d'audience stagnant à 0, 4 % de
part de marché. Le PDG de TF1, principal actionnaire de la chaîne, avait en effet demandé
qu'elle double son audience au premier semestre 2003. Presque simultanément, à la fin du
mois de juin, c'est le site Web du journal L'Equipe qui annonçait une réduction du tiers de
ses effectifs. Mais cette fois-ci l'audience n'était pas en cause: le site de L'Équipe, avec
8 millions de visites en juin 2003 était au contraire le troisième site de contenus français
derrière ceux du Monde et de TF1. Depuis sa création trois ans auparavant, le taux de
croissance de l'audience du site était de plus de 170 % par an. Mais les recettes publicitaires
étaient insuffisantes.
Il est également intéressant de noter que les chaînes thématiques françaises, qui
pathétiquement saluent chaque vague de mesure d'audience du MédiaCabSat par une salve
de communiqués de presse triomphants, ne tirent de la publicité qu'un sixième de leurs
recettes, le reste provenant des redevances versées par les distributeurs2. Elles ont donc
beaucoup moins à gagner qu'à perdre à mesurer leurs performances principalement sinon,
en fait, uniquement par ces données d'audience. La quasi-totalité des quelques 90 chaînes
françaises de ce type est en effet déficitaire, bien qu'elles représentent près de 10 % de
l'audience globale de la télévision, et plus du tiers dans les seuls foyers où elles sont reçues.
La situation des nouveaux médias est donc apparemment très déprimante: une
mauvaise mesure d'audience peut les condamner, mais une forte audience ne conduit pas
forcément à des recettes suffisantes. LCI, par exemple, enregistrait en 2002 un déficit
d'exploitation de l'ordre de 7 millions d'euros 3 . Un tel constat aurait donc dû conduire à la
disparition de l'ensemble de ces bébés-médias aussi économiquement mal nés. Et pourtant,
c'est bien l'inverse qui se produit: le nombre de chaînes thématiques a même tendance à
croître, et l'audience des sites Web d'informations par exemple, dont aucun n'a fermé lors
de la grande révision des stratégies Internet des médias en 2001, croît de 70 % par an. En
apparence donc les mesures d'audience n'ont pas prouvé qu'elles pouvaient dynamiser les
recettes des nouveaux médias, mais elles peuvent leur coûter la vie en incitant les
actionnaires à se retirer.
Il est sans doute utile de rappeler cette banalité: l'audience, et plus généralement la
quantité d'usage effectif d'un bien ou d'un service, n'est qu'une des manifestations possibles
de son utilité. Les éditeurs d'encyclopédies le savent: une majorité de leurs clients ne se
servent pratiquement jamais de leur produit, mais cela n'en empêche pas une grande partie
de se procurer l'édition suivante. Il y a toute une catégorie de biens et de services dont
l'utilité suprême est même de ne pas servir: les airbags dans une voiture, les contrats
d'assurances, les dispositifs de sécurité. On ne songerait pas à mesurer le succès des airbags
à leur «audience». Il y a enfin, dans les déterminants d'une consommation, achat d'un
équipement ou souscription à un service, une part essentielle dont on chercherait en vain la
trace, ensuite, dans l'observation des pratiques réelles. Sinon, il ne se vendrait pas en France
autant de véhicules tout-terrain et de voitures dépassant les 200 km/h.
Banalité. Pourtant certains actionnaires des chaînes thématiques semblent l'oublier.
C'est peut-être en raison de la proximité apparente des chaînes thématiques de télévision
avec les chaînes hertziennes. La paresse intellectuelle consiste à dire que puisque dans les
deux cas, c'est de la télévision, la «dictature de l'audimat» des unes peut bien servir de
principe de réalité aux autres. Mais qu'on se souvienne des déboires de l'exploitant du câble
parisien qui, ayant constaté que l'audience de CNN était infime parmi ses abonnés, décida
de l'ôter du service de base. Les réactions et notamment les menaces de désabonnement
furent violentes. «Je paie pour disposer de CNN, non pour la regarder. » semble avoir dit la
demande, avec véhémence.
C'est un phénomène bien connu dans la presse écrite. Certaines rubriques semblent
peu lues, voire parfois pas du tout si l'on suit les conclusions des études, mais si le journal a
le malheur de les supprimer, il perd des lecteurs. Dans la plupart des médias l'audience
globale n'est pas la somme des audiences partielles. Sinon, on pourrait se contenter de les
faire gérer par leur régie publicitaire.
Or, pour regarder une chaîne thématique donnée, il faut s'être préalablement abonné
à un service plus global, bouquet de télévision par satellite ou réseau câblé. C'est à ce
moment seulement que le client effectue une transaction, et il le fait en fonction de l'intérêt,
pour lui et ses proches, de disposer d'un bouquet de services. S'il ne se sert ensuite jamais
ou très rarement de certains de ces services, il va certes avoir une plus forte probabilité de
résilier son abonnement, mais ce n'est pas sûr. Et sa décision finale sera fonction non d'une
évaluation quantitative de sa consommation effective mais d'une plus ou moins grande
satisfaction globale.
Il faut souhaiter aux chaînes thématiques, et à ceux qui y travaillent, que toutes les
leçons de la crise des services du Web de 2000-2001 soient tirées. Des auteurs américains
avaient, dès 19974, attiré l'attention des investisseurs sur le fait que l'économie d'un site Web
ne reposait pas principalement sur l'audience mais sur deux paramètres: la satisfaction des
utilisateurs d'une part, la correspondance entre les coûts réels et les recettes à court terme
d'autre part. De nombreux sites à forte audience mais très déficitaires (celui du magazine
Playboy par exemple) coexistaient avec de «petits» sites rentables, la plupart du temps
consacrés à des sujets très pointus. Dans un contexte de croissance rapide du nombre
d'internautes, les données d'audience étaient trompeuses: les très nombreux nouveaux
arrivants avaient tendance en découvrant le Net à tester les noms de domaines très connus,
leur assurant donc une forte fréquentation. Une proportion variable d'entre eux étaient
déçue et ne revenait plus. Mais comme ils étaient en permanence remplacés par des
internautes plus débutants encore, ce phénomène était masqué. En revanche certains sites
spécialisés, même mal référencés par les moteurs de recherche, captaient peu à peu un
public restreint, mais fidèle, autorisant un modèle économique cohérent.
Un second aspect du problème résidait dans le coût d'acquisition d'un nouveau visiteur.
Au plus fort de la «bulle Internet» il était courant de lire sous la plume d'analystes financiers
réputés qu'un internaute «valait» plus d'un millier de dollars. Cela voulait dire qu'il n'aurait
pas été irrationnel, pour attirer des investisseurs, de payer plusieurs centaines de dollars un
quidam, simplement pour qu'il vienne cliquer sur un site. L'absurdité de cette proposition fait
qu'elle paraît aujourd'hui à peine crédible, mais elle était très répandue à la fin de 19995. Sans
aller jusqu'à payer les internautes directement, certains sites, y compris de tout petits services
animés par des start-ups, se mirent à dépenser des fortunes en campagnes publicitaires. Un
internaute nouveau coûtait alors, en publicité, jusqu'à un siècle de recettes publicitaires.
Le problème principal était là encore le système de prise de décision. Le succès auto-
proclamé de ce nouveau média avait attiré de nouveaux «décideurs», en grande partie
incompétents, et qui n'écoutaient pas les remarques prudentes des spécialistes. Rappeler les
analyses américaines sur le fait que l'audience n'était pas le critère et qu'il fallait
proportionner les dépenses aux recettes actuelles, vous classait immédiatement dans les
passéistes incapables de comprendre les mécanismes de la «nouvelle économie». Et bref, à
n'importe quel prix, il fallait que les sites aient «de l'audience». C'est dans ce but que les
sites Internet devinrent, en 2000, le premier secteur annonceur sur le marché publicitaire
français. Situation ridicule pour un média sensé se financer par la publicité, cette année-là,
les dépenses du secteur en publicité représentèrent environ 30 ans de recettes. Et encore:
ces recettes étaient elles-mêmes largement composées des dépenses publicitaires des autres
sites6. Quel fut le résultat de cette course à l'audience dispendieuse? Les recettes
publicitaires du Web... diminuèrent en 2001. La progression de l'audience ne fut pas
significativement différente de celle des années précédentes. Mieux encore, la plupart des
sites qui avaient suivi une stratégie de croissance rapide de leur audience (le portail Vizzavi,
les sites féminins, les sites du groupe PPR par exemple) furent des échecs spectaculaires,
alors que ceux qui s'en tirèrent le mieux en audience (Le Monde, TF1, Libération, L'Équipe)
se contentèrent de l'autopromotion sur leur média de base7.
En définitive, l'incompétence des dirigeants fut nourrie non seulement par celle des
milieux financiers mais aussi par une erreur plus « industrielle », la confusion entre audience,
audience rentable, et dépenses rentables pour accroître l'audience. Le système intellectuel
pour accueillir les données d'audience n'existait pas et le résultat en fut catastrophique.
Mais les éditeurs de contenus et les distributeurs ont tout intérêt à développer ensemble
un corps de connaissances, au sein duquel les chiffres mesurant l'audience auraient toute leur
place, qui aiderait à prendre les bonnes décisions de lancement, de financement voire de
maintien ou de suppression des services. Pour cela il faut tenir compte d'un ensemble de
paramètres dont certains pour l'instant ont la faiblesse d'être qualitatifs ou connus d'une
On peut par ailleurs s'amuser de la notion de «part d'audience», très vite confondue
avec une «part de marché», appliquée aux chaînes thématiques. Les premières vagues du
MédiaCabSat se gardaient bien de les indiquer, ce sont les publicitaires qui les ont
demandées (et même recalculées), et elles sont aujourd'hui communiquées largement. Bien
entendu, la mauvaise monnaie chassant la bonne, elles n'ont pas tardé à occulter les données
de pénétration ou d'audience en cumulé, pourtant beaucoup plus pertinentes ici. Car la
«part de marché» n'a pas la même portée pour apprécier les performances de 90 chaînes
thématiques hétérogènes que pour comparer 5 chaînes généralistes relativement proches. Il
faut avoir peu de bon sens arithmétique pour s'étonner que la part de marché moyenne des
thématiques soit «proche de zéro», alors qu'elles sont une centaine. Enfin, s'agissant de
chaînes rediffusant beaucoup de «modules», la part de marché globale (sur six mois!)
présente à peu près le même contenu d'information que la part d'audience moyenne des
généralistes sur les six dernières années.
Il ne serait pas inutile par exemple d'accompagner les données d'audience des chaînes
thématiques d'un baromètre, neutre ou indépendant, de satisfaction ou de contribution à
l'abonnement. Ce n'est pas un sujet hors de la portée des instituts de sondage. Il ne serait pas
inutile non plus, dans la présentation des résultats, de tenir compte de l'ancienneté de la
chaîne et de sa plus ou moins grande exposition sur le bouquet, peut-être simplement en
créant des grandes catégories dans la numérotation. Il est un peu difficile de soutenir par
exemple que la part de marché d'une chaîne occupant le canal 189 du bouquet est comparable
à celle du canal 9. Ce problème ne se pose pas pour les grandes chaînes «historiques», encore
qu'on a très longtemps soutenu que TF1 devait ses résultats d'audience en partie à son
numéro 1. De même les données concernant les sites Web devraient faire apparaître le public
régulier d'un site, à côté des données globales tous internautes confondus.
Cette réflexion serait d'autant plus utile que de nombreux services tirent leurs
ressources et leur légitimité de facteurs extérieurs au marché. Ils sont dans une économie
dérivée: par exemple les sites Web des médias ne pourraient pas exister sans la prise en
charge des coûts de contenus par leur média d'origine. De la même manière, la Chaîne
parlementaire est un dispositif de service public dont la mesure de l'audience n'est pas
vraiment utile, sinon pour alimenter des polémiques destinées à en changer les dirigeants.
On a également beaucoup dit que la chaîne LCI était aussi, et peut-être d'abord, un
instrument du lobbying de TF1. Ce type de services est ainsi en grande partie à l'abri des
rigueurs de la sanction de l'audience. À l'inverse, des thèmes plus populaires que la
politique, et moins protégés, ont besoin d'un système de mesure et d'analyse pertinent, dans
lequel les enjeux et les habitudes de pensée des milieux publicitaires ne devraient pas peser
plus que leur poids économique réel: au mieux 16%.
NOTES
1. Enquête de Médiamétrie qui mesure par vagues de plusieurs mois l'audience des chaînes du câble et du
satellite.
2. Selon le Guide des chaînes thématiques publié conjointement par le CSA, le CNC et l'ACCeS en janvier 2003.
3. Source: rapport de gestion de TFl pour 2002.
4. John HAGEL et Arthur ARMSTRONG, Net Gain, Harvard, Harvard Business School Press, 1997.
5. Voir par exemple Les Business Models de la Nouvelle Économie, Stratégies de développement pour les
entreprises de l'Internet et du secteur high tech, par Bernard MAÎTRE et Grégoire ALADJIDI, Paris, Éditions
Dunod, collection «Stratégies et Management».
6. Par exemple, en 2001, le site [aufeminin. com], pourtant considéré comme un modèle de réussite avait des
recettes publicitaires de 2 millions d'euros, mais des dépenses de 3 millions.
7. Ainsi, Jean Hornain, le directeur du site de L'Équipe déclarait avec clairvoyance, dès 2001: «Nous avons
multiplié par quatre l'audience du site (entre 2000 et 2001). Toutefois, je tiens à préciser que nous ne faisons
pas une course à l'audience car elle ne se traduit pas en chiffre d'affaires... Enfin, nous avons investi de
manière raisonnable et avec une communication proche de zéro» (Source: Journal du Net).
Éric Sautedé
Anne-Marie Laulan
Éric Sautedé
Institut Ricci de Macao
Le filtrage des données disponibles sur l'Internet chinois, aussi bien sur le Web que sur
les forums de discussion, est également pratique courante en Chine. Tous les sites
commerciaux chinois pourvoyeurs d'informations ou «d'espaces publics d'expression» la
pratiquent. Les cybercafés eux-mêmes sont censés installer des logiciels qui mémorisent
l'activité d'utilisateurs qui doivent auparavant donner une preuve d'identité aux gérants des
établissements. Les grandes campagnes de remise en ordre des cybercafés du printemps
2001, du printemps et de l'été 2002, semblent avoir d'ailleurs largement porté leurs fruits
dans ce domaine puisque ne subsistent effectivement en Chine que les cybercafés s'étant
conformés à des réglementations draconiennes en matière de sécurité et d'administration.
Les méthodes de filtrage sont d'autant mieux connues que la technologie utilisée a été
«vendue» par de grandes sociétés étrangères, comme Cisco Systems (américaine) ou Global
One (une joint venture de Sprint, France Telecom et Deutsche Telekom), qui en ont
consciemment ignoré l'usage final6. L'existence des « renifleurs de paquets de données » qui
permettent d'identifier les sites étrangers «subversifs», de filtres d'e-mails et des «grands
inquisiteurs» {big marnas) utilisés sur les forums de discussion est aujourd'hui largement
avérée et a même été directement reconnue par les autorités chinoises lorsque, en
octobre 2002, un journal pékinois s'est fait l'écho de «fuites» défaillantes dans certains
systèmes de filtrage7. Une enquête récente de Reporters sans frontières réalisée avec l'aide
d'une journaliste chinoise de la BBC a également très bien montré que les forums de
discussion hébergés par les grands portails chinois — [sina. com. cn, sohu. com,
yahoo. com. cn] ou [tom. com] — étaient l'objet de l'attention continue des censeurs8.
Plusieurs dispositions réglementaires complètent le dispositif de contrôle. Elles
s'adressent autant aux utilisateurs qu'aux pourvoyeurs d'accès et de contenu. Il serait trop
long de retracer ici toute l'histoire de ces textes, dont les premiers remontent à février 1996.
Retenons simplement que les plus importants d'entre eux sont: l'arrêté sur la gestion des
contenus sur l'Internet, adopté en septembre 2000 par le Conseil des affaires de l'Etat,
lequel interdit aux pourvoyeurs de contenu — leur en imputant ainsi la responsabilité — la
dissémination d'informations que le gouvernement juge dommageables et « malsaines » et le
règlement sur les services d'information sur l'Internet, promulgué en novembre 2000, qui
définit les contenus prohibés sur les forums de discussion et les sites d'information chinois
et restreint la diffusion d'information provenant des médias étrangers (en somme, toutes les
informations pouvant entrer dans la catégorie large et floue du «secret d'Etat»). Par
ailleurs, depuis l'été 2001, tous les usages déviants de l'Internet ont fait l'objet d'une
«criminalisation», puisqu'ils ont été mis en conformité avec les articles du code pénal se
rapportant aux «crimes mettant en danger la sécurité nationale». D'autre dispositions au
statut légal plus ambigu sont également en vigueur, comme la charte de bonne conduite et
d'autodiscipline imposée, en mars 2002, par l'Association chinoise de l'Internet aux grands
portails d'information et aux moteurs de recherche — 130 signataires dont Yahoo ! Chine.
autorités publiques génère dans son sillage l'autre grand terme de cette perspective panoptique:
l'autocensure préventive pratiquée par les opérateurs commerciaux chinois... et les utilisateurs.
Globalement, l'Internet a été soumis aux mêmes restrictions que la presse écrite
s'agissant de la crise du SRAS et astreint à la conformité exigée par les organes de
propagande du Parti communiste chinois. À l'exception de la petite fenêtre de floraison
d'une relative liberté virtuelle entre les 4 et 17 avril, période d'hésitation au cours de laquelle
la nouvelle équipe dirigeante emmenée par le président Hu Jintao et le Premier ministre
Wen Jiabao s'apprêtait à lancer sa campagne nationale de lutte contre le mensonge et
l'épidémie, seule la circulation de messages subversifs par téléphonie mobile, les fameux
textos ont véritablement surpris le gouvernement chinois et les observateurs étrangers, par
leur volume et la liberté de ton qu'ils affichaient. Tout naturellement, dans un contexte de
désinformation totale et parce que l'épidémie de SRAS a d'abord eu pour principal foyer la
province méridionale riche du Guangdong, puis Pékin, les échanges de textos ont été
particulièrement importants en volume, puisque c'est là que l'on trouve les plus forts taux
d'équipement en téléphonie mobile, avec des taux de pénétration dépassant les 60 %, c'est-
à-dire proches de la plupart des pays développés.
Pourtant, autant les messages postés que la nature du médium doivent nous conduire à
la plus grande prudence s'agissant de la place de ce moyen de communication amené à jouer
un rôle de substitution pour lequel il n'a a priori aucune vocation. En effet, communication
ne veut pas dire information et si l'on veut bien admettre que les échanges de textos
façonnent de nouveaux types de sociabilité, ils demeurent un outil de communication
interpersonnelle, privée, bénéficiant juste d'une immédiateté, d'une capacité de dispersion et
d'une portabilité inégalées. En dehors de cette sphère privée élargie, il n'y a absolument pas
de hiérarchie ni de valeur intrinsèque de l'information. La preuve en est que si les échanges
massifs de textos dans le Guangdong12 en février ont conduit à des mouvements de foules se
ruant sur la pharmacopée chinoise ou le vinaigre pour combattre la maladie inconnue et
inavouable, ils n'ont pas pour autant précipité à eux-seuls une prise de conscience nationale.
S'agissant du contenu, cela s'est encore vérifié à Pékin en avril, les fausses rumeurs
l'emportaient largement sur les vraies et pour quelques messages incisifs à l'égard des
autorités, la plupart se contentait de rapporter des cas de SRAS avérés ou non. La fuite des
Pékinois de souche ou d'adoption vers la campagne a certainement été accélérée par
l'échange de textos, notamment lorsque ceux-ci annonçaient que l'armée chinoise allait
par le ministre de la santé Zhang Wenkang, selon qui l'épidémie de SRAS était
«effectivement sous contrôle», Jiang Yanyong envoya le lendemain un message
électronique à la télévision centrale de Chine et à la chaîne hongkongaise Phoenix, dans
lequel il accusait Zhang de mentir et révélait que dans les seuls hôpitaux qu'il connaissait
à Pékin, il y avait au moins 100 cas de SRAS (contre 12 officiellement) et que pas moins de
six personnes en sont décédées. Son e-mail n'eut initialement aucune suite en Chine, mais
il fut transmis à divers organes de presse étrangers et dès le 8 avril, ces propos étaient repris
par l'hebdomadaire allemand Der Spiegel et le 9 avril sur le site Web du grand
hebdomadaire américain Time. Les déclarations de Jiang Yanyong connurent ensuite un
réel succès en Chine même, et furent largement distribuées par e-mail et postées sur les
BBS des universités. Cette précipitation des événements est hautement représentative tant
du potentiel que des limites de l'utilisation des communications modernes en matière
d'information: les renseignements détenus par Jiang Yanyong qu'il aurait d'ailleurs pu
transmettre aussi bien par téléphone ou par télécopie, ne valent que parce qu'ils ont été
avancés par un locuteur respecté et qu'en rencontrant un large écho dans la presse
étrangère, ils se trouvent propulsés au rang d'information. À n'en pas douter, l'inquiétude
du gouvernement a été principalement de voir cette attitude de «cavalier seul» se
multiplier, moins que d'assister à la mise en contradiction de la version officielle sur des
forums de discussion nécessairement restreints et bien vite nettoyés. Une fois encore, le
projet et sa légitimité passent avant le médium.
L'analyse de l'état du système de santé en Chine, notamment en milieu rural, que de
nombreuses études jugent aujourd'hui déliquescent et hautement inégalitaire puisqu'il est
payant, dépasserait largement le cadre de cet article. Le rappel de quelques données
chiffrées permet néanmoins de se faire une idée de la «modernité à la chinoise». Il y avait,
en 2001, 2, 1 millions de médecins en Chine, soit, selon les chiffres officiels, six
médecins pour 100 000 habitants. En France, au 1er janvier 2002, il y avait 237 470 médecins,
soit 330 médecins pour 100000 habitants. Si l'on se tourne à présent du côté de la
téléphonie mobile, il y avait, en 2001, 206 millions d'abonnés à une ligne mobile en Chine
et 38, 6 millions en France. Les taux de pénétration étaient respectivement de 16% et de
64, 7 %. S'il faut se garder des conclusions hâtives, il n'en demeure pas moins, n'en déplaise
aux tenants d'une vision banalisée de la modernisation chinoise, que lorsqu'il s'agit d'un
«service commercial» éminemment moderne et rentable, la Chine se situe dans un rapport
de 1 à 4 comparée à un État développé tel que la France. En revanche, quand il s'agit d'un
«service public de base», tel que la santé, le rapport passe de 1 à 55 ! L'on se retrouve dès
lors dans un paradoxe remarquable où la population urbaine de Chine peut facilement
communiquer et échanger sur les carences des pouvoirs publics sans pourtant jamais avoir
les moyens de pousser plus avant la contradiction — absence de liberté d'expression — et
encore moins d'essayer d'y changer quelque chose — absence de liberté d'association.
NOTES
1. SRAS: Syndrome respiratoire aigu sévère d'origine virale qui affecte en particulier la Chine depuis
novembre 2002, et le reste du monde depuis mars dernier. Le SRAS a affecté 8422 personnes, dont 916 décès,
dans 32 pays. La Chine (foyer initial) et Hong Kong comptant respectivement 5327 et 1755 cas, et 349 et 300
décès, selon les chiffres de l'OMS. En chinois, le nom du SRAS correspond strictement à «pneumonie
atypique», soit feidianxing feiyan, ou de façon ramassée feidian.
2. Cet article est une version remaniée de «Les leurres de la modernité. Internet, information et crise du SRAS
en Chine», Perspectives chinoises (Hong Kong), n° 76, mars-avril 2003.
3. Pour une analyse précoce qui demeure valable encore aujourd'hui, voir Emmanuel PARODY et Éric SAUTEDÉ,
«Internet en Chine: une modernité qui tolère mal le contrôle», Perspectives Chinoises, n° 29, mai-juin 1995,
p. 37-43. Pour des publications plus récentes présentant un bon tour d'horizon des méthodes de contrôle, voir
Michaël S. CHASE et James C. MULVENON, You've Got Dissent! Chinese Dissident Use of the Internet and
Beijing's Counter-Strategies, Santa Monica, Ca., Rand Corporation, juin 2002, 114 p.; Edward YUNG,
«Beyond the Great Firewall», China Economic Quarterly, octobre-décembre 2002, p. 50-53; et Shanti
KALATHIL et Taylor C. BOAS, Open Networks, Closed Regimes — The Impact of the Internet on the
Authoritarian Rule, Washington D. C., Carnegie Endowment for International Peace, 2003, 218 p.
4. [http: //cyber. law. harvard. edu/filtering/china/].
5. [http: //www. aidshealth. org/], [http: //www. mentalhealth. com/] et [http: //www. healthinchina. com/].
6. Ethan GUTMAN, «Who Lost China's Internet ? », The Standard, 25 février 2002.
7. South China Morning Post, 24 octobre 2002.
8. Reporters sans frontières, «Vivre dangereusement sur le Net», 12 mai 2003, [http: //www. rsf. fr/imprimer.
php3?id-article=6792].
9. Pour un portrait de ces internautes emprisonnés, voir [http: //www. dfn. org/focus/china/netattack. htm].
10. Voir [http: //www. 6-4tianwang. com/nh/2000/200303012044. shtml].
INFORMATION ET SOCIÉTÉS
La canicule de l'été 2003 n'a pas empêché de grandes interrogations sur la façon dont
les différentes sociétés gèrent leurs moyens d'information. Cette «pression» mise sur les
chercheurs s'explique d'abord par la proximité du sommet mondial sur la société de
l'information (SMSI), prochaine étape à Genève en décembre 2003, avant Tunis en 2005.
Le colloque de Strasbourg lui est spécialement consacré.
Mais, en outre, la recherche universitaire en communication se trouve vigoureusement
interpellée par la montée en ligne de jeunes chercheurs fortement marqués par l'actualité
politique et sociale de leur «territoire» d'origine: d'où la remise en cause de concepts et de
méthodes «universels» en ce domaine, comme en témoigne la conférence francophone
tenue à Bucarest.
entend un discours très général, axé sur les prouesses des instruments, qui gomme toute
hétérogénéité, empêche l'idée même d'une médiation pourtant nécessaire entre les
disparités culturelles, la polarisation des histoires régionales. La société civile, puis les
chercheurs, ont tardivement pris conscience des enjeux géopolitiques et de la controverse
entre le nouvel ordre mondial électronique proposé (imposé?) et les organisations
traditionnelles des sociétés selon leurs cultures.
La réflexion et les débats du SMSI s'articulent autour de trois axes: restriction/ou
extension de la liberté d'expression ? Arbitrages économiques et techniques indispensables
face aux libéralisme de l'OMC ? Veille juridique et éthique pour le respect de la dignité
humaine, pour aboutir à une gestion transnationale des libertés acceptée par tous les États.
Les chercheurs réunis à Strasbourg s'interrogent sur le vocabulaire utilisé, simple
commodité de langage qui finit par acquérir une réalité substantielle. On doit entendre le
terme «société de l'information» comme l'une des façons de formuler les évolutions
techniques et sociales actuelles. En effet comprendre les processus et les discours par
lesquels les sociétés construisent leur relation à l'information est nécessaire pour évaluer et
accompagner ces évolutions. Par conséquent, une recherche scientifique, indépendante et
critique, sur les relations entre information, techniques et sociétés, est indispensable pour la
compréhension et la régulation des transformations en cours. Son soutien doit être assuré
dans le cadre des moyens dédiés au développement de «la société de l'information».
En tout état de cause se fait jour la nécessité d'un débat public, encouragé par les
gouvernements, informant les citoyens des positions prises et des choix faits dans le cadre
du Sommet mondial sur la «société de l'information». De même la mise en œuvre des
décisions arrêtées dans le cadre de ce sommet exige suivi attentif et évaluations régulières.
À cet effet, il convient de créer une cellule de veille, observatoire non seulement des
évolutions technologiques, mais aussi et surtout des enjeux, des succès, des lacunes et des
échecs de la « société de l'information ». On ne peut aborder ces enjeux sans une démarche
interdisciplinaire se situant à divers niveaux: les échelles géographiques, les jeux des
acteurs, les outils... sans négliger leurs inter-relations. Cette approche permet à différentes
disciplines de participer à la réflexion. En particulier, en prenant mieux en compte les
contextes sociopolitiques et économiques, les patrimoines dont il faut garder les traces et la
dynamique des modes d'intégration de ces outils.
Il est de la responsabilité de nos sociétés de préparer les générations à venir à «la société
de l'information» en développant la formation et en menant des actions de stimulation et
d'appui à la recherche en réseau. S'imposent des travaux de recherche en partenariat Sud-
Sud et Nord-Sud sur les processus d'intégration des TIC et sur les formes de représentation
qui les accompagnent (analyse des discours occidentaux, analyse des discours africains ou
arabes) en développant des regards croisés et des études sur le terrain. Armand Mattelart
rappelle, dans Le Monde diplomatique, août 2003, que «le caractère central de la
problématique des modèles d'implantation sociale des technologies est loin d'être le fait de
toutes les composantes du mouvement social mondial». Les universitaires et chercheurs ont
ici une responsabilité éthique pour mettre à jour ces diversités culturelles, objet de
Déclaration de l'Unesco. Une militante du CRIS (campagne pour le droit à la communication
dans la société de l'information) dénombre sept « tendances » au sein de la société civile; il
conviendrait d'organiser de manière plus formelle le recueil des données, la notation
ethnographique des expériences émergentes de part le monde (y compris par les populations
immigrées vivant en occident qui utilisent l'Internet comme un «nouvel arbre à palabre»).
La revanche du contexte
Les dernières sessions plénières s'efforcent d'apporter des «regards croisés»: état des
lieux de la recherche francophone en différents pays européens, puis dans des régions du
monde plus éloignées où l'influence française persiste (Amérique Latine par exemple). Guy
Lochard, par exemple, dans une démarche à la fois historique et conceptuelle montre comment
différentes vagues de penseurs français, à commencer par Auguste Comte, puis Morin,
Bourdieu, Foucault, Mattelart puis encore Paul Ricœur ou de Certeau ont été utilisés par les
acteurs brésiliens (à la fois sur le plan paradigmatique et politique). Avec la montée en force, au
début des années 1980 au paradigme de la résistance (autres théories de la réception, attention
portée à d'autres pôles de production audio-visuelle, soutien aux mouvements sociaux, urbains
ou paysans échappant au contrôle des états), on s'appuie sur les auteurs issus des cultural
studies. Mais souligne Lochard, il faut toujours se référer à la toile de fond historique et
scientifique, sans raisonner en termes de domination ou même d'influence « Car il est à mon
sens manifeste que certains chercheurs latino-américains ont anticipé sur un certain nombre
d'interrogations qui se posent avec davantage d'acuité dans leur contexte mais concernent tout
autant l'Europe». Et de critiquer les formes de néocolonialisme universitaire qui considèrent
les échanges avec les pays du Sud comme de purs jeux d'alliances universitaires,
décontextualisant la pensée scientifique, oubliant les hybridations et les métissages culturels.
On ne peut tous les citer: Dayan, Schlesinger... Peter Dahlgren (Lund, Suède) évoque
méthodiquement les différences théoriques et topiques entre les trois pays Scandinaves: le
Danemark proche des Allemands et des Français, la Suède positiviste, sur un modèle
américain... Des origines intellectuelles différentes ont engendré des traditions de
recherche bien distinctes, sur des objets communicationnels assez éloignés. Nous voici loin
de la «mondialisation» des concepts et des théories.
Les exposés et les débats invitent à approfondir les échanges scientifiques au sein de la
francophonie. Aussi, dans l'enthousiasme des fins de Congrès se décident:
- la création d'une banque de données francophones dans le champ des SIC, projet
soutenu par l'Ambassadeur de France et le recteur de l'Académie de Bucarest (sociologue
de formation), confié à la SFSIC;
- la réactivation des échanges universitaires franco-roumains, dès cette rentrée.
Comme souligné lors de la session de clôture, l'idée de ce colloque francophone
représentait un triple défi: faiblesse des moyens financiers, pleine période d'examen pour
les universitaires, avec une distance géographique, un décalage culturel et méthodologique
qui n'allaient pas sans risques. Le nombre de participants, leur soif d'échanger, le vœu de
renouveler cette première expérience, autant de réponses pragmatiques à ceux qui
déploraient un projet «aussi peu académique».
NOTES
À Robert K. Merton
A Jean Drucker
HEINZ VON FOERSTER
(1911-2002)
LE PÈRE DE LA SECONDE CYBERNÉTIQUE
L'ancrage européen
Né à Vienne en 1911, les années de son enfance bourgeoise furent culturellement très
riches: ses parents, et surtout ses grands-parents, recevaient chez eux en permanence une
foule d'artistes, de penseurs, de scientifiques et de personnalités politiques dans cette
Vienne du début du XXe siècle en pleine effervescence culturelle. Il y eut ainsi dans l'arrière-
fond de ses années d'enfance, ce bourdonnement intellectuel, artistique et politique qui
contribua certainement à aiguiser sa curiosité intellectuelle extrême, son intérêt soutenu
pour les arts, notamment la danse et la musique, et son intelligence hors du commun. Heinz
se plaisait à dire que c'était cette ambiance culturellement plurielle qui lui avait inculqué,
dès son plus jeune âge, le désir de composer simultanément avec une multiplicité de regards
pour se donner une vision de la réalité. Nous retrouvons là l'ancrage vivant de son rejet des
visions mono-disciplinaires - artefacts des institutions académiques - et de son élan vers la
fondation d'une perspective transdisciplinaire.
Encore tout jeune homme, le hasard l'amène à assister à une conférence donnée à
l'Université de Vienne par un certain professeur du nom de Ferdinand Scheminzky. La
conférence s'intitule «Est-il possible de générer la vie artificiellement ? ». Il s'avère que cette
conférence fait partie d'une série de rencontres organisées par les philosophes associés au
«Cercle de Vienne». Il est amené ainsi très tôt à rencontrer la pensée de Rudolf Carnap,
Hans Hahn et Ludwig Wittgenstein. Ces rencontres philosophiques seront décisives pour
la formation de sa pensée: certains propos de Rudolf Carnap - notamment ses réflexions
décapantes sur la signification du signe « = » (symétrie, réflexivité, transitivité) - le
conduisent à lire le Tractacus Logico-Philosophicus de Wittgenstein. Il acquiert sa première
formation disciplinaire en physique (maîtrise à l'Institut de technologie de Vienne, puis
doctorat obtenu en 1944 de l'Université de Breslau). Surtout absorbé par des questions
philosophiques, par la logique et les mathématiques, il acquiert, en tant que physicien, une
spécialité en génie électrique. Quoique l'un de ses grands-pères ait été juif, il réussit à
travailler à Berlin pendant la guerre, dans des laboratoires liés à la mise au point de
technologies de radar. Il rentre à Vienne à la fin de la guerre. Pendant cette période, il
habitera aussi en Silésie, l'entreprise où il travaillait y ayant été transférée.
Son premier ouvrage scientifique consiste en une monographie sur la mémoire. Fasciné
par le constat qu'un sujet humain a tendance à oublier de plus en plus d'éléments au fur et
à mesure que l'on recule dans le temps de la remémoration, il cherche à formaliser ce genre
de phénomènes en vue de formuler une théorie de la mémoire. Il recourt finalement aux
concepts de la mécanique quantique pour construire son modèle. Les conditions de vie
d'après-guerre étant difficiles à Vienne - la ville, ravagée par les bombardements, est
toujours occupée par les forces alliées -, il décide d'émigrer avec sa famille vers les Etats-
Unis d'Amérique en 1949. Il apporte quelques exemplaires de son ouvrage intitulé The
Memory - a Quantum Mechanical Treatise (titre anglais de son ouvrage écrit en allemand),
ce qui pourra éventuellement servir de «carte de visite», se dit-il.
Le cycle des dix conférences Macy (1946-1953) sera plus tard reconnu comme ayant été le lieu
de naissance de la cybernétique. C'est d'ailleurs Heinz von Foerster - nommé, dès la fin de
cette sixième rencontre, «secrétaire» chargé d'établir les comptes rendus et éventuellement
d'assurer la publication des Actes - qui proposa l'appellation «cybernétique» pour coiffer le
titre de ces rencontres. Heinz raconte que Norbert Wiener, père de cette appellation et
participant de ces rencontres (jusqu'à la septième, inclusivement), en fut ému et ravi.
Les conférences Macy sur la cybernétique constituent un lieu de rencontres privilégiées
où se côtoient à la fois divers spécialistes des sciences de la nature (biophysique,
mathématique, logique, neurophysiologie, ingénierie électrique), en même temps que
quelques chercheurs venus des sciences sociales comme le couple d'anthropologues
Gregory Bateson et Margaret Mead. Ce projet interdisciplinaire consiste à réfléchir sur les
patterns communs se dégageant d'une comparaison entre mécanismes de rétroaction
présents dans divers organismes biologiques, y compris humains, pour les rapprocher de
mécanismes propres à certains dispositifs techniques s'appuyant sur une théorie de
l'information en émergence (Claude Shannon est là) et sur les ressources nouvelles d'une
informatique (computer science) en train de naître (John von Neumann est l'une des
personnalités présentes). Plusieurs observateurs considèrent que ces conférences ont donné
naissance à certaines des idées-clés qui se trouveront ensuite discutées dans les domaines de
l'informatique et de l'intelligence artificielle (AI), de l'étude des réseaux neuronaux, des
théories des systèmes et de la complexité, et dans les sciences cognitives.
Alors qu'il enseigne depuis son arrivée aux USA au département ¿'Electrical
Engineering de l'Université d'Illinois (Urbana) qu'il dirige, il fonde en 1958, dans la même
université, le Biological Computer Laboratory (BCL). La visée scientifique de ce laboratoire
montre une envergure interdisciplinaire et internationale. Il s'y retrouve des chercheurs
issus d'horizons scientifiques divers (biophysique, biologie mathématique, neurophysiologie
de la cognition, sciences et techniques informatiques, sciences cognitives, épistémologie).
Bénéficiant d'importantes subventions en provenance notamment de l'Office of Naval
Research, certains travaux du laboratoire conduisent à des percées du côté du traitement
informatique en parallèle (parallel computing). L'une des pistes consiste à construire un
nouveau type d'ordinateur muni de senseurs photo-électriques destinés à la reconnaissance
d'objets multiples. D'autres travaux ont porté sur l'hématologie médicale; d'autres encore
ont concerné la démographie.
Heinz von Foerster était un penseur qui aimait provoquer la réflexion à partir d'idées-
force à saveur paradoxale, ou parfois apparemment tautologiques. L'une de celles-ci fut le
fameux principe d'« ordre par le bruit» (order from noise principle), formulé dès 1960, et qui
fut repris notamment par Henri Atlan dans sa théorie de l'auto-organisation. La thèse
consiste à soutenir que le bruit qui s'introduit dans les systèmes auto-organisateurs
engendre, en dernière analyse, moins de l'entropie qu'une ré-organisation du système qui
s'oriente vers de nouvelles finalités. La reprise contemporaine de cette idée dans les sciences
cognitives apparaît sous la forme des «résonances stochastiques» (Varela). Von Foerster fut
l'un des principaux chantres des problématiques de l'auto-organisation, thématique qu'il
approfondit d'abord avec Gordon Pask, son vieux compagnon, puis avec Humberto
Maturana (rencontré une première fois en 1962) et enfin, avec Francisco Varela (qu'il
fréquenta notamment lors d'une demi-sabbatique au laboratoire de Maturana à Santiago du
Chili en 1973). En France, Edgar Morin fut l'un des premiers penseurs à prendre au sérieux
les conséquences épistémologiques de ces idées d'«ordre par le bruit» et d'auto-
organisation. Morin invita d'ailleurs Heinz von Foerster à participer au colloque sur l'Unité
de l'homme: invariants biologiques et universaux culturels, tenu à l'abbaye de Royaumont en
septembre 1972.
Heinz von Foerster décida de fermer le BCL en 1975. Non seulement en raison de sa
retraite, mais aussi parce qu'il constatait que les conditions de financement de la recherche
aux Etats-Unis s'étaient significativement modifiées. Cette période marque en effet le début
d'un désintéressement institutionnel de la part des grandes fondations, de même que des
agences gouvernementales et militaires, pour le domaine des recherches fondamentales
couvert par le BCL. Ce laboratoire poursuivait en quelque sorte des pistes de recherche et
de développement en informatique qui ne rejoignaient pas les courants mainstream de
l'Intelligence Artificielle (AI), secteur par ailleurs largement subventionné par ces agences
fédérales (pensons au laboratoire de Marvin Minsky au MIT). Ceci illustrait parfaitement la
bifurcation qui s'était amorcée assez tôt au sein des cybernéticiens, entre le courant dont
émergèrent les développements fulgurants de l'AI (secteur qui fut largement subventionné
malgré le fait que ces chercheurs n'arrivèrent pas, en fin de compte, à remplir leurs
promesses ambitieuses de construire une «intelligence artificielle») et le courant des
chercheurs davantage en résonance avec le projet initial de la cybernétique - dont ceux du
BCL -, qui refusaient les définitions naïves de la cognition et de l'intelligence mises en avant
par les ténors de l'AI. Ce ne sera que plus tard, pendant la décennie 1980, que les
perspectives connexionnistes en sciences cognitives (et un nouveau style pour penser la
robotique, empruntant d'ailleurs à l'esprit du BCL) rejoindront les intérêts des héritiers des
deux communautés de scientifiques.
n'existent pas de manière indépendante de l'observateur qui les perçoit et qui s'en donne
des représentations. Ainsi en est-il, a fortiori, des gestes mêmes de l'observateur liés au
processus d'observation: «toute description est la description d'un observateur». Par cet
aphorisme apparemment tautologique, von Foerster propose une critique radicale de l'idée
d'objectivité en science. Il prône la ré-insertion systématique de l'observateur dans
l'observation. L'observateur est inclus dans l'observation. De par son impossible absence du
site et du processus de l'observation, l'observateur humain affecte les conditions de
l'observation tout autant qu'il marque de son empreinte, à travers l'usage du langage, la
formulation de ses descriptions. Von Foerster insiste pour que les scientifiques prennent en
considération les opérations ou les descriptions autoréférentielles. Il indique que l'usage des
«concepts de second ordre» (c'est-à-dire ceux construits avec le préfixe «auto» comme
auto-organisation, auto-production, auto-réplication, auto-régulation) est indispensable
dans la production des catégories scientifiques, en particulier si les scientifiques cherchent
à questionner les postulats sous-jacents de la science contemporaine, systèmes invisibles de
croyances souvent enchevêtrés dans la construction même des problèmes que la science
cherche à résoudre.
L'émergence de cette seconde cybernétique {cybernetics of cybernetics) sera fortement
associée aux diverses perspectives constructivistes qui se sont constituées en philosophie et
dans les sciences sociales et humaines. En d'autres mots, depuis les décennies 1960 et 1970,
le noyau encore actif de chercheurs s'identifiant à l'héritage cybernétique a vu émerger en
son sein un nouveau courant d'épistémologie constructiviste dont les trois figures
pionnières ont été Heinz von Foerster, Gordon Pask et Humberto Maturana. Ce travail est
aujourd'hui poursuivi notamment par Ernst von Glasersfeld, Ranulph Glanville, Klaus
Krippendorff, Paul Pangaro et Stuart Umpleby.
Heinz von Foerster était un homme généreux, charmant, rempli d'humour, pince-sans-
rire, l'œil perçant, à la réplique intelligente et toujours pertinente, attentif aux questions que
ses étudiants et collègues pouvaient lui poser. Il répondait souvent à une question par une
autre question, ce qui provoquait instantanément le dialogue avec son interlocuteur. J'ai eu
personnellement le privilège de le rencontrer une première fois en octobre 1974, à
l'occasion d'un congrès de l'American Society for Cybernetics, association professionnelle
qu'il avait d'ailleurs contribué à créer (notamment pour pouvoir rendre hommage et
poursuivre l'œuvre de Warren McCulloch). Le hasard fit que je me retrouvai assis à ses côtés
à l'occasion du banquet. Quand je lui dis que j'étais l'étudiant d'Edgar Morin, ses yeux se
mirent à pétiller et il se rappela les bons moments passés avec Morin. Ce soir-là, il
prononçait «l'adresse présidentielle» qu'il avait intitulée «Cybernetics of Cybernetics». Il
avait d'ailleurs amené sur les lieux du congrès quelques exemplaires du recueil du même
nom, publication artisanale qu'il avait réalisée avec ses étudiants, dans le cadre de l'un de
ses cours à l'Université d'Illinois. Dès les premiers mots de sa conférence, il sut capter
immédiatement l'attention de son public, qui venait pourtant d'absorber un copieux dîner.
D'entrée, il présenta ce qu'il appela le «théorème numéro un d'Humberto Maturana»:
«Anything said is said by an observer»; il ajouta, l'œil rempli d'humour, «avec modestie»
dit-il, ce qu'il appela le «corollaire numéro un d'Heinz von Foerster»: «Anything said is
said to an observer». Le reste de sa conférence consista à montrer que ces propositions
apparemment tautologiques contenaient quelques intuitions épistémologiques qui valaient
la peine d'être prises au sérieux. Son public était conquis: il avait réussi à nous transmettre
son plaisir d'aller au fond des choses, en gardant en permanence un sourire qui montrait
qu'il était en pleine possession de ses moyens.
Serge Proulx
Université du Québec à Montréal
RÉFÉRENCES BIBLIOGRAPHIQUES
VON FOERSTER, H., entrevue avec J. -P. DUPUY, P. LIVET, P. LÉVY et I. STENGERS, Généalogies de l'auto-
organisation, Cahiers du CREA n° 8, École Polytechnique, Paris, 1985.
VON FOERSTER, H., entrevue avec S. FRANCHI, G. GÜZELDERE et E. MINCH, Stanford Humanities Review, 4 (2),
1995.
VON FOESTER, H., «Éthique et cybernétique de second ordre» in WATZLAWICK, P. et NARDONE, G., éd., Stratégie
de la thérapie brève, Paris, Seuil, 2000.
VON FOERSTER, H., Understanding Understanding. Essays on Cybernetics and Cognition, New York, Springer,
2003.
* Une autobiographie détaillée de Heinz von Foerster sera publiée en anglais en 2003. Il s'agit de la traduction de
l'ouvrage: Monica Broecker & Heinz von Foerster, Teil der Welt, Carl-Auer-Systeme Verlag, Heidelberg, 2002.
Robert K. Merton a été l'un des plus célèbres sociologues de la seconde moitié du
XXe siècle et un grand théoricien de la pensée structuro-fonctionnaliste. Tout comme son
maître Talcott Parsons, vis-à-vis duquel il prit rapidement ses distances, et qui avait
construit le plus vaste monument de théorie sociale de l'histoire récente de la sociologie,
Merton n'a été que tardivement et de manière incomplète traduit en France.
Les sociologues français ont été en effet peu sensibles, à la différence de leurs
homologues européens, à l'emprise de sa pensée sur la sociologie internationale. De même,
la véritable souveraineté dont lui-même et Paul Lazarsfeld ont joui pendant de longues
années, à partir de leur royaume du Graduate Department de Columbia University à New
York, n'a été que très peu connue1.
Les champs d'intérêt de Merton ont été nombreux mais unis par certaines
préoccupations centrales: l'attention portée aux éléments structurels, qui facilitent ou
rendent difficile l'initiative de l'acteur; la sensibilité aux «problèmes sociaux», à la
déviance, à l'anomie, à la désorganisation; le souci constant de garder strictement liées la
démarche théorique et la recherche empirique; un intérêt passionné pour les thèmes de la
connaissance, c'est-à-dire pour les rapports entre science et société. Merton a d'abord été le
fondateur de la sociologie de la science aux Etats-Unis; il en a défini l'objet et la méthode
et l'a fait reconnaître par le monde universitaire. En suivant les traces de George Sarton et
en développant sa pensée, Merton publie en 1938 la première analyse systématique du
rapport entre la production scientifique et le milieu historico-social: Science, Technology and
Society in Seventeenth-Century England. Ce thème du rapport entre science et société
continuera d'occuper une place privilégiée dans son travail. Jusqu'à la fin des années 60, ses
recherches et celles de ses élèves explorent «la structure normative de la science» et les
configurations politiques, culturelles, sociales qui influencent la formation et le
développement de la communauté scientifique. Merton connaît les difficultés de son
programme et il cherche à éviter le risque du déterminisme, qui réduit les orientations de la
science à n'être que des reflets des orientations culturelles les plus répandues dans une
période historique, tout comme le risque de l'idéalisation excessive de la science, qui serait
définie uniquement par ses impératifs de connaissance. Mais il est convaincu que ces
impératifs existent et exigent l'universalisme, la communality, le désintérêt, et le
«scepticisme organisé». Pour lui, le but institutionnel de la science est «l'accroissement des
connaissances vérifiées», le caractère cumulatif des résultats. Cet aspect de sa pensée, venu
de la philosophie des Lumières, est aujourd'hui le plus discutable.
D'autre part, Merton analyse le lien entre système social et science comme un rapport
dialectique qui demande d'interroger les valeurs de la communauté scientifique dans leur
interaction avec les valeurs dominantes du système social, ce qui donne des résultats souvent
imprévisibles. En outre, et c'est le trait le plus révélateur de l'esprit de Merton, il souligne
dans son essai de 1957 - The Sociology of Science. Theory and Empirical Investigations - la
présence simultanée de valeurs incompatibles dans l'institution scientifique, comme dans
toute autre institution. Les scientifiques sont presque toujours ambivalents: ils doivent être
humbles, ouverts à l'échange et à la confrontation continuelle avec les autres scientifiques,
mais aussi originaux et être les premiers à faire connaître leurs découvertes. L'ambivalence
de leurs sentiments et de leurs comportements ne peut jamais être surmontée; elle entraîne
une oscillation constante entre des positions opposées. Cette imprévisibilité partielle de
leurs conduites permet de comprendre les changements qui ont lieu dans la communauté
scientifique, alors que la plus typique des critiques adressées au structuro-fonctionnalisme a
été justement de ne pas être en mesure d'expliquer le changement.
Son dernier livre, The Travels & Adventures of Serendipity: a Study in Historical
Semantics and the Sociology of Science, publié au cours de la dernière année de sa vie, malgré
six opérations chirurgicales pendant cette même période, confirme l'intérêt de Merton pour
les aspects surprenants, imprévisibles, de la réalité sociale. Il analyse les démarches
inattendues de l'acteur qui conduit sa recherche, mais aussi les conditions historiques qui
favorisent ou affaiblissent l'utilisation d'une découverte occasionnelle. Pour Merton, la
notion de serendipity désigne l'apparition d'une donnée inattendue et «anomale» au cours
d'une recherche empirique, une donnée qui peut la réorienter ou conduire à une nouvelle
interprétation. La serendipity se manifeste d'abord de manière imprévue: sur le chemin du
scientifique une donnée se présente, qui ne cadre pas avec son hypothèse. L'imprévu peut
se présenter comme une conséquence des conditions sociales de la recherche, mais dépend
surtout de la réceptivité et de la sagacité du chercheur. L'«anomalie» est une autre
caractéristique de la serendipity, les données sont «anomales», elles contredisent les
certitudes établies, ce qui stimule la curiosité, ouvre les portes de la créativité et oblige à
formuler de nouvelles hypothèses. La rencontre de la serendipity doit enfin être
«pertinente», c'est-à-dire avoir une position stratégique par rapport à la formulation d'une
autre théorie ou de l'extension de la théorie initiale.
Comme on peut le constater, même en suivant Merton sur le terrain où il a le mieux
démontré sa fidélité au paradigme structuro-fonctionnaliste, on rencontre chez lui des
concepts qui ouvrent la voie à une sociologie beaucoup plus dynamique et sensible à une
réalité qui ne se laisse encadrer dans aucun système, donc à une vision du monde très
éloignée du structuro-fonctionnalisme classique.
Le fait est que Merton, tout en étant le dernier des «classiques», est en même temps le
moins «classique», cela pour plusieurs raisons: par sa méfiance à l'égard des grands
systèmes théoriques, parce qu'il a inventé les middle-range theories, parce qu'il a défendu et
réalisé l'intégration de la théorie et du travail de terrain, mais surtout parce qu'il a concentré
son attention sur les aspects conflictuels, paradoxaux, ambivalents des normes et des
structures. En résumé, on peut dire que Merton a constamment insisté sur l'imprévisibilité
des effets des structures sociales.
Merton est un grand théoricien qui n'a jamais voulu lier son nom à une théorie de la
société, à des réponses définitives et exhaustives aux grandes questions de la théorie
sociologique, mais qui a plutôt voulu se consacrer à la construction, jamais achevée, toujours
révisée et approfondie, de concepts, instruments de connaissance à utiliser sur le terrain. Il
donne dans sa pensée une place centrale à la conscience de la pluralité des formes que la
rationalité peut prendre dans les conduites de l'acteur, il souligne «l'ironie» profonde et
l'ambivalence qui se manifestent dans les normes et dans les modèles de comportements
sociaux. Je dirai que la signature de Merton se reconnaît à une ironie qu'il découvre au cœur
de la plupart des rapports sociaux.
Le «thème ironique» est probablement le plus central dans l'œuvre de Merton, la
principale raison de son actualité aujourd'hui, sa façon d'affronter une réalité sociale
devenant de plus en plus complexe et difficile à déchiffrer dans ses aspects contradictoires.
Depuis ses premiers pas et pendant toutes les étapes de sa carrière, Merton a élaboré un
ensemble de concepts - les conséquences inattendues de l'action sociale, la prophétie auto-
réalisatrice, les fonctions latentes et manifestes, l'effet Matthew, l'ambivalence, la serendipity
- qui obligent le chercheur à découvrir, au-delà des apparences, une réalité «autre», qui
contredit l'interprétation se présentant comme la plus vraisemblable.
L'image de l'acteur social dessinée par Merton est placée dans un contexte de doutes et de
conflits continuels. Il ne vit pourtant pas les incertitudes avec anxiété et angoisse.
L'imprévisibilité, le risque, les contradictions sont pour lui des expériences quotidiennes, qui
sont même appréciées pour les qualités dynamiques, pour l'intérêt fort et riche qu'elles donnent
à la vie. Le monde des interactions humaines, regardé avec les yeux de Merton, apparaît comme
un fascinant kaléidoscope dont les formes et les combinaisons souvent surprenantes sollicitent
la curiosité, jusqu'au moment où on arrive à cerner la clé de lecture, le modèle explicatif.
Mon hypothèse est que la sociologie mertonienne «du soupçon», son «thème
ironique» 2 ne sont pas seulement une de ses inspirations parmi d'autres, mais la ligne de
recherche qui le représente le mieux. Il s'agit d'une inspiration qui apparaît depuis ses tout
premiers articles et qui trouve son accomplissement dans le concept d'ambivalence3. Celui-
ci exprime en effet de différentes façons une vision ambivalente de la vie sociale et des
structures normatives qui la règlent. Toute conception de la réalité sociale, d'ailleurs, qui
affirme l'existence de niveaux conscients et inconscients, manifestes et latents, structurels et
idéologiques ne peut avoir son centre que dans le concept d'ambivalence. L'ambivalence
existe quand, dans le monde de l'acteur, s'opposent deux forces de signe contraire et
d'intensité égale, sans que l'une ne puisse jamais prévaloir complètement sur l'autre. À la
différence des contradictions hégéliennes, l'ambivalence ne peut pas être surmontée par une
synthèse. Éliminée à un certain niveau, elle réapparaît à un autre, engendrant ainsi des
oscillations incessantes dans la conduite des acteurs.
L'idée d'ambivalence a une longue histoire, au cours de laquelle elle a notamment été
utilisée au niveau psychologique; mais le but que Merton se donne est d'étudier sa présence
dans les relations sociales. L'ambivalence qui intéresse Merton ne se réfère pas à la
personnalité de l'acteur, mais aux structures sociales.
Il n'est pas possible d'approfondir ici les détails et les implications de ce concept, mais
je voudrais souligner combien les réflexions qui l'accompagnent sont l'instrument le plus
puissant qu'il nous ait laissé pour la compréhension des sociétés contemporaines, où
l'ambivalence se présente dans presque tous les domaines vitaux de la vie collective.
Jusqu'ici, j'ai évoqué l'intellectuel et la pertinence que sa pensée garde encore
aujourd'hui; mais il est important aussi de dire quelques mots sur l'homme. Il a été un
enseignant inoubliable, un ami toujours sensible, plein d'affection et d'attentions, qui suivait
avec intérêt la vie de ceux qu'il aimait et auxquels il savait comment donner son appui. Pour
beaucoup, il a été ce qu'il appelait et que nous appelions aussi «un maître à distance». Il a
vécu très longtemps et pourtant nous avons reçu la nouvelle de sa mort comme une
douloureuse surprise et une injustice.
Simonetta Tabboni
Professeur émérite à l'université de Paris VII-Denis Diderot
NOTES
1. Sur leur mode de coopération: P. F. LAZARSFELD, «Working with Merton», in The Idea of Social Structure:
Papers in Honor of Robert K. Merton, Coser L. éd., 1975, et R. K. MERTON, «Working with Paul», in
LAUTMAN J. et LÉCUYER Β. (dir. ), Paul Lazarsfeld, 1901-1976: la sociologie de Vienne à New-York, Paris,
L'Harmattan, 1998.
2. Cela a été remarqué aussi par Louis Scheider à l'occasion du Festschrift consacré à Merton en 1975.
3. R. K. MERTON and Elinor BARBER, Sociological Ambivalence and Other Essays, New York, The Free Press,
1976.
RÉFÉRENCE BIBLIOGRAPHIQUE
Carlo MONGARDINI, Simonetta TABBONI, Robert K. Merton & Contemporary Sociology, New Brunswick et
Londres, Transaction Publisher, 1998.
à l'ORTF, la télévision en couleurs n'est pas encore généralisée et la troisième chaîne est
seulement sur le point de voir le jour. L'essentiel des programmes, que ce soit pour
l'information au sens large, pour le divertissement ou pour la fiction, est réalisé en régie
directe par les chaînes. La télévision du matin n'existe p a s ; les programmes ne
commencent qu'à midi ou en fin d'après-midi et s'arrêtent à minuit. La télédistribution est
à peine envisagée, et ne le sera que très lentement dans les années 1970, pour des
expériences locales étroitement encadrées, tandis que la diffusion hertzienne souffre encore
de nombreuses zones d'ombre. On ne commencera à parler de satellites de télédiffusion
directe qu'à la fin des années 1970, et à titre purement expérimental. En radio, pas plus de
quatre programmes à diffusion nationale au sein du service public, qui ne créera quelques
radios locales qu'en 1979-1980; l'Etat, à travers la Sofirad, exerce un contrôle sur le choix
des dirigeants d'Europe 1, de RMC et de Sud Radio et, dans une certaine mesure, sur les
programmes; la présence d'Havas au capital de la CLT et dans la régie de ses différents
programmes permet au gouvernement français d'avoir un œil sur RTL.
Ce bref rappel montre le chemin parcouru depuis cet âge quasiment préhistorique de
l'audiovisuel. La mainmise de l'Etat avait été secouée par les événements de mai 1968 et le
gouvernement de Jacques Chaban-Delmas, formé après l'élection de Georges Pompidou à
la présidence de la République en 1969, avait esquissé un mouvement de libéralisation, en
supprimant le ministère de l'Information et en appelant une forte personnalité, Pierre
Desgraupes, à la direction de l'information de la 1e chaîne. En 1972, le même gouvernement
donnait à l'ORTF un vrai statut d'établissement public avec à sa tête un président-directeur
général, et amorçait une certaine décentralisation de la gestion des programmes. L'une des
premières décisions de Valéry Giscard d'Estaing après son élection à la Présidence de la
République fut, dès l'été 1974, de faire éclater l'ORTF en quatre sociétés nationales de
programme (TF1, Antenne 2, FR3, Radio-France), auxquelles s'ajoutaient une société pour
les moyens lourds de production (la SFP) et deux établissements publics, l'un chargé de la
diffusion (TDF), l'autre des archives, de la recherche et de la formation, l'Institut national
de l'audiovisuel (INA). Si cette restructuration a incontestablement permis une gestion plus
autonome des sociétés de programme et une recherche par chacune d'elles de sa propre
personnalité, voire d'une certaine liberté de ton (sensible notamment sur l'Antenne 2 de
Marcel Jullian), le système public n'en restait pas moins très verrouillé. À quelques
exceptions près, comme celle de Marcel Jullian que l'on vient de mentionner ou, en 1972,
d'Arthur Conte, les hauts postes de responsabilité de ce service public furent toujours
confiés à des hauts fonctionnaires, préfets, ambassadeurs, inspecteurs des finances,
conseillers d'État, voire magistrats, comme Gabriel Delaunay, Robert Bordaz, Christian
Chavanon, Marceau Long, tous grands commis qui n'étaient pas des spécialistes du métier
mais qui surent s'entourer de grands professionnels issus du sérail de la radio et de la
télévision, ainsi que de jeunes généralistes, énarques ou non, comme Claude Contamine,
Xavier Larère, Gabriel de Broglie, Bertrand Labrusse qui devaient, à des titres divers, faire
carrière dans l'audiovisuel. Jean Drucker est, à plus d'un titre, le prototype de ce nouveau
profil de responsables appelés à vivre et à gérer la mutation profonde de l'audiovisuel qui
s'est opérée entre le début des années 1980 et la fin du siècle.
On ne saurait attribuer à la seule alternance politique de 1981 et aux initiatives de la
gauche de gouvernement le mérite de cette mutation; car les socialistes, à commencer par
François Mitterrand, ont, sur bien des plans, improvisé et cédé à la tentation du contrôle
politique, de l'arbitraire et du favoritisme. Il faut cependant leur reconnaître le mérite
historique d'avoir, dès 1981, cassé le monopole du service public en créant des radios locales
privées et rompu, au moins en principe, le cordon ombilical entre le pouvoir politique et
l'audiovisuel par la création d'une Haute Autorité de la Communication Audiovisuelle. Par
ces actes fondateurs, le système s'est en quelque sorte déverrouillé. Tout le reste est venu
ensuite, sous la pression des évolutions technologiques, de la loi du marché, de l'ouverture
des frontières, des attentes d'un public qui a placé la télévision, et aussi la radio, au premier
rang de ses pratiques de divertissement et même de culture, le tout accompagné de
beaucoup d'erreurs stratégiques, de lois sans cesse modifiées, mais avec des progrès
irréversibles dans le sens de la liberté d'information et de programmation, ainsi que d'une
extension considérable de l'offre audiovisuelle.
De cette mutation, Jean Drucker a été l'un des acteurs majeurs, en même temps que l'un
des observateurs et analystes les plus pénétrants. De l'ORTF à M6 en passant par la SFP, RTL
et Antenne 2, il aura, dans des postes de responsabilité, tout connu des rapports avec le pouvoir
politique, les instances de régulation, les actionnaires privés, les concurrents, les personnels et
les autres médias. Le succès de M6, qui tranche avec la déconfiture de la 5 e chaîne et les aléas
répétés de Canal +, est en large part son œuvre; il faut se souvenir qu'au départ, rares étaient
ceux qui osaient croire aux chances de la petite « chaîne de trop ». Il est donc intéressant
d'analyser les raisons de cette réussite, alors que tant d'autres carrières audiovisuelles, d'abord
prometteuses, furent brisées par des crises, des disgrâces, ou par l'échec.
Un milieu familial fort, une éducation rigoureuse, voire rigide, une personnalité
sensible, ouverte, raffinée, un cursus universitaire classique: voilà les données de départ.
Passionné de littérature et plus encore de cinéma, Jean Drucker était de plain-pied dans
l'univers de la fiction et des images animées. Féru d'histoire et de politique, il dévorait la
presse depuis sa prime jeunesse. Entré dès 1964 à l'ORTF comme journaliste, son frère
cadet Michel, avec qui il eut toujours une relation très forte et qui eut la brillante carrière
que l'on sait, l'initia très tôt aux détours du sérail télévisuel. Sa formation d'énarque lui
donna le sens de l'intérêt général et l'expérience des pratiques administratives. Bien que
bref, son court passage au ministère des Affaires culturelles d'André Malraux le familiarisa
avec la problématique de la création et les principes de la politique culturelle. Ainsi quand,
à moins de 30 ans, Jean Drucker entre pour n'en plus sortir dans les métiers de l'audiovisuel,
il est un généraliste cultivé mais suffisamment aguerri pour ne pas succomber aux sortilèges
de ce monde très particulier qui a fait tourner bien des têtes.
C'est comme porteur du projet de M6 que Jean Drucker a donné toute sa mesure. Il
s'identifie au succès de cette aventure d'abord périlleuse. Tout l'y préparait: son expérience
du service public, sa connaissance approfondie du monde des journalistes, des animateurs,
des producteurs, ses cinq années à RTL et à la CLT, où il avait appris à la fois la logique de
l'entreprise privée, la science des relations avec des actionnaires et le contexte européen du
développement de l'audiovisuel. Négociateur né, diplomate de tempérament, expert en
convivialité, il n'était pas de ces patrons qui s'imposent par le cynisme de leurs vues et la
brutalité de leurs façons et ne délèguent leurs prérogatives à des collaborateurs qu'à regret
et le moins possible. Séduisant et persuasif, ennemi du double langage, d'une probité
sourcilleuse, aussi retenu que convaincu dans son expression, toujours précise et sobre bien
que volontiers prolixe, il était un chef d'entreprise respecté et, pour ses actionnaires, un
mandataire fiable et loyal. Avec la remarquable équipe qu'il a constituée autour de Nicolas
de Tavernost, dont la personnalité était à bien des égards complémentaire de la sienne, il a
su, dès les débuts de la Six, définir un profil de programme et une stratégie de
développement à la fois réalistes et ambitieux, en évitant, par une approche de « contre-
programmation », le piège d'une concurrence frontale par rapport aux grandes chaînes,
tout en ciblant progressivement son offre télévisuelle en direction des jeunes urbains et en
donnant à M6 un habillage, un esprit et un contenu marqués par une modernité de bon aloi.
Dans son for intérieur, il préférait sans doute Capital à Loftstory et les engagements de M6
dans la production de films à la diffusion de séries américaines; mais il n'était pas insensible
à toute forme de programme répondant à des attentes nouvelles du public, discernées ou
pressenties par les équipes responsables, et il savait que dans une entreprise soumise à la
rude loi du profit, l'audace et l'ambition sont la récompense d'une gestion rentable.
Ce profil de gestionnaire humaniste et créatif, aussi habile à affronter une assemblée
d'analystes financiers ou un amphithéâtre de Sciences Po qu'à comparaître devant une
commission parlementaire ou devant le Conseil supérieur de l'audiovisuel (CSA), il n'est pas
évident qu'il soit reproductible au temps des grands groupes de communication où les
paramètres financiers l'emportent sur tout le reste. On a souvent évoqué, au sujet de
l'audiovisuel, l'image un peu simpliste du couple géomètre-saltimbanque. Jean Drucker
n'était à proprement parler ni l'un, ni l'autre, mais il était assez rationnel et Imaginatif pour
entraîner des équipes remuantes et rassurer des actionnaires exigeants. Avec sa disparition
prématurée, unanimement saluée par ses pairs et par le monde de la communication dans
son ensemble, c'est peut-être une certaine culture de l'audiovisuel qui s'en est allée.
Jacques Rigaud
Ancien administrateur délégué de la Compagnie luxembourgeoise de télédiffusion
et président de RTL
Il n'est rien d'étonnant à ce que Guillaume Soulez ait dirigé pour la revue
MédiaMorphoses le dossier sur la parole dans les médias ! Guillaume a soutenu à l'Université
de Metz sa thèse sur «La médiation rhétorique à la télévision» (1998, N. Nel directeur). Au
sein de cette université et du centre de recherche du département de communication
(Crem), comme au sein de l'Inathèque de France (séminaire «Téléparoles»), il a dirigé sur
la même question, deux années durant, les réflexions d'équipes dont les travaux sont en
cours de publication. À maintes reprises, il est intervenu sur le thème dans des colloques,
en France et à l'étranger. Bref, avec obstination et compétence, il creuse le sillon de la parole
dans les médias, en confrontant sa perspective première, qui emprunte à la rhétorique, à des
chercheurs de tous horizons, de façon à éprouver la pertinence et les limites de ses choix.
Le dossier qu'il nous propose est riche de 13 contributions. Même s'il déclare présenter
des «états de la parole», il ne faut pas y voir un état présent des recherches engagées depuis
plus de 20 ans, sur l'un des seuls terrains de la recherche audiovisuelle, et surtout
télévisuelle, qui ait pu mobiliser toutes les perspectives méthodologiques: celui de la
conversation. En fait, il est une sorte de tribune offerte à quelques chercheurs universitaires
(plutôt jeunes chercheurs) et à quelques professionnels (de Pierre Schaeffer à Claude
Sérillon) pour rappeler ici, et là initier, un certain nombre de perspectives fructueuses
concernant radio et télévision.
Trois orientations majeures y dominent, qu'il faut estampiller globalement comme
esthétiques, sémiotiques et socio-pragmatiques. Elles essaient de caractériser la parole fixée
ou enregistrée en archive, à la Phonothèque nationale (M. -E Calas), pour la différencier de
la parole médiatisée, plus construite et ramassée, dans le montage, en ses moments forts. Il
s'agit ensuite et surtout d'analyser dans tous ses paramètres cette parole médiatisée. Il y a sa
matérialité de parole humaine, saisissable selon la phonétique (D. Duez), qui se veut science
des styles de parole en articulant situations de parole, rôles et styles (styles du même locuteur
et style identique propre à différents locuteurs). Il y a sa spécificité de parole ancrée dans
différents médias (théâtre et cinéma, épisodiquement; radio et télévision, frontalement); ses
évolutions se font selon les époques historiques et les régimes d'expression (nommés selon
les cas styles, stéréotypes, rôles de parole).
documentaire), voix off, voix in, sans en rester à la seule qualité «acousmatique» repérée
par Michel Chion (on notera que le n° 6 de la même revue, dans l'entretien de G. Soulez
avec D. Bougnoux, D. Dayan et S. Tisseron, a commencé à examiner ces questions de près,
notamment avec les contributions du psychanalyste S. Tisseron) ? Comment montrer que les
régimes de paroles médiatisées (ou de discours médiatiques ?) à travers le temps auraient
changé la possibilité de parler (gain de démocratie), de pratiquer les grandes opérations
cognitives (expliquer, argumenter, démontrer), ou affectives et identitaires (témoigner,
avouer, etc. ) ?
Le dossier dirigé par Guillaume Soulez ne pouvait à lui seul s'occuper du tout. Mais il
ouvre des pistes qu'il conviendrait de suivre.
Noël Nel
Cet ouvrage, fruit d'un long travail d'enquêtes et d'entretiens, intervient à point
nommé pour nous aider à mieux comprendre l'emballement des médias pour la question de
l'insécurité lors de la campagne présidentielle de l'an passé et, avant cela, lors de la
campagne des municipales de 2001. Étudiant à la fois des journaux télévisés, des émissions
et la presse écrite, les deux auteurs cherchent à définir les cadrages interprétatifs fournis par
les médias sur les questions de violence et d'insécurité. Depuis une vingtaine d'années, ils
observent l'existence de trois grilles interprétatives sur ces sujets, tant dans les médias que
dans les discours politiques. L'insécurité peut être considérée comme un symptôme, celui
d'une crise de l'intégration sociale. L'insécurité-menace est associée à l'existence de groupes
à risques, qu'il faut savoir réduire ou contrôler. Enfin, une analyse en terme de coproduction
se fait jour, associant violence visible et invisible, réelle et symbolique, et mettant en avant
une logique de la coproduction des violences sociales. À partir de cette typologie, ce livre
interroge les visions que les journalistes se font de leur travail et de leur responsabilité lors
du traitement de questions aussi délicates et potentiellement explosives.
Le principal clivage autochtone établit une ligne de fracture entre réalisme et
complexité. Les «réalistes» s'opposent aux «angéliques», alors que les tenants de la
complexité s'opposent aux « simplistes ». En fonction de la position des divers journalistes
et de la ligne éditoriale de leur support, les auteurs relèvent donc que certains sont attentifs
à relayer des «faits bruts», ce qui les amène souvent à relayer le discours des sources
À la différence d'autres manuels qui proposent une mise à plat des théories de la
communication et de leur apparition successive dans l'histoire des sciences sociales,
l'ouvrage d'Eric Maigret rend compte d'un parcours de recherche personnel, d'une
démarche «engagée» dans le sens où il souhaite «défendre l'existence d'une sociologie de
la communication face aux réductionnismes technologiques et face aux discours post-
modernistes» (p. 9).
L'évocation des différentes approches scientifiques de l'objet communicationnel repose
ainsi sur une série d'emboîtements (approches et limites de telle ou telle théorie,
croisements et ruptures), à partir d'une perspective qui nourrit le plan de l'ouvrage: la
communication doit être appréhendée à partir de trois niveaux de pertinence, qui
définissent les trois parties. Le niveau naturel ou fonctionnel concerne les implications de
l'homme dans l'univers des objets; le niveau social ou culturel renvoie aux relations
interpersonnelles; le niveau de la créativité aux ordres sociopolitiques, à la représentation et
la régulation du nombre.
Instituant un «ordre croissant d'importance» dans ce triple phénomène naturel,
culturel et créatif, l'auteur articule son analyse des théories de la communication, d'une part
autour de la communication de masse comme «la grande affaire du siècle», d'autre part sur
un retour aux «pères fondateurs» de la sociologie (p. 13). Un «prologue» en deux
chapitres situe l'enjeu méthodologique: pour sortir des réflexions triviales sur les
dénonciations ou l'apologie des médias, il faut éclairer les motifs d'une trop longue
incompatibilité entre école critique européenne et courant pragmatique nord-américain.
La première partie s'intitule «Dénaturaliser la communication». Elle s'attaque au
«problème des effets... et comment s'en débarrasser». Passant en revue les apports
d'Adorno jusqu'à ceux de Mac Luhan, via Lazarsfeld, la cybernétique et Palo Alto, Eric
Maigret s'emploie à prouver que «les médias sont des réservoirs de formes d'action et non
des stimulateurs d'action» (p. 58). La seconde partie, «Culturaliser la communication»,
s'intéresse au «jeu entre production et réception» révélé à la fois par l'approche des
sémiologues, celle des sociologues et celle des culturalistes. La question du sens est ici
inscrite dans le quotidien du langage, des interactions et des pratiques professionnelles ou
privées: Barthes et Eco, Bourdieu et de Certeau, Stuart Hall et Schlesinger, Edgar Morin et
Howard Becker (entre autres) sont sollicités comme autant d'inventeurs des multiples
figures du «public». La troisième partie vise à «replacer les médias dans le grand bain du
social, (à) boucler la culture, non pas fonctionnellement et de façon rassurante, à la
(manière) de la cybernétique, mais démocratiquement, dans le conflit des interprétations ».
Sous un titre tout aussi programmatique que les deux précédents, «Pluraliser la
communication », elle appréhende les théories de l'opinion publique et de l'espace public
au regard d'une «nouvelle sociologie des médias», que l'auteur entend fonder sur les trois
notions-phares de démocratie, créativité et réflexivité. Alternant le recours aux grands
textes (de Kant à Habermas), aux propositions interprétatives (sur le concept d'agenda ou
la «spirale du silence», par exemple) et aux questions convenues («la communication fait-
elle l'élection?», ou «la télé-réalité est-elle dégradation ou enrichissement?»), l'auteur clôt
sa démarche pédagogique («l'étude des principales théories de la communication, leur
critique et leur mise en relation» p. 227) par un bilan ouvert où il s'agit de «passer des
médias aux médiations» (p. 239). Ce faisant, Eric Maigret apporte sa pierre à «l'entreprise
cumulative» que représente la sociologie de la communication.
L'affirmation d'un vrai «point de vue» dans ce qui aurait pu n'être qu'une énième
compilation de références rend la lecture de l'ouvrage particulièrement roborative. La
richesse des sources (dont témoigne la présence de bibliographies en fin de chaque chapitre)
a cependant pour conséquence un survol trop rapide de la nature même des travaux des
auteurs sollicités. Par ailleurs on peut regretter, en ce qui concerne l'économie politique des
médias d'une part, l'ultime chapitre sur Internet d'autre part, que l'auteur ait sacrifié à une
volonté d'exhaustivité formelle sans parvenir à la maîtrise que méritent ces sujets et dont
témoignent nombre d'autres chapitres. Le statut des «encadrés» suscite parfois le même
embarras (lorsqu'ils introduisent aux sciences cognitives, à la médiologie, aux relations
entre télévision et culture, etc., et plus encore lorsqu'ils s'insèrent après la conclusion d'un
chapitre). Mais ils sont les bienvenus pour permettre quelques mises au point fort utiles (par
exemple sur les apports de Peirce ou les méthodes d'analyse des contenus). Les figures
disséminées au fil des chapitres, trop souvent conçues sur un modèle unique, n'apportent
en revanche pas grand-chose à la démonstration.
Sur le plan éditorial, on s'étonne que des coquilles subsistent au fil des pages
(écorchant le nom des Mattelart, par exemple) et que la troisième partie soit sur-titrée avec
le titre de la seconde.
Malgré ces quelques réserves, l'ouvrage d'Eric Maigret démontre avec érudition et
conviction que « communiquer consiste à convoquer des objets, des relations sociales et des
ordres politiques» (p. 11). Sa lecture est du plus vif intérêt pour non seulement aborder,
mais aussi dépasser les difficultés d'une réflexion sur la communication, et pour inciter, au-
delà de la thématique centrale des médias de masse, à l'ouverture de chantiers sur les
nouveaux objets, nouvelles pratiques et nouvelles normativités de la communication
contemporaine.
Françoise Massit-Folléa
Cet ouvrage très dense et très complet est la synthèse que l'on attendait de l'émergence
en France, à partir de la fin des années 1980, d'un véritable courant de recherche florissant
d'histoire des médias. Profitant du défrichement opéré par quelques pionniers qui se firent
historiens de la presse, de nombreux chercheurs se sont emparés, à cette époque, des divers
supports médiatiques - et des technologies de communication aussi - afin d'en dresser
l'historique, d'en dépeindre les évolutions, de les mettre en contexte, en parallèle avec les
tendances lourdes de la société française et de ses institutions politiques. Ces travaux se sont
structurés, ont atteint un niveau de cristallisation qui permet de dégager des synergies et de
faire apparaître une communauté savante spécifique, dont les illustrations sont la création
de la Société pour Γhistoire des médias (www. sphm. net) et la parution, à l'automne 2003, du
premier numéro d'une nouvelle revue, sous la rédaction en chef de Patrick Éveno et
d'Isabelle Veyrat-Masson. Le directeur de cette revue n'est autre que Christian Delporte.
L'ouvrage qu'il nous propose avec Fabrice d'Almeida se veut donc un riche manuel,
exposant l'état des connaissances acquises sur cette histoire des médias en France. La
bibliographie fournie et présentée de façon thématique, l'index très complet en font un outil
très utile pour quiconque cherche à entrer dans cette histoire par un bout particulier.
Dans son excellente préface à l'ouvrage de Geoffrey Geuens, Jean Bricmont pose la
question suivante: «Plus de 150 ans se sont écoulés depuis que les mécanismes de base de
la domination de classe ont été mis à jour. Et les membres de la classe dominante sont
toujours là, aussi peu nombreux qu'arrogants et sûrs de leur pouvoir. Leurs noms se
trouvent dans ce livre. Comment font-ils?» Depuis plusieurs années, Geoffrey Geuens
travaille à y répondre.
Il est banal de dire que les membres des classes supérieures, singulièrement la grande
bourgeoisie, sont plutôt avares d'informations sur eux-mêmes. Mais s'il est difficile de faire
connaissance avec ces milieux huppés, il n'en est pas moins possible de réunir sur leur
monde une foule d'informations, particulièrement éclairantes, à condition d'aller les
chercher là où elles sont. Geuens s'est donné cette peine. Il a méthodiquement rassemblé et
analysé la documentation relative à la composition de ces «lieux de pouvoir» que sont les
conseils d'administration des grandes multinationales américaines et européennes, les
personnels politiques des cabinets ministériels des différents gouvernements nationaux (de
droite et de gauche), les équipes dirigeantes des grandes institutions, les commissions
internationales, les clubs privés de l'élite, ou les rédactions des grands médias de presse, tous
ces lieux où évoluent «les architectes du Nouvel Ordre Mondial».
Travail ingrat mais maîtrisé et efficace, qui fait apparaître avec clarté non seulement la
force des positions occupées par tous ces hommes et ces femmes situés « à l'intersection des
milieux politiques, économiques et journalistiques», acteurs éminents mais somme toute
interchangeables, mais encore et surtout la puissance colossale du système de leurs relations,
qui vont de la collaboration officielle et publique jusqu'aux rapports électifs et aux échanges
privés.
On soupçonne depuis longtemps, certes, que les nantis gouvernent le monde, soit
directement, soit par élites intellectuelles et politiques interposées. Cet aspect des choses est
généralement vu comme le résultat d'une démarche conjoncturelle et intentionnelle, voire
«conspirationniste». Mais l'enquête de Geuens vise le structurel. Elle a le mérite de «mettre
en évidence la cohérence interne et les articulations le plus souvent masquées de ce réseau
d'intérêts croisés d'actionnaires, d'appareils et d'institutions diverses» qui constitue en
permanence le champ du pouvoir. Elle montre en effet que la logique du système de
domination capitaliste a besoin, pour s'accomplir, de se matérialiser dans des structures
comme celles, par exemple, de la Commission Trilatérale ou du Forum Économique
Mondial, explicitement hostiles à la démocratie jugée «obsolète», et soucieux de mener à
bien et à fond la révolution néo-libérale. Mais plus encore peut-être que de structures
objectives externes, cette logique a besoin de s'incarner dans des individus singuliers, des
«sujets» plus ou moins profondément structurés par elle, dont le destin personnel ne peut
se réaliser sans contribuer du même coup à la reproduction de leur univers social à travers
leurs choix existentiels, depuis leurs investissements scolaires jusqu'à leurs plans de carrière
et leurs stratégies matrimoniales.
L'ouvrage de Geoffrey Geuens se termine par un substantiel index des noms et des
sociétés qui permet de naviguer plus aisément dans la masse impressionnante des données
recueillies. Il est permis toutefois de regretter qu'il ne soit pas complété, ou enrichi par un
index thématique plus explicitement en rapport avec l'armature conceptuelle de l'étude.
Alain Accardo
La mesure d'audience est au cœur de l'activité des médias dits de masse: elle sert de
référence pour quantifier les auditoires et s'impose comme mode de consultation du public.
Le présent numéro d'Hermès présente tout d'abord les systèmes de mesure d'audience des
différents médias (presse, radio, télévision, câble et satellite), mettant en évidence que
l'audience est le résultat d'un ensemble de contraintes et d'un consensus toujours fragile
entre les partenaires concernés. La deuxième partie, plus particulièrement centrée sur la
télévision généraliste, analyse les effets de la concurrence (et de la logique de maximisation
de l'audience qui en découle) sur les programmes et les programmations. La partie suivante
s'interroge sur la validité de l'audience comme moyen de connaissance des publics, et sur la
possibilité de créer d'autres types de liens avec le téléspectateur. Enfin, la spécificité
d'Internet par rapport aux médias traditionnels permet d'affirmer que la mesure d'audience
n'y jouera sans doute jamais le rôle central, un nouveau mode de relation s'instaurant avec
l'usager.
Mots-clés: médias de masse, mesure d'audience, programmation, programmes, public, usager.
Audience researches are at the centre of mass medias activity: they serve as a reference to
quantify viewers and are considered to he THE way to survey audiences. This issue of Hermes
first presents different audience ratings systems used by media (press, radio, television, multi-
channel television), emphasizing the fact that audience is the result of many constraints and of
an always weak consensus between partners concerned. The second part, more particularly
focused on traditional channels, analyses competition effects (and the logic of audiences
maximization resulting) on schedules and programming. The following part questions
audience s validity as a mean to get to know viewers, and also questions the possibility to create
other types of links with the viewer. Eventually, Internefs specificity in regard with traditional
media allows to observe that audience rating might never play a central role in it, a new type
of relations being created with users.
Keywords: mass media, audience rating, programming schedule, audience, user.
La mesure d'audience, comme toute statistique, est une construction qui tente de
rendre compte du réel. Elle constitue une application des sondages et doit son originalité à
ses implications économiques, puisque les résultats d'audience constituent la clé de
répartition de la manne publicitaire et conditionnent la viabilité de la plupart des supports.
Si la notion d'audience est simple («la fraction de la population de référence exposée à un
média»), la définition de cette «exposition» et la manière de la relever sont problématiques.
D'où un certain nombre de conventions, différentes selon les médias, pour aboutir à une
délimitation plausible des faits d'audience, malgré la multiplicité des modalités selon
lesquelles un individu est susceptible d'entrer en contact avec un média et les contraintes
inhérentes au recueil d'information.
Mots-clés: mesure d'audience, médias, supports publicitaires, statistiques, recueil
d'information, presse, audiovisuel.
La notion d'audience n'apparaît que dans les années cinquante pour la presse écrite,
soit tardivement. La méthodologie mise en œuvre butte sur le nombre de titres, la diversité
des situations de lecture, l'obligation de faire appel à la mémoire du lecteur. Les enquêtes
s'opèrent par questionnaires sur de très vastes échantillons. L'amélioration de la procédure
a permis d'élargir le champ des questions couvertes, d'accélérer et lisser les conditions de
collecte, mais le nombre de titres étudiés reste forcément restreint, nécessairement limité
aux plus grosses diffusions (contrainte statistique). Il est significatif que les divisions entre
quotidiens et magazines se soient manifestées très tôt sur l'étude d'audience, chaque forme
de presse réalisant la sienne.
Mots-clés: presse écrite, quotidiens, magazines, audience, enquête, méthodologie.
It is not until the 50s that the notion of audience appeared in the Press, very recently
indeed! The methodology used is exposed to the great number of titles, a wide range of reading
context and the necessity to appeal to the reader s memory. Surveys are carried out through
qustionnaires based on a wide range of samples. The improvement of the process has enabled
us to extend the field of questions at issue, to speed up and improve data collecting, but they
are exposed to the number of titles under study, inevitably limited, and indeed limited to the
largest issues (statistical constraint). It is of importance to note that because many publishers
carried out their own audience surveys at an early date, thus the division between daily papers
and magazines also appeared very early.
Keywords: written press, daily papers, magazines, audience, survey, methodology.
Placée dans un univers concurrentiel depuis longtemps, la radio est le premier média
à s'être doté d'un outil de mesure d'audience, dès 1949. Médiamétrie, chargée de la
mesure d'audience des stations nationales et locales, propose aujourd'hui deux outils
complémentaires. L'enquête 75 000+ (du nombre de personnes interviewées par an),
réalisée chaque jour par téléphone, porte sur l'écoute des 24 dernières heures. Le panel,
périodique, demande à un même échantillon de remplir pendant trois semaines un carnet
d'écoute. Les indicateurs utilisés en radio comptabilisent soit des individus, quelle que
soit leur durée d'écoute (audience cumulée), soit des audiences, c'est-à-dire des
«auditeurs x quarts d'heure» (audience moyenne, part d'audience). Depuis fin 2002, les
auditeurs de 13-15 ans sont pris en compte. L'audimétrie passive (sous la forme de
montres) pourrait remplacer prochainement les enquêtes qui font appel à la mémoire de
l'auditeur.
Mots-clés: radio, mesure d'audience, public, auditoire, audience, indicateurs.
Put into a competitive universe since a long time, radio is the first media that has given
itself an audience measurement system, as soon as 1949. Médiamétrie, in charge of audience
measure for national and local radio stations, now proposes two complementary tools. The
"75 000+ survey" (referring to the number of people interviewed per year), made each day by
phone, is focused on the last 24 hours listening. The panel, which is periodic, requires a same
sample to fill in, during three weeks, a listening diary. Indicators used in radio either count up
individuals, whatever their listening time is (coverage), or audiences, that is to say "listeners χ
quarter of an hour" (rating, share).
Since the end of 2002, listeners from 13 to 15 years old are taken into account. Passive
metering (thanks to clocks) could in a little while replace surveys, based on listener s memory.
Keywords: radio, audience measurement, audience, listeners, indicators.
L'évolution de la mesure d'audience TV est indissociable des principales étapes qui ont
mené d'une télévision publique en situation de monopole à un système mixte public/privé.
Les résultats du panel postal de l'ORTF, premier dispositif fiable et permanent (à partir de
1967), sont réservés aux seuls dirigeants des chaînes, afin d'éclairer une politique de
programmes encore volontariste, tandis que le CESP mène une enquête parallèle à
destination de la profession publicitaire. La montée de la compétition entre chaînes
publiques s'accompagne de l'attention croissante accordée à l'audience et, en 1982, la mise
en place de l'audimétrie-foyer représente une véritable révolution, par la rapidité et la
précision des résultats obtenus. Avec l'arrivée des chaînes commerciales et la concurrence
entre diffuseurs qui en résulte, les publicitaires sont en mesure d'exiger leur participation
au contrôle de l'outil géré par Médiamétrie et imposent l'audimétrie individuelle
(Médiamat, 1989), qui permet un suivi par cible.
Mots-clés: mesure d'audience, télévision, concurrence, publicité, audimétrie-foyer, audimétrie-
individu, part d'audience.
Evolution of TV audience research is un-dissociable from the main stages which led from
a state owned channel without competition to a system joining public and commercial
channels. Results from the ORTF mailed panel, first reliable and permanent device (since
1967), are reserved to no more than channel's executives, in order to lighten a program policy
still willing, whereas CESP is conducting a parallel survey used by advertisers. Growing
competition between public channels comes with growing attention paid to audience and, in
1982, the setting of TV meter represents a real break, since results are rapidly obtained and
precise. With the arriving of commercial channels and resulting competition between
broadcasters, advertisers have the power to require their participation to the control of the
Médiamétrie system and impose people meter, which allows calculating audience by target.
Keywords: audience research, television, competition, advertisement, TV meter, people meter,
share.
Olivier APPÉ et Jean MAUDUIT, Câble et satellite: il était une fois MédiaCabSat
Depuis 2001, MédiaCabSat est l'outil spécifique de la mesure d'audience des chaînes
diffusées par câble et satellite, mis en place par Médiamétrie pour répondre à l'enjeu de la
multiplication des chaînes thématiques. L'audimétrie, qui permet l'enregistrement de
l'écoute sur l'année entière, avec identification automatique des chaînes, a été adoptée. À
l'origine, le panel est constitué de 830 foyers, dont les 480 foyers du panel Médiamat qui
reçoivent l'offre élargie. L'échantillon, qui doit être représentatif des différentes offres
élargies reçues, a été construit à partir d'une enquête nationale de cadrage (75 000+). Pour
assurer une fiabilité statistique satisfaisante, malgré la faiblesse de l'échantillon et le grand
nombre de chaînes suivies (70 à l'origine), le choix a été fait de fournir des résultats cumulés
sur six mois. Les principales caractéristiques de la population disposant d'une offre élargie
sont maintenant connues avec précision.
Mots-clés: mesure d'audience, câble, satellite, chaînes thématiques, échantillon.
Since 2001, MédiaCabSat is the specific tool for audience rating of channels broadcast
through cable and satellite set by Médiamétrie, to answer the stake of thematic channels'
multiplication. Metering, which records the viewing for the whole year, with automatic
identification of channels, was passed. At the beginning, the panel is constituted of 830 homes,
among which the 480 Mediamat panel's homes, which receive the "enlarged offer". The
sample, which has to be representative of the different offers received, was built from a national
centring survey (75 000 +).. To insure satisfying statistic reliability, despite the samples
weakness and the important number of channels followed (70 at the beginning), the choice was
made to furnish results reached for six months. The main characteristics of the population,
disposing an enlarged offer, are now precisely known.
Keywords: audience research, cable, satellite, thematic channels, sample.
La mesure d'audience joue un rôle très important dans les décisions prises dans une
chaîne comme TF1, qui ne vit que de la publicité. Nous faisons une télévision de la
demande et le résultat d'audience exprime une forme de satisfaction du public. Toutefois,
c'est un chiffre relatif, qui mesure l'état de la concurrence à un moment donné; un chiffre
abstrait, qui moyenne des départs et des arrivées; et un chiffre rétrospectif, qui montre ce
qui s'est passé mais ne dit pas ce qu'il faudrait faire pour que cela marche. C'est pourquoi
l'audience est d'une faible utilité pour concevoir les programmes. Il n'y a pas de
renouvellement de la grille sans prise de risque. Les études peuvent nous aider à saisir des
tendances, à confirmer des hypothèses. Mais l'intuition et l'expérience sont essentielles
pour prendre la décision d'arrêter une émission ou d'essayer de l'améliorer, et pour créer
de nouveaux programmes.
Mots-clés: mesure d'audience, public, demande, satisfaction, cibles, chaîne généraliste,
programmes.
Audience research plays a pretty great role in decisions made in such a channel as TFl,
which only lives on advertisement. The television we build is based on demand and audience
result expresses kind of a public satisfaction. However, it is a relative figure, which measures
the state of competition at a given time; an abstract figure; which ponders viewing rises and
falls; and a retrospective figure, showing what has been taking place but not what should be
done to make it work. Therefore, audience is of little utility to conceive programs. It's
impossible to renew the schedule without taking risks. Surveys can help us to seize trends, to
corroborate hypothesis. But intuition and skills are essential to make decision to stop a
broadcast or try to improve it, and to create new programs.
Keywords: audience research, audience, demand, satisfaction, targets, general channel, programs.
State, shareholder of public television, is concerned about his investment's social profit.
Public channels' programs generally have to be seen by most people. But in the same time, each
public channel has to respect obligations and cannot be a simple accumulation of "audience
traps". It is the programmer responsibility to manage these paradoxes building a schedule,
which leans on these constraints and affirms each channel's particular relation with the public.
Audience is the award for a generous scheduling, taking risks and making sense. France 3's
programming was built around proximity and curiosity concepts; France 2 has to be a great
entertainment, information and creation channel; France 5 is an educative channel aiming to
bring to certain audiences who need it (particularly young people), keys to better understand
everyday reality.
Keywords: audience, public service television, aims, scheduling targets, young people.
Après avoir montré que l'audience mesurée par l'audimat n'est pas l'expression du
public de la télévision mais un indicateur abstrait nécessaire au financement publicitaire,
l'article relativise la place de l'audimat (qui n'est qu'un indicateur ex-post) dans
l'orientation même de la programmation. Comme toute industrie culturelle, la télévision
doit prendre en compte la diversité du «grand public» et l'instabilité socio-historique de ce
qui est « recevable » et « désirable » par le plus grand nombre. Les programmes de télévision
apparaissent ainsi comme des paris fondés sur des « théories » du public et du monde social
concernant «ce qui intéresse les gens». D'où l'intérêt sociologique du «conformisme
instable» de ces programmes qui permet d'accéder aux diverses manières dont peuvent se
«dire», à travers les spécificités de la médiation médiatique, les sociétés.
Mots-clés: télévision, audimat, public, programmation, médiation, représentations culturelles.
First of all, the paper demonstrate that ratings are not the audience but a useful
commercial artefact for cultural industries. Moreover, one can shows that the (ex-post) ratings
are not the main factor of television programme planning. Another approach may be to
consider television as a risk industry, which have to deal with diversity and instability of both
its social and cultural context of production and reception. In that way, television programme
planning is a very specific mediation concerning "how to interest people" - without guarantees.
So it would appear that television culture is the expression of the shifting frames of social world
representations.
Keywords: television, audimeter, audience, programme planning, mediation, cultural
representations.
L'émission de télévision française Loft Story, diffusée au printemps 2001, peut être
interprétée comme le signe de l'aboutissement de la logique de l'audience dans le régime
télévisuel. Nous proposons ici de montrer que le diffuseur et le producteur ont agencé une
industrialisation de l'audience et orchestré une instrumentalisation de la critique.
Industrialisation de l'audience en ce sens que tous les ressorts déjà expérimentés ailleurs ont
été utilisés ici pour maximiser le nombre de téléspectateurs réunis devant leur écran et pour
optimiser la vente de l'espace publicitaire aux annonceurs. Et surtout, instrumentalisation
de la critique car la pluralité des voix qui se sont élevées pour discuter du sens social de ce
programme de «télé-réalité» a tout à la fois masqué la finalité strictement économique du
dispositif et participé à sa réussite.
Mots-clés: audience, critique, industrialisation, téléréalité, trivialité.
The French television program "Loft Story", which broadcasted in spring 2001, can be
interpreted as the ultimate illustration of the drive towards rating in television. We propose to
show that the broadcasters arranged an 'industrialization ' of the rating and orchestrated a
reaction by critics. Industrialization of the rating in the sense that all the methods previously
established were used here to maximize the number of the televiewers and to optimize the
exposure of advertisements. And more particularly their orchestration of a reaction by critics,
which was illustrated in the abundancy of the voices rising to discuss the social connotations
of this "reality television" program. This not only masked the financial purpose of the program
but also contributed to its success.
Keywords: audience rating, criticism, industrialization, real TV, triviality.
La plupart de ceux qui dénoncent «la dictature des sondages» et beaucoup de ceux qui
utilisent les résultats audimétriques ont une vision simpliste des données, vision centrée
essentiellement sur la part de marché et le nombre de spectateurs. Cet article veut montrer
qu'il est possible de construire, à partir des données de l'audimétrie, des modèles statistiques
un peu compliqués, et de faire ainsi une utilisation intelligente et féconde de cet instrument.
A partir des données présentées sous forme d'heures-spectateurs, les indicateurs statistiques
proposés ici (par exemple, la structure du volume d'écoute par genres, ou l'indicateur
d'intérêt) permettent d'abord une connaissance sérieuse des comportements et des réactions
des différentes composantes du public de la télévision, connaissance indispensable aux
responsables de la programmation. Ils permettent encore d'évaluer les politiques des sociétés
de programmes, notamment celles des télévisions publiques.
Mots-clés: audimétrie, indicateurs, statistiques, public, comportements, programmation.
Most of those who proclaim "polls dictatorship" and many of those who use meter ratings
have a caricatured vision of data, essentially focused on market share and the quantity of
viewers. This paper aims to show it is possible to build, based on metering data, statistic
patterns a bit complex, and thus to make a clever and fertile use of this tool. Based on data
presented as viewers per hour, statistics measures proposed here (for instance, structure of
viewing time by categories of programs (chercher "genre"), or interest measure) first enable a
serious knowledge of television audience behaviour, essential to programme planners. They
also enable to evaluate channels programming policies, particularly those of public ones.
Keywords: metering, indicators/clues, statistics, audience, behaviours, programme planning.
Sophie BENOIT, Une direction des études dans une chaîne de télévision publique
Il est essentiel pour une chaîne de télévision, qu'elle soit publique ou privée, de
connaître son public. Le groupe Francetélévisions s'est doté d'une direction d'études
J/ is essential for some television channels, whether it is public or private, to know its audience.
Francetélévisions group has given itself a common research direction and three directions
affiliated to each channel to assemble and analyse the whole available data on television's
audience. Facing tools variety and datas abundance, it is imperative to well select what is most
relevant to answer demands coming from programme planners. Studies management
decorticate audience ratings per target and uses software allowing following audience flows,
reports from one channel to another, etc. Qualitative studies are essential to foresee audiences
reactions, to improve a program. Surveys proposed by specialised institutes complete these
intern studies (barometer, budget-time surveys, sociological evolutions, etc. ) .
Keywords: public channel, studies, audience, targets, programming programs.
Instead of complaining about the success and hegemony of commercial audience ratings,
one should contribute to the design of a different relationship with the "citizen-TV viewer",
built upon measurement devices, specific criteria, control and retaliation bodies. Different
solutions are assessed, such as viewers'associations, TV journals, traditional democratic
representation. Theories of justice lead to a proposal combining a "civic quality agregated
ratio", a "civic label", and an extension of the representation system for the regulation body,
the "Conseil Supérieur de l'Audiovisuel".
Keywords: audience, citizenship, quality, authority, public utility, equity.
The reflexion on the counterpart which public television must offer to the payment by the
whole of the televiewers of the special tax is dependent on a public discussion orchestrated by
the representatives of the State. Public television cannot be withdrawn from a measurement of
its audience, but can propose adapted criteria of evaluation, like the indicators of reach which
express the extent of the touched public. More basically, in order to develop the dialogue with
the public, France Televisions founded a right of each televiewer to be listened, to obtain an
answer and to make sure that its remarks will be considered with respect, through a device of
mediators and a service of relation with the televiewers.
Keywords: public service broadcasting, reach, viewers rights, mediator, relation.
d'internautes, relevé des fréquentations de sites) et les enquêtes en ligne ne sont pas tant
conçues pour la connaissance des publics que comme outils stratégiques pour la conception
de site, la publicité et le commerce électronique. Outre les enjeux déontologiques soulevés
par l'exploitation des traces laissées par les internautes, ces dispositifs produisent des
modèles de quantification des utilisations qui ne permettent pas de saisir l'usage social du
média.
Mots-clés: Internet, audience, méthodologie, marketing, usages.
After questioning whether the concept of "audience" is applicable to the Internet, this
article provides a critical analysis of Internet audience studies, which are based on a
combination of informatics tools, statistics, and marketing. It analyzes the different
methodologies used to measure audiences (user centric and site centric devices), as well as
online surveys. These devices are mainly used as strategic tools for advertising and electronic
commerce. While Internet audience studies raise ethical issues about the protection of
users privacy, they merely build empirical models that do not allow us to grasp the social uses
of Internet.
Keywords-. Internet, audience, methodology, marketing uses.
Détenir des informations stratégiques sur autrui a toujours été un enjeu. Avec l'entrée
dans le monde industriel marchand et le développement corrélatif de l'offre, le souci de la
connaissance de l'autre en tant qu'acheteur potentiel est apparu: les sondages se sont
développés pour recueillir des éléments collectifs d'information sur les pratiques, les
opinions, etc. Internet introduit une rupture en permettant la connaissance la plus fine des
pratiques individuelles: chaque transaction laisse une trace sur le réseau, l'informatique
permet de stocker et réunir automatiquement les informations concernant chacun, au risque
d'atteindre aux libertés individuelles. La Commission nationale de l'informatique et des
libertés (Cnil), autorité instituée par la loi Informatique et libertés (1978), a vocation à
veiller au respect des droits des citoyens confrontés à des techniques de plus en plus
intrusives.
Mots-clés: information, citoyen, informatique, réseau, fichiers, vie privée, libertés individuelles
ou publiques.
To detain strategic information about one another has always been a stake. Entering the
industrial marketing world and the correlative development of the offer, the will to know
people as potential consumers appeared: polls developed to gather collective information pieces
about practices, opinions, etc. The internet introduces a break allowing the sharpest knowledge
of individual practices: each transaction leaves a trace on the network, processing allows to
stock and gather automatically information pieces concerning each, risking impairment to
individual liberties. The Cnil (national commission for information and liberties), authority
instituted by the Information and Liberties law (1978), is aimed at ensuring citizens rights
respect confronted to still more intrusive technologies.
Keywords: information, citizens, processing network, files, private life, individual or public
liberties.
The measurement of audience of the new medias: a good answer but what is the
question ?
As regards audience, the technical quality of the device of measurement is not enough.
The relevance of the measured concepts and their insertion in a process of decision-making are
determining. The TV profit from a whole tradition preliminary to the people metering and
from a qualitative knowledge allowing a complex use of data of audience in phase with their
economy. On the contrary, the thematic TV are dependent on figures insufficient, if they are
alone, to judge their economic viability and which are used in the absence of all other tool of
reflexion. They would make well benefit from the lessons of the crisis of the Web sites to
understand that their economy does not rest mainly on their share, but rather on the
satisfaction of a faithful public and on a balance between real costs and short-term receipts.
Keywords: audience, use, new medias, thematic TV, Web sites, decision-making process,
economy.
Éric Sautedé, rédacteur en chef de Chinese Cross Currents, Institut Ricci de Macao.
Michel Souchon, docteur en sociologie, a été responsable d'études dans les services de
recherche de la télévision française, à l'ORTF, de 1970 à 1975. De 1975 à 1985, il a dirigé le
Groupe d'études des systèmes de communication à l'Institut national de l'audiovisuel. Il a
été ensuite, de 1985 à 1989, directeur des études de TF1 puis d'Antenne 2. De 1991 à 1995,
il a été consultant à la présidence commune de France Télévision. Il est l'auteur de
nombreux articles et de plusieurs ouvrages La Télévision des adolescents (1969), Petit écran
grand public (1980), Trois semaines de télévision. Une comparaison internationale (1982),
L'Enfant devant la télévision des années 1990 (en collaboration, 1991). Groupe Bayard.
Simonetta Tabboni, professeur émérite à l'université de Paris VII-Denis Diderot.
Marc Tessier, président de France Télévisions depuis juin 1999, et à ce titre, président de
France 2, France 3 et France 5. X-Ena, inspecteur des Finances en 1971, il commence sa
carrière dans la Fonction publique avant de rejoindre, en 1982, le groupe Havas, comme
directeur financier puis directeur général. Il participe au lancement de Canal Plus dont il
devient le directeur général en 1984. Il assure le développement du groupe Canal Plus à
l'étranger, puis en France, où il lance le projet numérique. De 1995 à 1999, il est directeur
général du Centre national de la cinématographie (CNC).
Dominique Wolton, directeur de recherche au CNRS, laboratoire communication et
politique. Directeur de l'UPS information, communication et enjeux scientifiques.
Directeur de la revue Hermès, CNRS, Paris.