You are on page 1of 35

É

TUD
E
P
ROJ
ETSWE
B

L
ivr
ebl
anc
s
url
eWeb2.0
Livre blanc sur le Web 2.0

Décembre 2006

L’ensemble de ce livre blanc est sous licence Creative commons : reproduction possible – respect de
la paternité – pas de modification – pas de commercialisation.

Comment utiliser ce document pdf "dynamique"


Tous les liens de ce document sont actifs, donc cliquables : liens du sommaire ci-dessus, liens aménagés dans le
corps du document pour des renvois d'une partie à l'autre, et liens vers les pages web citées.
Pour naviguer plus aisément dans le document, il est possible d'afficher le plan détaillé du document : cliquer
sur le volet Signets, à gauche dans votre lecteur Adobe Acrobat.
Tous nos documents PDF sont optimisés pour une lecture sous Acrobat Reader (version 6.0 et ultérieures).
Vous trouverez ci dessous le lien permettant de télécharger la dernière version du logiciel :
http://get.adobe.com/fr/reader/

Site d’information : www.les-infostrateges.com

Site Notre Offre : notre-offre.les-infostrateges.com

Accès à la librairie : http://editions.les-infostrateges.com

Les Infostratèges – Sarl – 42, rue des Haies – 75020 Paris


Livre blanc sur le Web 2.0 : Table des matières
|cc| Les Infostratèges
Retour à la table des matières

TABLE DES MATIÈRES

TABLE DES MATIÈRES ....................................................................................... 1

ÉDITORIAL....................................................................................................... 2

REGARDS SUR LE WEB 2.0 ............................................................................... 3

GENÈSE DU TERME WEB 2.0 ......................................................................... 11

PETIT LEXIQUE DU WEB 2.0 .......................................................................... 13

POURRAIS-JE AVOIR UN NUAGE DE TAGS SUR MON SITE WEB 2.0 ? OU FAIRE DU

NEUF AVEC DU VIEUX .................................................................................... 19

QUELQUES APPLICATIONS EMBLÉMATIQUES DU WEB 2.0............................... 24

LE WEB 2.0 AU SERVICE DE LA VEILLE ET DE LA RECHERCHE D'INFORMATION ... 27

SOMMAIRE DU DOSSIER SPÉCIAL EN LIGNE : ................................................... 32

CRÉDITS DOCUMENTAIRES ............................................................................ 33

1
Livre blanc sur le Web 2.0 : Éditorial
|cc| Les Infostratèges
Retour à la table des matières

ÉDITORIAL
Le concept de Web2.0 s'est répandu comme une traînée de poudre, dans les milieux du Web
tout d'abord, puis dans les médias grand public. Il semble ainsi que, près de 15 ans après la
naissance du Web, les grands médias aient de nouveau de la matière à se mettre sous la
dent à propos du phénomène Internet. Et comme d'habitude, avec un cortège
d'approximations et de slogans plus ou moins marketing. Bref, le Web 2.0 est devenu une
mode. Une raison de plus - a priori - pour Defidoc de ne pas en parler, tant il est vrai que
notre ligne éditoriale est de s'élever au-dessus des modes et des phénomènes
d'engouement superficiel. Nous avons tant vus de prétendues révolutions disparaître
comme elles étaient venues, sans laisser de traces...
Mais cette fois, en dépit de la mode, le phénomène Web 2.0 est vraiment sérieux, même s'il
est difficile à cerner. Le concept lui-même a été lancé à l'anglo-saxonne, de manière très
pragmatique, comme une nébuleuse indéfinissable, tout juste illustrée d'exemples "pour
faire comprendre ce qu'on veut dire". On est loin de la conceptualisation à la française et
l'esprit cartésien est toujours un rien dérouté par l'empirisme d'outre-Atlantique.

Toujours est-il que le Web 2.0 est devenu une réalité tangible parce qu'il est avant tout sous-
tendu par des avancées techniques importantes, qui globalement permettent au plus grand
nombre d'internautes de devenir auteur et acteur sur le réseau. Un pas de plus dans ce sens,
et non une nouveauté puisque - déjà - le "premier" Web offrait beaucoup de souplesse pour
que toute personne puisse communiquer. Mais aujourd'hui c'est encore plus facile et tout
aussi peu cher. Deux critères qui vont sans doute donner un nouveau souffle au Web, et
faire exploser à la fois le trafic et le nombre de sites, notamment les blogs qui déjà pullulent.
Pour aborder cet univers du Web 2.0, nous proposons des articles de vulgarisation
technique, mais aussi de réflexion, pour tenter d'échapper au regard simplement béat face
au progrès technique, et mieux comprendre au sein de quels enjeux informationnels et de
pouvoirs ce nouveau souffle du Web vient s'insérer.

C'est ainsi que nous portons pour commencer quelques Regards sur le Web 2.0 pour
contribuer à le démythifier et à comprendre ses vraies dimensions.
Un court article rappelle la Genèse du terme Web 2.0 et un Petit lexique tente de définir les
termes essentiels pour une bonne appréhension du phénomène.

Entre la nébuleuse du Web 2.0 et les Nuages de tags, il n'y a qu'un pas, à partir duquel nous
démontons le faux-semblant des prétendues innovations techniques du Web qui en fait ne
sont que l'application de méthodes de traitement de l'information dont certaines sont plus
que séculaires.

2
Regards sur le Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

REGARDS SUR LE WEB 2.0


Par Fabrice Molinaro

Le Web 2.0 est devenu un terme à la mode depuis quelques mois. Mais il faut savoir raison
garder, et par conséquent, faire la part des choses, entre ce qu'il faut bien continuer
d'appeler le "mythe Internet", paré de toutes les vertus et tous les faux semblants - positifs
autant que négatifs - de la nouveauté que peu connaissent réellement en profondeur.

Le Web 2.0 entre mode, marketing et réalité technique


Depuis quelques mois, l'expression fleurit, non plus seulement dans le petit groupe des
initiés de l'Internet, mais dans les médias grand public 1. L'expression se pare donc des vertus
magiques de la nouveauté qui pourrait bien n'être qu'un slogan de marketing et une mode
de plus.
La notion "2.0" renvoie objectivement à un numéro de version, à l'instar des logiciels. Il y
aurait donc une nouvelle génération du Web... Et la presse d'entonner des hymnes de
louanges et d'adoration du nouveau phénomène. Avec beaucoup d'exagérations et de
contresens.
Bien évidemment, il faut savoir raison garder, et par conséquent, faire la part des choses,
entre ce qu'il faut bien continuer d'appeler le "mythe Internet", paré de toutes les vertus et
tous les faux semblants - positifs autant que négatifs - de la nouveauté que peu connaissent
réellement en profondeur.

Lors de l'arrivée du premier Web, au milieu des années 90, un enseignant chercheur du
CNAM, pionnier de l'Internet confiait volontiers qu'assistant pour la première fois à la
médiatisation d'un phénomène qu'il connaissait parfaitement, il lisait tellement de contre-
vérités dans la presse qu'il inclinait à ne plus croire la presse sur les autres sujets traités par
celle-ci...

On le sait, l'expression même de "Web 2.0" a été lancée comme un vague terme générique,
destiné à décrire commodément une nébuleuse de techniques et de services, autour d'une
idée force. D'où les difficultés supplémentaires pour cerner un sujet qui échappe un peu plus
à chaque fois qu'on veut l'enfermer dans des limites connues.

1
Courrier International en août 2006, puis plus récemment la plupart des grands quotidiens, y compris Le
Monde.

3
Regards sur le Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Nous allons donc tenter de nous frayer un chemin dans cette jungle, à la lumière de notre
expérience du terrain, autant comme praticiens que comme formateurs, contraints de
rendre compte et d'expliquer les concepts et les réalités enseignées.

Un réel déplacement du centre de gravité du web

Le web 1.0 en tant que bibliothèque mondiale


Le premier Web - c'est-à-dire l'Internet grand public basé sur la norme HTML et ses dérivées,
et qui prend son essor à partir de 1993 - s'est construit selon une logique de production de
l'information. Ce Web "1.0" se présente comme un immense gisement d'information, de
surcroît en expansion continuelle - rappelons-nous la loi qui permettait d'estimer que le Web
doublait de volume tous les 18 mois - jusqu'à prendre des dimensions galactiques.
Selon une logique héritée des penseurs grecs, tout internaute pouvait donc légitimement
s'attendre à trouver sur ce Web toutes les informations et connaissances dont il avait
besoin, produites par les détenteurs de ceux-ci : informations produites par les sources elles-
mêmes - sites institutionnels, pris dans le sens le plus large -, et connaissances structurées et
mises à disposition par ceux qui savent.
De sorte que la relation au Web ne différait presque en rien de celle de tout individu
désireux d'enrichir son savoir et se procurant les outils classiques pour le faire :
bibliothèques, librairies, ouvrages, revues, encyclopédies... Ce Web-là peut être vu comme
une source - et/ou un canal d'accès - de plus au savoir. Les grands avantages de ce nouvel
accès étant la mondialisation et la démocratisation (coût de production de l'information en
ligne devenus marginaux) des sources.
Bien sûr, au côté de cet aspect de rapport à la connaissance et à l'information, le Web
mondial apportait un prodigieux outil de communication décuplant les possibilités de
contacts entre les hommes, et ce, directement au niveau planétaire, contribuant ainsi - avec
l'accélération des moyens de transport - à "rétrécir" psychologiquement notre planète.
Tout ce Web constitue déjà, en soi, un phénomène d'ampleur comparable à l'invention de
l'imprimerie : un immense pas en avant dans les moyens de communication humains.

Les premiers grains de sable dans la mécanique : la notion d'auteur subvertie


Dès ces premiers temps du web, tout le monde n'a peut-être pas totalement pris conscience
d'un nouveau phénomène qui allait considérablement changer la donne.
Le Web est né de la norme HTML, mettant - comme son nom l'indique - les possibilités
immenses de l'hypertexte à la portée de tous. On a assez dit que le web constituait une sorte
d'hyper-document mondial. Mais peu ont poussé l'analyse plus avant.
Dans un document classique, consultable en séquence, de la première à la dernière page -
même s'il est possible de sauter des passages ou de s'orienter par la table des matières -
l'auteur est maître de son discours ; il mène son lecteur comme il veut, par où il veut.

4
Regards sur le Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

L'hypertexte permet au lecteur de naviguer dans un texte comme il errerait dans une ville,
s'orientant selon ses goûts ou sa fantaisie, choisissant la voie qu'il souhaite à chaque
carrefour, plutôt que de suivre un itinéraire dicté par un "auteur". De sorte que la notion
d'auteur - qui inclut logiquement la création du discours mais aussi la maîtrise de ses
enchaînements - se trouve démembrée. Si l'auteur premier garde la maîtrise de son texte, il
cède à son lecteur la maîtrise du cheminement dans celui-ci. Le lecteur peut "zapper"
comme il l'entend d'un bout de texte à un autre, voire d'un auteur à un autre.
De sorte que la notion classique d'auteur éclate, se dilue au sein de l'immense hyper-
document qu'est "le Web". Et dès lors, l'internaute devient maître de son parcours, libre
d'enchaîner les textes qu'il veut, dans l'ordre qu'il veut. Chacun devient donc auteur d'une
œuvre virtuelle qui est unique de par la juxtaposition personnelle des divers morceaux de
textes parcourus. On connaît peut-être les "Cents mille milliards de poèmes" imaginés par
Raymond Queneau en 1961, dont les pages sont coupées ligne à ligne, le lecteur pouvant
choisir de composer le poème qu'il veut à partir de dix propositions de 14 vers réguliers de
l'auteur premier. C'est dans le même esprit que le Web a démultiplié cette possibilité.
Nous constatons donc que lorsque les médias nous présentent le Web 2.0 comme la
possibilité de mettre l'utilisateur au centre du réseau, ce n'est pas nouveau.
Tristan Nitot (responsable de Mozilla Europe) a d'ailleurs bien rappelé que le Web 2.0
correspondait à l'aboutissement de ce qu'avait rêvé Tim Berners Lee aux origines du Web
(http://solutions.journaldunet.com/0606/060623-video-tristan-nitot.shtml).
L'hypertexte en lui-même mettait déjà l'internaute au centre du réseau, lui offrant toutes les
navigations originales possibles.

Un progrès technique incontestable


Le Web 2.0 tente en fait d'aller plus loin, ou, comme le souligne Tristan Nitot, offre la
possibilité à l'internaute de devenir auteur et acteur du réseau. Là est, à notre sens, le très
réel apport du Web 2.0, par delà les slogans et les fantasmes.

Des "sites perso" aux blogs


Compte tenu des coûts de production marginaux d'un site, toute personne peut depuis
longtemps produire son propre site sur le Web. Mais jusqu'à ces derniers mois, il fallait
maîtriser quelque peu la technique de l'Internet, connaître un minimum la norme HTML, et
ce, pour des résultats d'une qualité esthétique et ergonomique douteuses. Nombre de sites
personnels qui ont fleuri dans les années 90 pouvaient être d'une redoutable laideur, mais
surtout d'une commodité d'usage discutable. Il n'est encore pas rare de tomber sur ces
fameuses pages "profondes" d'un site qui ne permettent ni de repérer sur quel site on est
(aucun sens de la communication), ni de revenir vers les pages supérieures (ergonomie non
pensée).

5
Regards sur le Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Aujourd'hui, des outils simples permettent à des néophytes de mettre en œuvre des sites
personnels propres.
Cela a commencé avec les outils de CMS (content management system), notamment ces
logiciels libres de création et de gestion de site clé en main tels que SPIP ou Joomla.
Aujourd'hui ce sont les outils de blogs (voir lexique) tels que OverBlog (http://www.over-
blog.com) ou Haut et Fort (http://www.hautetfort.com).
Grâce à ces outils, tout un chacun peut administrer simplement son site et publier les
informations qu'il souhaite (voir notre article sur les outils emblématiques du Web 2.0).

Des outils collaboratifs grand public


D'autres outils fonctionnent sur le bon vieux mode collaboratif. Là encore, rien de nouveau,
conceptuellement et sociologiquement, sous le soleil... Le concept de groupware
(collecticiel) se fait vieux. Il a plus de 15 ans d'âge et l'archétype, le logiciel Lotus Notes, lancé
en 1992, est toujours bien vivant dans les entreprises.
Sur Internet, les forums de discussion Usenet (aussi appelés newsgroups), préexistaient au
Web. Ils permettaient aux internautes de partager des informations. Mais il fallait être un
minimum connaisseur du système pour s'y abonner et un peu plus pour poster des
informations sur ces groupes. Les listes de discussion vont en partie les relayer, avec plus de
souplesse d'usage puisqu'elles se basent sur la seule maîtrise de la messagerie électronique,
passée dans toutes les pratiques professionnelles.
La nouveauté consiste à acclimater le concept d'outil collaboratif en en simplifiant l'usage.
Dès avant le Web 2.0, un répertoire généraliste de sites tel que Dmoz, qui est aussi
l'annuaire de Google, est conçu sous forme collaborative. Face au répertoire de Yahoo!
(Yahoo Guide français : http://fr.dir.yahoo.com), alimenté par des professionnels, Dmoz
permet à tout internaute de prendre en charge l'alimentation d'une rubrique ou d'une sous-
rubrique et de contribuer ainsi au repérage des bons sites d'un secteur donné.
Le récent phénomène de Wiki (voir lexique), notamment avec Wikipedia, la plus grande
encyclopédie collaborative du net (version française : http://fr.wikipedia.org), fonctionne lui
aussi sur le mode collaboratif, pour le meilleur et pour le pire (voir plus loin).

Les flux rss/atom


Les flux RSS ou ATOM s'intègrent dans la même évolution du Web. Ils permettent à
l'internaute de choisir, voire d'agréger, ses fils d'informations et de décider de les recevoir
dans le lecteur de son choix (voir sur le site notre article sur les lecteurs RSS). Certains sites
commencent même à proposer de personnaliser un flux : celui-ci est généré à partir d'une
requête de l'internaute basée sur une série de mots-clés, facilitant ainsi une démarche de
veille.

6
Regards sur le Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Une pratique réellement centrée sur l'internaute


Pour avoir pratiqué et testé de nombreux outils estampillés Web 2.0, et pour en rendre
compte régulièrement dans nos formations, nous pouvons affirmer que le centre de gravité
du réseau se déplace perceptiblement vers l'internaute, à condition qu'il décide d'en être
l'acteur, et non plus le spectateur. Bien sûr, ce mouvement est loin d'être achevé. Il n'est pas
de semaine sans que de nouvelles annonces fassent entrevoir de nouvelles possibilités,
toujours plus au service du citoyen actif.

La technologie Ajax au service du producteur d'information


AJAX (Asynchronous JavaScript And XML) - qui s'appuie sur la combinaison de technologies
déjà existantes - offre un nouveau confort d'utilisation et de navigation à la fois pour le
producteur d'information et le simple utilisateur d'un service Web 2.0.
C'est ainsi que les services ayant recours à AJAX permettent d'exécuter des applications
directement dans le navigateur. L'actualisation d'un élément de la page se fait de manière
autonome (par rapport aux autres éléments affichés) sans provoquer le rechargement
complet de la page concernée. Ce qui offre un affichage beaucoup plus rapide ainsi que de
nouvelles possibilités d'interaction avec les différentes applications présentes dans la page.
Ce nouveau confort d'utilisation se trouve parfaitement illustré à travers des applications
comme le nouveau Yahoo Mail (http://fr.mail.yahoo.com), l'outil de bureautique en ligne
Google Docs & Spreadsheets (http://docs.google.com/) ou encore l'outil de personnalisation
de sa page d'accueil Google (http://www.google.fr/ig?hl=fr). Dans ce dernier exemple,
l'utilisateur peut très facilement déplacer les blocs d'actu et les positionner comme bon lui
semble au sein de la page. Cette technique facilite donc encore plus la personnalisation du
Web par l'internaute.

Dissiper quelques faux-semblants

Nous avons souligné à quel point le concept de Web 2.0 véhiculait de faux-semblants
médiatiques et/ou marketing, les médias étant prompts à créer ou amplifier des
phénomènes de mode pour pouvoir vendre du sensationnel, et les commerciaux cherchant
toujours le bon slogan vendeur et surfant sur les phénomènes de modes.
Pour ne pas nous emballer, considérons plutôt que le Web 2.0 est avant tout un phénomène
d'avancée technique remarquable dans son ampleur, qui décuple certaines possibilités déjà
en germes dans l'Internet, et surtout sur le Web. Et comme toute avancée technique, il s'agit
de la langue d'Ésope : la meilleure et la pire des choses.
Nous avons déjà montré dans les lignes qui précèdent combien les soi-disant nouveautés
n'en étaient pas, mais tout juste des améliorations techniques considérables. Restons donc
lucides et ne nous esbaudissons pas, béats, devant le miracle qui tout d'un coup, grâce au

7
Regards sur le Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Web 2.0, donnerait à l'internaute la parole sur le net. (s'esbaudir : "Se réjouir autant que fait
un baudet qui se donne du plaisir en se frottant et se roulant dans un pré." - définition du
dictionnaire de l'Académie française de 1694...)
Permettons-nous donc de remettre en perspective historique quelques affirmations
péremptoires relevées ici ou là.

Le Web 2.0 va permettre les nivellements sociaux puisque tout un chacun peut
publier sur le net.
L'argument nous est resservi régulièrement depuis le groupware, la messagerie Internet, les
forums Usenet, le premier Web... En fait, la technique n'est que ce qu'en font les hommes.
Évoquons un souvenir personnel. À la grande époque où l'on vantait le nivellement des
relations humaines grâce au courriel - même le président des États-Unis avait son e-mail ! -
nous nous sommes adressé à un des grands penseurs du net pour lui demander d'intervenir
dans une conférence. Il nous fit répondre par sa secrétaire...

Le web va permettre une plus grande diffusion de la connaissance


Si l'ouverture du Web permet à toute personne de communiquer, si elle peut permettre une
plus grande mise en commun des savoirs, il n'est pas douteux que celle-ci risque aussi de se
trouver noyée sous les non-savoirs.

Connaissance ou ego magnifié ?


Prenons un exemple neutre, celui du partage de photos sur le net (par exemple sur FlickR :
http://www.flickr.com). Tout vacancier va pouvoir mettre ses photos personnelles en ligne.
Certaines sont d'une qualité ou d'un intérêt assez limités, quand bien même elles seraient
proposées libres de droit. De sorte que l'outil se transforme en galerie permettant à tout
citoyen de se donner l'impression qu'il est valorisé parce qu'il est sur le net. Mais si tout le
monde est sur le net, l'orgueil d'y être en prend un coup...
Une partie - nous pesons nos mots - de ce qui va se trouver sur le net relève plus de ce désir
d'exister aux yeux des autres, un peu à la manière de ces émissions de téléréalité dans
lesquelles on assiste à la réconciliation ou aux retrouvailles de familles qui étalent ainsi leur
vie intime devant les téléspectateurs. En d'autres termes, sous cet angle, le Web suit les
phénomènes de société, rien de plus.

De la connaissance à la "doxa"
Aujourd'hui, il est vrai, toute personne qui sait quelque chose peut publier sur le net (sous
forme de blog, par exemple), ou participer à une encyclopédie contributive telle que
Wikipedia. Mais aussi, toute personne qui croit savoir peut s'autoproclamer expert et publier

8
Regards sur le Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

– parfois de bonne foi – de graves erreurs sur le net. Wikipedia a sur ce point été l'objet de
critiques. En août 2005, un débat a été lancé sur le sérieux de cette encyclopédie sur la liste
Biblio-fr. On a ainsi appris que certains articles médicaux fournissaient des informations
erronées, ce qui - en médecine - peut poser de graves problèmes.
Rien ne permet donc de garantir que les auteurs qui interviennent sur le net publient des
informations exactes. Là encore, inutile de sacrifier au mythe de l'Internet – en sens négatif,
cette fois – en voyant systématiquement dans le réseau un repère de mafieux et de
désinformateurs. Il faut savoir que depuis que l'imprimerie existe, le papier aussi a accueilli
des millions de contre-vérités.
Ce qui pose problème sur le net, c'est la puissance de diffusion, et maintenant le
foisonnement des auteurs, noyant les sources sérieuses au milieu de sources douteuses, ou
qui sont le reflet d'opinions communes et non de réalités contrôlées par des experts. Le
phénomène est dénoncé par certains philosophes, conscients de ce danger. Sous le titre "Le
nouveau royaume des idiots ?" le philosophe allemand Norbert Bolz, spécialisé dans les
médias, confie au Spiegel, relayé par Courrier International (n°826 du 31 août 2006), qu'on
est retombé de la vraie connaissance, du savoir fondé scientifiquement, prônée par les
philosophes de l'antiquité grecque, à la doxa, l'opinion commune, qui prévalait en Grèce
avant les philosophes. Ainsi, avec nos outils de mesure d'opinion, on en arriverait à
considérer que telle opinion est vraie puisque 51% de personnes la pensent...
Là encore, le Web est le reflet de nos sociétés. Nous voyons souvent, sur des listes
professionnelles, des questions de droit posées par des non-juristes et la réponse d'autres
non-juristes commençant pas "je pense que..." En matière juridique, comme en toute autre
science, on ne "pense" pas ; on sait, ou on vérifie. Mais les médias jouent déjà ce jeu du
règne de l'opinion, lorsqu'ils s'attachent à capter avec un infini respect l'avis de telle
comédienne en vue sur le conflit libanais ou sur la TVA des restaurateurs, plutôt que de
recueillir et de bien rendre compte de l'avis d'experts...

De la connaissance à la guerre de l'information


Mais les choses peuvent aller dangereusement plus loin. La généralisation du travail
collaboratif au plan mondial et sans contrôle, part du postulat – caricaturons un instant –
que tout le monde il est beau ; tout le monde il est gentil. Rappelons-nous nos croyances
naïves des débuts des listes de discussion professionnelles, non modérées, partant du
postulat qu'entre adultes responsables et sérieux, on ne risquait rien. Il a fallu un beau
dérapage sur certaine liste pour qu'on se décide à les modérer.
Le Web 2.0 n'échappe pas à ce phénomène. Ainsi, toute personne qui peut publier sur
Wikipedia une notice sur n'importe quel sujet et présenter celui-ci de manière
volontairement malhonnête. Quelles que soient les volontés de contrôle des responsables
de l'encyclopédie, ils ne peuvent détenir la science universelle pour tout contrôler. D'autant
plus que certains groupes d'utilisateurs parviennent à s'organiser pour tenter d'imposer - de

9
Regards sur le Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

manière subtile - leur version sur un sujet. Et nous avons pu constater que certains
modérateurs de Wikipedia se laissent « endormir », quand ils ne violent pas ouvertement
leur devoir de stricte neutralité, notamment lorsqu'il s'agit de problématiques politiques ou
scientifiques. Sur certains sujets sensibles (politique, histoire...), il peut se trouver ainsi des
présentations délibérément orientées.
Par ailleurs, toujours sur Wikipedia, toute personne peut intervenir pour corriger ou ajouter
des informations dans un article. Il ne s'agit pas de poster un commentaire au bas de la fiche,
mais d'intervenir pour modifier directement celle-ci. L'auteur premier de la fiche ne sera
prévenu qu'après mise en ligne des modifications, ce qui laisse la place pour faire passer des
informations fausses ou tendancieuses pendant quelques heures, voire plus. Là où le bât
blesse, c'est le positionnement privilégié qu'occupent les fiches issues de Wikipedia dans les
résultats de recherche de Google. Un internaute peut donc accéder à tout moment à une
fiche présentant un contenu tendancieux.
On a même vu se livrer des "guerres d'édition" sur l'illustre encyclopédie collaborative.
Certaines personnes, décidées à imposer leur analyse subjective d'un fait ou leur opinion
exclusive sur un sujet, passent leur temps à corriger certaines fiches. Dès que l'auteur
revient à sa version originale, celle-ci est à nouveau modifiée dans les minutes qui suivent.
On peut s'en rendre compte en sortant de l'Article et en consultant l'onglet Historique ou
Discussion. Mais il faut lire parfois entre les lignes, et de plus, le grand public ne pense pas à
consulter des onglets.

En guise de conclusion
Le Web 2.0 constitue à nos yeux une avancée technique essentielle pour rendre encore plus
simple l'accès à la production d'information par le plus grand nombre sur le Web. Il faut
donc s'attendre à l'atomisation de la production d'information.
C'est un prodigieux progrès dans le sens d'une plus grande liberté de communiquer. Mais
toute liberté est à double tranchant : liberté de s'exprimer et des clamer des vérités envers
et contre toute tentative d'étouffement du médiatiquement correct ; liberté de manipuler
l'opinion en répandant des contre-vérités. L'outil technique devient d'autant plus vulnérable
qu'il est puissant et universel. Il devient autant le lieu des vérités minoritaires que celui de la
guerre de l'information. Il convient donc de rester critique et d'apprendre à recouper ses
informations, ou à comparer et prendre en compte divers points de vue.
Il faut aussi s'attendre à un nouveau bond en avant des volumes d'informations disponibles
et donc à de nouvelles problématiques pour retrouver l'information. C'est pourquoi les outils
s'affinent et qu'on tâtonne encore aujourd'hui autour de la technique des tags, de la
taxonomie et des ontologies.
En tout cas, plus que jamais, il importe de méditer l'adage "Trop d'information tue
l'information" et faire la part entre le reflet des opinions et la vraie connaissance.

10
Génèse du terme Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

GENÈSE DU TERME WEB 2.0


Par Didier Frochot et Fabrice Molinaro

Le Web 2.0 est devenu - en quelques mois - un terme incontournable dans le monde de
l'Internet. Petit retour historique sur la genèse de ce concept qui prétend révolutionner les
pratiques du Web.

2003 : À l'occasion d'une réunion de préparation d'une conférence, Dale Dougherty -


cofondateur de la société d'édition O'Reilly Media - réfléchit aux transformations du Web. Il
lance alors le terme Web 2.0 et, pour illustrer sa pensée, évoque quelques exemples
comparatifs. Ainsi, DoubleClick serait du Web 1.0 et Google AdSense, du Web 2.0 ; Ofoto, du
Web 1.0 et Flickr, du Web 2.0.

Octobre 2004 : Première conférence Web 2.0

Octobre 2005 : Lors de la deuxième conférence Web 2.0., Tim O'Reilly expose les 8 principes
clés qu'il estime caractéristiques des applications Web 2.0 (“What Is Web 2.0 : Design
Patterns and Business Models for the Next Generation of Software”
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html)
développant - par là même - sa dimension de phénomène social.
Parmi les points les plus importants, il faut surtout retenir : le Web transformé en véritable
plateforme ; le développement d'une architecture de participation ; des outils qui restent
longtemps en version béta car en constante amélioration ; le logiciel au-delà des machines
permettant l'assemblage d'outils et de services indépendants les uns des autres ;
l'importance des données publiées par les utilisateurs et qui s'apparentent à des «
connaissances implicites ».
Tim O'Reilly propose également, le 1er octobre 2005, une première définition compacte en
ces termes : « Web 2.0 is the network as platform, spanning all connected devices; Web 2.0
applications are those that make the most of the intrinsic advantages of that platform:
delivering software as a continually-updated service that gets better the more people use it,
consuming and remixing data from multiple sources, including individual users, while
providing their own data and services in a form that allows remixing by others, creating
network effects through an "architecture of participation," and going beyond the page
metaphor of Web 1.0 to deliver rich user experiences. » 2

2
"Le Web 2.0 est le réseau en tant que plateforme, enjambant tous les dispositifs reliés ; les applications du
Web 2.0 sont celles qui tirent le meilleur des avantages intrinsèques de cette plateforme : fournissant un
service de logiciel mis à jour en permanence, offrant plus et mieux aux utilisateurs, consommant et ré-agençant
des données des sources multiples, incluant les particuliers qui peuvent fournir leurs propres données et
services sous une forme qui autorise le retraitement par d'autres, créant des effets de réseau au travers d'une

11
Génèse du terme Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Source : (http://radar.oreilly.com/archives/2005/10/web_20_compact_definition.html)

Il n'en reste pas moins que les définitions les plus variées sont apparues autour de ce
concept de Web 2.0. L'un des connaisseurs de ce phénomène – le consultant Dion
Hinchcliffe – propose finalement de se baser sur une autre définition compacte rédigée par
Tim O'Reilly. Le Web 2.0 est ainsi décrit de cette manière : « Networked applications that
explicitly leverage network effects » autrement dit « des applications reliées entre elles qui
accélèrent les effets de réseau ». Mais l'accent doit être également mis sur la combinaison «
Lecture - écriture - exécution ». Ainsi, l'internaute n'est plus un simple consommateur
d'informations. Il peut désormais facilement devenir un acteur du réseau et un producteur
d'information.

« architecture de participation, » et allant au-delà de la métaphore de page du Web 1.0 pour fournir des
expériences riches d'utilisateur." (traduction les-infostratèges).

12
Petit lexique du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

PETIT LEXIQUE DU WEB 2.0


Par Fabrice Molinaro

Les internautes découvrent - au gré de leurs lectures - de nouveaux concepts qui tendent à
se populariser même si leur sens n'est pas toujours bien compris par ceux qui les emploient.
Par effet de mode, on jargonne donc en Web 2.0 en maniant des mots à la sonorité anglo-
saxonne : Crowdsourcing, Social networking, Folksonomy, Mashup...

Sans vouloir tendre à l'exhaustivité, il nous semble important de revenir sur certains de ces
concepts qui apparaissent comme les plus emblématiques du monde du Web 2.0. (voir les
différents articles/actualités du site traitant du Web 2.0) L'occasion de voir que - derrière
certains mots - se cachent parfois des techniques et pratiques qui n'ont rien de nouveau.

Nous avons choisi de présenter ce lexique dans l'ordre alphabétique.

AJAX
AJAX (Asynchronous JavaScript And XML) est un acronyme qui caractérise la combinaison
d'un certain nombre de technologies existantes et servant au développement d'applications
Web : HTML/CSS, Javascript/DOM, XML et les requêtes HTTP.
AJAX permet d'exécuter des applications à l'intérieur du navigateur en apportant un
affichage plus rapide car l'actualisation de certaines données d'une page peut se faire sans
un rechargement total de cette page.

API
Une API (Application Programming Interface ou interface de programmation) a pour objet de
faciliter le travail d'un programmeur en lui fournissant les outils dans un langage donné pour
lancer des développements plus poussés et personnalisés.
Les programmeurs peuvent ainsi puiser dans une bibliothèque de fonctions afin de les
adapter à leurs propres applications.

Atom
Face au format RSS qui souffre encore d'une absence de normalisation, certains
développeurs ont travaillé sur un format alternatif répondant au nom d'Atom (initialement
nommé « echo » le projet est rebaptisé Atom le 30 septembre 2003, pour des raisons
juridiques). L'un des principaux objectifs de ses concepteurs est la mise en place d'un format
universel de syndication de contenu.

13
Petit lexique du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Le format Atom (liens vers les différents articles/actualités du site traitant du sujet Atom)
reçoit un soutien de taille avec Google. Le choix du moteur de recherche en faveur d'une
solution libre et destinée à devenir une norme dans le domaine de la syndication de contenu
peut avoir un certain impact pour l'avenir du RSS. Toutefois, ces deux formats peuvent aussi
bien coexister d'autant plus que la plupart des lecteurs de flux sont compatibles avec ces
deux formats. Et même Google propose les deux types de flux (RSS et Atom) pour son
service d'actualités.

Blog
Terme issu de la contraction de Web et Log, le blog est un journal en ligne qui permet à son
animateur d'échanger ses points de vue avec ses lecteurs. En effet, chaque nouvel article
peut faire l'objet de nombreux commentaires postés par les visiteurs du site.
Le blog offre donc un certain compromis entre le site personnel et le forum de discussion.
Facile à créer et à animer, les blogs ont séduits des millions de personnes qui utilisent cet
outil dans des sphères très variées. Du particulier au journaliste en passant par les
responsables politiques et le monde de l'entreprise, le blog s'est aujourd'hui imposé comme
un média incontournable.

Blogosphère
Issu de la contraction de contraction de blog et biosphère, le terme blogosphère désigne
l'ensemble de la communauté qui anime des blogs.

Blogroll
Chaque blog affiche généralement dans une colonne un blogroll c'est-à-dire une liste de liens
(notamment vers d'autres blogs) considérés comme pertinents par le responsable du blog.

Crowdsourcing
Après l'outsourcing qui consiste à externaliser certaines tâches dans des pays lointains pour
réduire les coûts, voici venu le temps du Crowdsourcing. Pour Jeff Howe du magazine Wired,
il s'agit - pour les entreprises qui ont recours à cette pratique - d'utiliser le temps disponible
des gens pour créer du contenu, résoudre des problèmes, voire faire de la R&D. Le
crowdsourcing peut être traduit par l'expression suivante : « l'approvisionnement par la
foule ».
C'est ainsi que certaines entreprises décident de s'appuyer sur une communauté
d'internautes chargée de participer au développement d'un projet et/ou d'un produit (vote,
propositions d'amélioration, etc.). Le crowdsourcing est donc orienté vers un modèle qui
associe intelligence collective et modèle participatif avec parfois redistribution de revenus.

14
Petit lexique du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

On retrouve cette logique sur des plateformes comme FlickR qui propose aux internautes
d'enrichir le site en publiant leurs photos, ce qui permet d'alimenter la base de données en
continu. Certains parviennent ensuite à vendre des clichés et FlickR prend au passage sa
commission.
Le modèle du crowdsourcing permet ainsi de développer des produits qui pourront ensuite
être commercialisés à des prix relativement bas.
Dans une optique moins commerciale, l'on peut citer le répertoire DMOZ (aujourd’hui
disparu dans sa version française) ou encore l'encyclopédie gratuite Wikipedia qui
s'enrichissent - chaque jour - grâce aux contributions de milliers de bénévoles à travers le
monde entier.

Folksonomy
Inventé par Thomas Vander Wal, le terme de folksonomy provient de la contraction des
mots folks (« les gens ») et taxonomy (« taxinomie » ou « taxonomie » pour évoquer la
notion de classification). Certains proposent – en guise de traduction en français - le terme «
Personomie ». La folksonomy décrit donc une pratique qui consiste à classer du contenu - de
manière collaborative - à partir de tags (ou mots-clés) proposés par les internautes eux-
mêmes.
L'intérêt de la folksonomy réside dans la souplesse offerte aux utilisateurs qui peuvent «
taguer » le contenu posté sur le site web.

Remarque : Bien évidemment, l'indexation réalisée par les utilisateurs introduit une certaine
part de subjectivité dans la classification du contenu. M ais n'est-ce pas le lot de toute
indexation humaine quand bien même celle-ci serait réalisée par des professionnels ?

Mashup
Derrière ce concept se profile la possibilité de bâtir un site web ou un service en ligne à
partir de diverses applications disponibles sur le Net. Ainsi, certains services proposent leurs
applications notamment sous forme d'API, ce qui facilite l'extraction et le traitement des
informations. L'utilisateur peut alors faire son marché parmi les nombreuses applications et
construire - briques par briques - un site web personnalisé. Le grand intérêt de ce système
réside dans la possibilité de combiner des applications développées par des prestataires
différents et de les exploiter sur une même interface.
Si l'API de Google Maps est l'un des plus utilisés, nous pouvons également citer
Housingmaps (http://www.housingmaps.com) pour la recherche de biens immobiliers. Ce
dernier réunit - sur un même site - les petites annonces CraigsList avec l'API Google Maps ce
qui permet d'associer données géographiques et commerciales.

15
Petit lexique du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Podcast
Issu de la contraction de Ipod et Broadcast (diffusion), le podcasting est un moyen de
diffusion de fichiers sonores sur le Net. Des sites - tels qu'Odeo.com - permettent à des
utilisateurs de publier leurs fichiers audio et vidéo et de les mettre à disposition du public. Il
est ensuite possible de s'abonner à des flux RSS ou Atom pour récupérer automatiquement
de nouveaux fichiers sonores sur son ordinateur personnel ou son baladeur numérique.

RSS
RSS (Really Simple Syndication) est un format de syndication, capable de récupérer le
contenu brut d'un site web sans s'occuper des données liées à sa forme. Un flux RSS permet
avant tout de lire les nouveautés diffusées sur un site ayant choisi d'établir un fil sur celles-ci,
un peu comme le fil d'actualité d'une agence de presse, d'où le terme de fil RSS (lien vers les
différents articles/actualités traitant du sujet RSS). L'utilisateur peut ensuite parcourir dans
une seule application l'ensemble des nouveautés mises en ligne sur les sites qu'il veut suivre,
sans avoir à se porter sur chaque site. Si les grands sites d'actualité ainsi que certaines
entreprises et administrations ont adopté le RSS, ce format de syndication de contenu a
surtout explosé grâce au développement des blogs.
L'utilisateur peut avoir recours à des solutions très variées pour consulter les flux RSS de son
choix. De l'installation d'un logiciel dédié aux flux RSS - sur son poste de travail - à un lecteur
intégré dans le navigateur web ou le logiciel de messagerie, en passant par des agrégateurs
de flux RSS disponibles sur des sites web, l'internaute n'a que l'embarras du choix.

Social Bookmarking
Le concept de Social Bookmarking désigne une pratique qui consiste à enregistrer ses favoris
(ou signets) sur un site web public puis de les repérer par des mots-clés (appelés tags).
L'objectif est surtout de pouvoir mutualiser ses favoris. Un site comme Del.icio.us
(http://del.icio.us/) permet ainsi d'identifier les sites les plus populaires sur un sujet donné.
L'intérêt réside toujours dans la possibilité d'obtenir les favoris d'autres utilisateurs en
fonction de ses propres pages. Il est possible de s'abonner aux signets d'un utilisateur et
donc d'être alerté dès que ce dernier a intégré de nouveaux sites.

Social Networking
Le concept de Social Networking (Réseau social en français) définit des communautés
d'utilisateurs qui se sont regroupés en fonction de centres d'intérêts communs. Cela touche
bien évidemment les domaines les plus divers : loisirs, passions, musique, voyages, vie
professionnelle...
La plupart des sites qui servent de support à ces réseaux sociaux proposent un certain

16
Petit lexique du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

nombre de fonctionnalités permettant échanges et réactivité entre membres inscrits.


MySpace ou FlickR demeurent des sites emblématiques du Social Networking. Toutefois,
d'autres sites tels que Viaduc (réseau d'entraide professionnel) – qui fonctionne sous forme
de réseau social –existaient bien avant l'explosion du Web 2.0.

Syndication de contenu
Ce concept recouvre toutes les possibilités techniques données à des sites de relayer les
informations issues d'autres sites, sans pointer vers ceux-ci, mais au contraire en intégrant
automatiquement l'information issue de ceux-ci. Ainsi, des webmasters peuvent récupérer
d'autres contenus et enrichir - de manière automatisée - l'offre d'information sur leurs
propres sites web tandis que les sites qui mutualisent leur contenu augmentent leur
audience et donc leur notoriété.
Avec le Web 2.0, la syndication de contenu est souvent facilitée par la création de flux RSS
ou Atom associés aux différents contenus syndiqués.

Tags
Les tags (étiquettes en français) représentent l'un des éléments les plus caractéristiques des
sites rentrant dans la sphère du Web 2.0. En effet, la plupart des contenus postés sont
repérés et identifiés par ces fameux tags qui sont proposés par le producteur de contenu.
Ces tags (ou mots-clés) sont ensuite sensés faciliter l'identification et la recherche de
contenu dans la base de données. Nous retrouvons ainsi une logique de classement qui n'est
pas sans rappeler le travail d'indexation effectué par les professionnels de l'information et
de la documentation. Finalement, le Web 2.0 transforme les producteurs de contenu de ces
sites en armée de documentalistes qui s'ignorent.
Les sites Web 2.0 affichent souvent un « tag cloud » (autrement dit, un nuage de tags) qui
permet de visualiser du premier coup d'œil les tags les plus utilisés récemment. Plus la taille
du mot-clé est grande, plus il y a d'articles indexés avec celui-ci. Cela permet notamment de
repérer plus facilement les sujets les plus traités par les utilisateurs à un instant T.

Wiki
Historiquement, le premier wiki, le Wiki Wiki Web, a été inventé par Ward Cunningham. Ce
dernier a choisi ce terme en s'inspirant de l'hawaïen « wiki-wiki », signifiant « vite ».
Un wiki (en français prononcer oui-qui) est un outil de gestion de site web qui permet aux
utilisateurs de publier et modifier facilement du contenu. Les wikis sont surtout utilisés dans
une optique collaborative et les utilisateurs autorisés peuvent ainsi participer - de manière
bénévole - à l'enrichissement du contenu.
Créée en 2001, l'encyclopédie libre Wikipedia (http://fr.wikipedia.org) est toujours le wiki le
plus utilisé au monde.

17
Petit lexique du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Mais il existe d'autres wikis thématiques :

• Jurispedia (http://www.jurispedia.org/ -encyclopédie du droit) ;


• Geneawiki (http://www.geneawiki.com/ - encyclopédie sur la généalogie) ;
• Wikitravel (http://wikitravel.org/fr/ - guide de voyage) ;
• etc.

XML
Le développement de la syndication de contenu constitue l'un des phénomènes de l'Internet
de ces dernières années. Ce succès repose en grande partie sur le format XML (eXtended
Markup Language) qui s'est imposé comme la norme pour la syndication de contenu web. La
structuration rigoureuse de l'information - permise par XML - autorise la récupération du
contenu brut d'un site web sans s'occuper des données liées à sa forme. Un webmaster peut
ainsi facilement exploiter le contenu syndiqué issu d'un autre site tout en personnalisant la
présentation afin que celle-ci soit en accord avec la charte graphique de son propre site web.
Parmi les protocoles de syndication de contenu qui utilisent la norme XML, il y a le fameux
RSS.

18
Avoir un nuage de tags sur mon site Web 2.0 ?
|cc| Les Infostratèges
Retour à la table des matières

POURRAIS-JE AVOIR UN NUAGE DE TAGS SUR MON SITE WEB 2.0 ?


OU FAIRE DU NEUF AVEC DU VIEUX

Par Didier Frochot

Petite remise en perspective historique des innovations du Web 2.0 pour. Sous couvert
d'innovation, se présentent bien souvent des fonctionnalités ou possibilités déjà existantes,
mais un peu rajeunies...

La brumeuse prétendue innovation des nuages de tags


À en croire les commentateurs du Web 2.0, une des grandes innovations mise au service de
l'internaute, ce sont les tags. Et de fait, on voit fleurir sur les meilleurs sites ou blogs ces
"nuages de tags" permettant de visualiser la pertinence et le poids des sujets les plus traités
sur le site.
Le snobisme consistant à jargonner techniquement en anglais plus que de raison, on ne
comprend pas au premier abord que ce fameux système de tags n'est autre que la bonne
vieille méthode d'indexation à l'aide de mots-clés, enseignée en bibliothéconomie et en
documentation sous le nom d'indexation matière : il s'agit d'apposer des mots-clés décrivant
un objet mis à disposition du public : texte, image, son, vidéo...
Une fois de plus, nous découvrons qu'après avoir prophétisé – voire préconisé – la fin des
métiers de l'information-documentation dont l'existence serait rendue caduque par
l'émergence du Web, celui-ci ne tient que par les techniques documentaires à tous les
étages.
Nous passons ici en revue les diverses techniques documentaires utilisées pour sauver, dès
l'origine le Web du chaos.

Les balbutiements de l'Internet grand public - c'est-à-dire le Web - furent placés sous le
sceau des techniques documentaires classiques, même si d'aucuns ont pu croire que l'ère
des techniques documentaires étaient révolues. Illusion d'optique, relayée par quelques
penseurs pas forcément au fait des réalités professionnelles 3. C'est ainsi que les tout débuts
du Web furent assistés des techniques documentaires réinventées sans le savoir par les
pionniers du net.

3
Nous pensons notamment à ce grand penseur du management de l'information qui affirmait devant des
parterres de managers que les documentalistes ne serviraient plus à rien puisqu'aujourd'hui Internet
permettait de tout trouver au bout des doigts... C'était méconnaître à la fois les techniques documentaires et
les sites Web en profondeur, comme nous le montrons ici. Repensons aussi à cet article des Échos qui
prophétisait, en 1994, la fin des secrétaires, des documentalistes, et même des agents de voyages...

19
Avoir un nuage de tags sur mon site Web 2.0 ?
|cc| Les Infostratèges
Retour à la table des matières

Les répertoires : classifications inavouées


La première initiative - en termes méthodologiques, car historiquement, les deux naissent en
même temps - pour suivre l'extraordinaire démarrage des sites web, fut celle des
répertoires. Deux étudiants américains décidèrent de suivre la création de tous les sites Web
et de les répertorier. La structure de description des sites ainsi référencés reprenait peu ou
prou les éléments essentiels de la description bibliographique : titre du site, auteurs, mots-
clés, description...
Mieux : ils allaient structurer la navigation dans le répertoire à partir de "categories", comme
on dit en anglais, c'est-à-dire tout simplement d'une classification quasi-universelle, à ceci
près qu'elle n'avait pas la rigueur des classifications connues en bibliothéconomie. Ainsi s'est
développé le répertoire de Yahoo !, toujours vivant, même si les dirigeants de la société le
masquent pudiquement aujourd'hui, pour des raisons hors de propos ici. Tous les grands
répertoires - encore nommés annuaires ou guides web - obéissent à cette logique
classificatoire directement héritée des classifications bibliothéconomiques et
documentaires. Comme quoi les métiers de l'infirmation-documentation apportaient
quelque chose de bon...

Les moteurs de recherche : logiciels documentaires masqués


L'initiative concurrente a consisté à indexer automatiquement tout le Web mondial, à l'aide
d'outils puissants nommés moteurs de recherche (search engines). Peu se sont avisés que
ces moteurs ne sont en fait que les formes les plus avancées des logiciels documentaires 4,
regroupés sous le concept œcuménique d'informatique de contenu... De sorte que lorsqu'on
cherche une information à partir d'un moteur comme Google, on fait de la documentation
sans le savoir...
Bien sûr, le traitement a pris des proportions mondiales et industrielles telles qu'on est loin
de l'informatique artisanale des bases de données internes aux centres de documentation.
Mais les techniques de base sont exactement les mêmes.
De la sorte, le Web mondial n'est devenu ce chaos très organisé qu'avec l'aide - bien
involontaire parfois - des techniques professionnelles issues des métiers de l'information-
documentation. L'erreur de bien des professionnels a été de ne pas s'en apercevoir et de
croire que l'Internet allait "leur prendre leur travail", plutôt que te tenter de se placer aux
positions stratégiques de concepteur de systèmes d'information sur le Web. Et pourtant, il
en aurait bien fallu. Rares sont les sites web qui soient correctement décrits et par
conséquent, correctement référencés ; parce que non correctement conçus sous l'angle de
leur repérage par les moteurs.

4
Lire : Catherine Leloup, Moteurs d'indexation et de recherche. - Eyrolles, 1997.

20
Avoir un nuage de tags sur mon site Web 2.0 ?
|cc| Les Infostratèges
Retour à la table des matières

Une réalité presque dépassée : les métatags


Il est amusant de se rappeler que les robots des premiers moteurs de recherche exploraient
notamment les métadonnées (metadata, logées dans des metatags) situées dans l'en-tête
(partie cachée) d'une page web, dans laquelle le créateur de la page avait la possibilité de
fournir ce qu'on nomme une notice bibliographique en bibliothéconomie : Titre, Auteur,
Description (petit résumé) et Mots-clés.
Rappelons qu'un groupe de travail s'est penché sur ces questions de métadonnées : le Dublin
Core, du nom de la ville des USA (et non la capitale irlandaise) où ils se sont réunis.
Aujourd'hui, si les bons concepteurs de sites pratiquent toujours les métadonnées, celles-ci
ne sont plus exploitées par de nombreux moteurs. Pourquoi ? Tout simplement parce que
l'indexation qu'elle contient, réalisée par l'auteur du site, n'est pas fiable.
Il y a d'abord les cas de spoofing (exagération) : abus de mots-clés intempestifs destinés à
piéger les moteurs de recherche et les internautes. Certains ont cru bon d'aligner vingt fois
le même mot-clé pour obtenir la meilleure place dans le classement des résultats. Les
moteurs ont donc d'abord choisi de ne retenir qu'un maximum de deux occurrences pour
chaque mot. Certains ont aussi choisi d'introduire des mots-clés hors sujet, dans le seul but
d'attirer de nombreuses connexions (critère pour vendre de la publicité sur son site). Ainsi
Pamela Anderson aurait-elle été le sujet de très nombreux sites, si du moins on en croit le
champ "mot-clé" des metatags...
Il y a ensuite le fait que tout concepteur de site - fût-il bon développeur web - n'a pas
forcément les compétences pour bien rendre compte du contenu d'un site par quelques
mots-clés soigneusement choisis. On peut oublier certains aspects du site, en exagérer
involontairement d'autres. Bref, nous n'allons pas plaider pour le professionnalisme de
l'indexation ; s'il existe deux professions pour s'y employer (bibliothécaires et
documentalistes), c'est qu'il y a une raison !

De la limite des tags du Web 2.0


Aujourd'hui on nous présente les tags comme une innovation sans précédent, là où on
réinvente une technique documentaire séculaire (la classification Dewey est née en 1876).
L'innovation réside en effet dans la possibilité de voir s'afficher de manière originale (sous
forme de "nuage") les mots-clés les plus usités. Ce système de mots-clés associés aux
documents mis en ligne sur les sites personnels ou collaboratifs permettra en effet de mieux
les retrouver dans une certaine mesure.
Il n'en demeure pas moins qu'on reste dans un certain amateurisme, puisque les
publicateurs de ces informations n'ont pas le savoir-faire pour correctement indexer. Cela
prend des proportions tangibles lorsqu'il s'agit d'indexer des photos ou des vidéos.
L'indexation de l'image animée est une des choses les plus délicates. Hormis les données
objectives (lieu, date, météo, circonstances objectives telles qu'une fête) - dont les auteurs

21
Avoir un nuage de tags sur mon site Web 2.0 ?
|cc| Les Infostratèges
Retour à la table des matières

peuvent déjà omettre certains aspects, l'image véhicule un non-dit que l'analyste d'image
sait repérer et décrire, avec une formation appropriée.
Souhaitons en outre fortement que la pratique des tags ne dérive pas en spoofing comme
les metatags, au point qu'on soit obligé de les ignorer. Le bel apport du Web 2.0 perdrait de
sa crédibilité, et ce serait dommage.
Une autre difficulté se pose.
La pratique des tags est laissée à l'appréciation de chaque producteur d'information, ce qui
est l'esprit même du net. Mais cette liberté même impose des limites à l'efficacité du
système.
Tel internaute va produire par exemple un article sur l'informatique documentaire. Il choisira
comme tag associé : "informatique documentaire", un autre auteur, à sujet identique,
pourrait choisir avec autant de raison "informatisation documentaire", surtout si son article
évoque plus la démarche que les outils, cependant qu'un troisième pourrait bien choisir
"logiciel documentaire". On touche ainsi du doigt les limites de l'indexation dite libre, en
dehors de tout langage documentaire contrôlé (classification ou thésaurus uniformisé)
permettant de rattacher une même réalité conceptuelle au même mot, "descripteur" du
concept.
Remarquons aussi qu'un même internaute pourra, au fil de ses publications, utiliser un jour
"informatique documentaire" et un autre jour "documentation informatisée", tout
simplement parce qu'il ne s'est pas souvenu de son ancienne indexation à quelques mois
d'écart ; tous les documentalistes ayant pratiqué l'indexation libre connaissent ce
phénomène. Une analyse des nuages de tags sur certains sites laisse perplexe à cet égard :
des mots-clés très proches coexistent sans qu'on sache ce qui a motivé le distinguo. Leurs
auteurs non plus, sans doute... Parfois même, c'est une simple question d'écriture "Web 2.0"
et "Web2.0"... ou une simple question de langue : "e-mail" et "courriel".
Cette disparité est en partie rattrapée grâce à l'affichage des mots-clés, sur les fameux
nuages, ou lorsqu'il est possible de voir la liste complète des mots-clés utilisés. À condition
de se trouver sur le site concerné. Mais pour une recherche via un moteur, ces mêmes mots-
clés resteront presque aussi imprécis que le langage naturel contenu dans les textes.

En d'autres termes, la pratique des tags est une innovation qui rend grâce aux techniques
documentaires. Même si elle n'est pas aussi affinée, elle permet une certaine amélioration
de l'accès à l'information.

Taxonomie et ontologie
Avec l'arsenal des tags, émergent les mots ronflants de taxonomie (ou taxinomie) et
d'ontologie. Ces mots savants cachent des réalités là aussi séculaires.
La taxonomie (de taxis = placement, mise en ordre et nomos = règle, en grec) est l'art du
classement d'objets selon une hiérarchie, c'est-à-dire qu'elle est notamment la science des

22
Avoir un nuage de tags sur mon site Web 2.0 ?
|cc| Les Infostratèges
Retour à la table des matières

classifications.
Quant à l'ontologie (du grec ontos = existant et logos = discours), elle permet à l'origine de
décrire des objets, intellectuels ou matériels et leurs relations entre eux. C'est donc - pour
simplifier, sous notre angle d'étude - la science qui préside à l'élaboration des thésaurus.
Ces termes sont utilisés aujourd'hui par dérivation pour désigner des essais de classification
(taxonomie) d'objets, notamment pour s'y retrouver dans les tags. Les ontologies sont
utilisées en informatique pour cerner les relations logiques qui existent entre des objets qui
doivent être traités par les systèmes automatisés.
Autrement dit, même si nous pouvons paraître réducteurs, ces essais mettent au jour les
limites de l'indexation libre, dénoncées plus haut. Ils tentent donc a posteriori de structurer
les notions pour mettre de l'ordre dans les nuages de tags, ou pour améliorer la navigation
en introduisant des relations entre les notions.
Somme toute, on réinvente une nouvelle fois les notions de classification et de thésaurus.
N'est-ce pas à la fois le plus bel honneur qu'on puisse faire aux pratiques les plus avancées
des professionnels de l'information-documentation, mais aussi un constat de malentendu
puisque ces métiers devraient - une fois de plus - être présents sur ces terrains sur lesquels
on réinvente et remet au jour ce qu'ils pratiquent, même imparfaitement, depuis des
lustres ?

23
Quelques applications emblématiques du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

QUELQUES APPLICATIONS EMBLÉMATIQUES DU WEB 2.0


Par Fabrice Molinaro

Il est difficile de dresser une liste exhaustive des applications liées au Web 2.0 tant les
nouveaux services apparaissent à une vitesse prodigieuse. Il ne se passe pas un jour sans
qu'un nouveau venu fasse son apparition ou bien qu'un service connaisse une petite
amélioration.

Dans le cadre de ce dossier, nous avons fait le choix de nous arrêter sur les applications qui
nous semblent les plus emblématiques du Web 2.0., des outils qui changent vraiment la vie
de l'utilisateur.

Nous invitons le lecteur à se reporter également à l'article suivant sur le Web 2.0 au service
de la veille et de la recherche d'information, qui complète ce panorama.

Nous avons choisi pour dans cet article, de présenter les applications dans l'ordre de leur
popularité sur le net. C'est ainsi que viennent d'abord les blogs, puis le partage de ressources
multimédia. Suivent les encyclopédies et les services de géo-localisation. La bureautique en
ligne émerge encore doucement, du moins en Europe.

Blog
Les blogs (cf. ce mot dans notre lexique) sont des outils incontournables du Web 2.0. Ils sont,
en quelque sorte, une amélioration de l'offre « Pages persos » des ancêtres tels que
Multimania.fr et Respublica.fr. En effet, le système de création et de publication a été
considérablement amélioré et il est désormais possible - pour le néophyte - de lancer un
blog disposant d'une interface conviviale sans aucune connaissance en développement Web.
Parmi les prestataires proposant gratuitement de créer un blog, nous pouvons mentionner
Haut et Fort (http://www.hautetfort.com/), OverBlog (http://www.over-blog.com/) ou
encore Blogger (http://www.blogger.com/) de Google.
Outre ces services qui proposent d'héberger le blog sur leur plateforme (avec une adresse
type comme "http://monjournal.hautetfort.com"), il est possible d'installer un logiciel de
blog sur son propre serveur web pour disposer d'une plus grande autonomie ainsi que d'un
nom de domaine propre. Le choix est là encore assez vaste : Dotclear
(http://www.dotclear.net/), Worldpress (http://wordpress.org/) ou encore Drupal
(http://www.drupal.org).

24
Quelques applications emblématiques du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

Partage de fichiers multimédia (photos, vidéos, audio)


Le Web 2.0 (lien vers les différents articles/actualités traitant du sujet Web 2.0) connaît aussi
un important succès notamment grâce au développement des plateformes proposant aux
internautes de publier leurs fichiers multimédias. La logique est toujours la même : c'est
l'utilisateur qui produit le contenu et le poste sur la plateforme d'échange sans oublier d'y
associer des tags (mots-clés) pour mieux identifier les contenus.
Parmi les sites les plus célèbres, citons : FlickR (http://www.flickr.com/) et Riya
(http://www.riya.com/) pour le partage de photos ; YouTube (http://www.youtube.com/) et
Dailymotion (http://www.dailymotion.com/) pour le partage de vidéos ; MySpace
(http://www.myspace.com/) ou encore Odeo (http://odeo.com/) pour le partage de fichiers
musicaux.

Encyclopédie collaborative en ligne


Si l'encyclopédie libre Wikipedia (http://fr.wikipedia.org) est toujours le wiki (voir ce mot
dans notre lexique) le plus utilisé au monde, il existe un certain nombre d'autres wikis
thématiques : Jurispedia (http://www.jurispedia.org/ -encyclopédie du droit), Geneawiki
(http://www.geneawiki.com/ - encyclopédie sur la généalogie), Wikitravel
(http://wikitravel.org/fr/ - guide de voyage), Wiktionnaire (http://fr.wiktionary.org/ -
Dictionnaire libre), etc.
Notons cependant que de nombreuses encyclopédies, non collaboratives, étaient déjà
présentes sur le net depuis des années. Mais ce sont les wikis qui sont emblématiques du
Web 2.0.

Géo-localisation
Parmi les services de géo-localisation, le plus réputé reste Google Maps
(http://maps.google.fr/), qui se présente comme un service gratuit proposant des cartes
géographiques en ligne. L'utilisateur peut lancer une recherche sur un itinéraire, sur
l'adresse d'un particulier ou bien d'une entreprise. Dans ce dernier cas, il suffit - par exemple
- de mentionner « pizza » dans le champ « Vous cherchez » puis « boulevard Blanqui,
Bordeaux » dans le champ « Où ? » pour voir s'afficher toutes les pizzerias installées à cet
endroit. Différents types de plans sont disponibles : un plan classique, avec nom des rues ;
un plan en image satellite, avec parfois une résolution très impressionnante, et enfin, un
plan mixte qui associe plan et satellite. Il est possible de se déplacer facilement dans le plan
puis de zoomer sur une zone de son choix. Google Maps permet désormais d'effectuer des
recherches dans le monde entier.
Le Géoportail (http://www.geoportail.fr) de l'IGN (Institut géographique national) est
circonscrit pour l'instant à tous les territoires français (y compris l'outre-mer). Il s'appuie
comme Google, sur une cartographie précise, mais sur des photos aériennes d'une qualité

25
Quelques applications emblématiques du Web 2.0
|cc| Les Infostratèges
Retour à la table des matières

parfois impressionnante (et pourtant limité dans la version gratuite, mais descendant à un
pixel correspondant à 50 cm au sol...) et non des photos satellite. Il permettra dans le
courant de 2007 la navigation en 3 dimensions.

Bureautique en ligne
Il est désormais possible d'accéder à des applications bureautiques en ligne. Face à la
célèbre - et payante - suite Office de Microsoft, des acteurs du marché s'organisent pour
proposer des outils gratuits accessibles directement via une interface web. C'est ce que
certains appellent déjà le « Web Office », un concept qui peut toucher aussi bien le grand
public que les travailleurs nomades, ainsi que les professionnels séduits par le travail
collaboratif.
Ainsi, Thinkfree (http://www.thinkfree.com) offre un traitement de texte, un tableur et un
logiciel de présentation assistée par ordinateur.
Mais il faut également suivre de très près Google Docs & Spreadsheets
(http://docs.google.com/) proposant traitement de texte et tableur aux utilisateurs qui
peuvent ensuite retravailler sur des documents en ligne et suivre l'historique des
modifications.
Google possède aussi un argument de choc avec Calendar
(http://www.google.com/calendar), son calendrier en ligne. Les utilisateurs peuvent ainsi
accéder à leur agenda à partir de n'importe quel navigateur web, en tout point du monde,
et/ou partager cette application avec un groupe de travail.

26
Web 2.0 : Au service de la veille et de la recherche...
|cc| Les Infostratèges
Retour à la table des matières

LE WEB 2.0 AU SERVICE DE LA VEILLE ET DE LA RECHERCHE


D'INFORMATION

Par Fabrice Molinaro

Au-delà de certains abus d'ordre marketing, le Web 2.0 offre certains outils qui peuvent
permettre à l'utilisateur d'améliorer sa veille et sa recherche d'information sur un sujet
donné. Certes, le risque est grand aujourd'hui de se retrouver noyé sous une masse
impressionnante d'outils et d'information. Mais en ciblant ses sources et en choisissant les
applications qui correspondent réellement à ses besoins, l'utilisateur peut y trouver un
certain nombre d'avantages. Petit panorama des outils Web 2.0 qui facilitent réellement la
vie pour sa veille et sa recherche d'information.

Flux RSS
Un flux RSS (Really Simple Syndication) ou son format concurrent, Atom, permet avant tout
de lire les nouveautés diffusées sur un site ayant choisi d'établir un fil sur celles-ci. Si les
grands sites d'actualité ainsi que certaines entreprises et administrations ont adopté le RSS,
ce format de syndication de contenu a surtout explosé grâce au développement des blogs,
outils emblématiques du Web 2.0.
L'utilisateur peut avoir recours à des solutions très variées pour consulter ses flux RSS.
De l'installation d'un logiciel dédié aux flux RSS (RSSReader : http://www.rssreader.com/) -
sur son poste de travail - à un lecteur intégré dans le navigateur web (Sage pour Firefox :
http://sage.mozdev.org/) ou le logiciel de messagerie (Thunderbird : http://www.mozilla-
europe.org/fr/products/thunderbird), en passant par des agrégateurs de flux RSS disponibles
sur des sites web, l'internaute n'a que l'embarras du choix.

Mieux encore, l'utilisateur peut souhaiter recevoir les flux RSS de son choix dans son client
de messagerie sans pour autant installer une application ou un module supplémentaire dans
celui-ci. On passe ainsi d'une logique de flux - qui se renouvelle donc en continu - à une
logique d'archivage de l'information. L'utilisateur n'est donc plus obligé de lancer une
application dédiée pour suivre l'arrivée des flux RSS. L'information arrive directement dans
son logiciel de messagerie. Dans le même temps, les fils d'information sont stockés sur son
poste de travail, ce qui facilite un meilleur retraitement des données. Par ailleurs, si
l'utilisateur s'absente quelques jours, certaines alertes RSS pourront renvoyer à des articles
qui seront passés en mode payant. Il lui suffira alors de consulter l'article dans une
médiathèque ou bien de l'acheter en ligne. Mais contrairement à la logique de flux - par
définition volatile - ce document important pour sa veille ne lui aura pas échappé.

27
Web 2.0 : Au service de la veille et de la recherche...
|cc| Les Infostratèges
Retour à la table des matières

Rmail! (http://www.r-mail.org/) est l'un des rares services à proposer la réception de flux
RSS (voir sur le site les articles/actualités à ce sujet) dans sa messagerie électronique.
Sur le site de Rmail! (http://www.r-mail.org/), il suffit d'intégrer l'adresse d'un fil
d'information dans le champ RSS et son adresse e-mail dans le champ E-mail puis de cliquer
sur le bouton Subscribe. Une fois son adresse e-mail validée, l'utilisateur recevra
automatiquement des alertes dans son client de messagerie dès que de nouvelles
contributions en rapport avec ses flux RSS seront publiées.

Autre outil très intéressant, Xfruits (http://www.xfruits.com/) propose une grande variété de
services gratuits permettant notamment d'agréger ses flux RSS favoris en un seul flux et de
recevoir les alertes sous différents formats (blog, e-mail, PDF, SMS) et plateformes (PC ou
téléphone mobile).
Grâce à tous ces outils, il est ainsi possible de bâtir un véritable système d'alerte sur des
sujets donnés, d'autant plus que les sites d'informations commencent à proposer des flux
RSS thématiques et personnalisables. Exemple parlant avec le site du journal Les Echos
(http://www.lesechos.fr/) qui affiche une liste impressionnante de flux RSS : Information
classée par secteurs (Automobile, High Tech, Communication, etc.), Information classée par
régions (Alsace, Aquitaine, Bretagne, etc.) sans oublier le module « Offres d'emploi » qui
permet de personnaliser sa demande (Type de contrat, domaine de compétences, secteur
d'activité, salaire demandé, etc.) puis de générer ensuite un flux RSS qui alertera l'utilisateur
dès qu'une offre d'emploi correspondant à sa requête sera publiée.

Dans la même logique de personnalisation, il semble important de mentionner Google


Actualités qui offre - par défaut - des flux RSS associés à ses grandes rubriques (France,
International, Science/Tech, etc.). Mais lorsqu'un utilisateur effectue une recherche dans
Google Actualités (par exemple : « Droit d'auteur »), il peut cliquer sur le lien RSS à gauche
pour générer le fil à intégrer dans son lecteur RSS et être ainsi alerté dès qu'un article
contiendra cette expression. Certes, cela fait double emploi avec les alertes Google bien
connues, mais dans certains cas, l'outil peut être préféré, par exemple dans la perspective
d'agréger une série de flux en un seul, comme évoqué ci-dessus.

En savoir plus sur les flux RSS : nos autres articles sur le site les-infostratèges.com : RSS,
définitions et historique - Atom, Présentation - Quels usages pour les flux RSS ? - Panorama
des lecteurs RSS - Les flux RSS/Atom et la veille.

Revue de presse personnalisée


Depuis le 10 mars 2005, un agrégateur d'actualités (voir les articles/actualités sur le site
traitant de ce sujet) comme Google Actualités (http://news.google.fr/) a franchi une étape

28
Web 2.0 : Au service de la veille et de la recherche...
|cc| Les Infostratèges
Retour à la table des matières

très importante en proposant aux internautes de personnaliser leur revue de presse. En


cliquant sur le lien « Personnaliser cette page », il est possible de configurer sa page
d'actualités. L'éventail des possibilités est assez impressionnant. On peut ainsi modifier
l'ordre d'affichage des rubriques (faire apparaître - par exemple - Culture et Science/Tech en
haut à la place de International et France comme sur la page par défaut), le nombre de
rubriques (faire disparaître certaines rubriques si on le désire) ou encore le volume de titres
dans chaque bloc (affichage de un à 9 grands titres).
En cliquant sur « Ajouter une rubrique standard », il est également possible de « faire son
marché » parmi les antennes internationales. L'utilisateur peut donc facilement intégrer à sa
page d'accueil personnalisée la rubrique Science/Tech de Google Actualités France et la
rubrique Sci/Tech de Google US afin de suivre l'actualité technique et scientifique à la fois
dans la presse francophone et américaine.
Google Actualités permet aussi - très important - de créer ses propres rubriques
personnalisées. Il suffit de cliquer sur « Ajouter une rubrique personnalisée » puis de
proposer des mots-clés de son choix. En proposant - par exemple - « collectivités locales »,
une rubrique portant cette expression sera créée. Tous les articles contenant ces termes
apparaîtront ensuite directement dans ce nouveau bloc.
Il est donc possible de créer des blocs en fonction de ses sujets de veille. A tout moment,
l'utilisateur peut basculer entre l'affichage standard (Google Actualités standard) et sa revue
de presse personnalisée (Actualités personnalisées).
Enfin, le lien « Emportez cette page avec vous » permet d'associer sa revue de presse à un e-
mail et de s'y connecter quel que soit l'endroit où l'on se trouve dans le monde.

Un autre service, Wikio (http://www.wikio.fr/), qui surveille - en temps réel - plusieurs


dizaines de milliers de sources d'information, propose aussi de créer son propre journal à
partir de tags (mots-clés) de son choix. Il est possible de créer plusieurs onglets qui seront
ensuite alimentés automatiquement en fonction du titre choisi pour chaque onglet. Par
exemple, si l'utilisateur décide de nommer un nouvel onglet « logiciels libres », cette page
affichera de manière dynamique tous les articles contenant cette expression. Wikio va
encore plus loin dans la personnalisation en proposant dans chaque onglet une sélection de
tags contextuels. L'internaute peut alors en sélectionner certains pour affiner son onglet
personnalisé.
Wikio est un service très efficace qui exploite au maximum les potentialités des tags
contextuels pour créer sa revue de presse personnalisée sur mesure.

Social Bookmarking
Certains sites proposent aux utilisateurs de mutualiser leurs favoris tels que Del.icio.us
(http://del.icio.us/) qui permet ainsi d'identifier les sites les plus appréciés sur un sujet
donné.

29
Web 2.0 : Au service de la veille et de la recherche...
|cc| Les Infostratèges
Retour à la table des matières

Yoono (http://www.yoono.com/) est également un outil intéressant. La logique consiste


toujours à partager ses favoris avec ceux d'autres utilisateurs qui ont les mêmes centres
d'intérêts. Yoono propose, par exemple, de s'abonner aux signets d'un utilisateur et donc
d'être alerté dès que ce dernier a intégré de nouveaux sites.
Nous sommes bien là dans une logique de réseau social et de partage de connaissances. Le
social bookmarking développe ainsi une pratique complémentaire dans la façon d'effectuer
une veille sur un sujet donné. Il s'agit de s'appuyer sur un réseau de connaissances qui peut
s'apparenter - selon les cas - à un groupe d'experts chargés de surveiller les nouvelles
ressources pertinentes dans un domaine donné.

Moteur de recherche personnalisé


ZeWol (http://www.zewol.net/) est un service de meta-syndication de sources
d'informations francophones. Après avoir lancé une recherche sur un thème donné, ZeWol
organise les résultats en fonction du type de source. L'utilisateur peut ensuite récupérer le
flux RSS correspondant à la recherche afin de disposer d'un outil de veille qui balayera - pour
son compte et en continu - plusieurs sites à la fois.
D'autres outils proposent désormais de personnaliser son moteur de recherche autour d'une
thématique donnée. C'est le cas notamment de Rollyo (http://www.rollyo.com/) qui permet
de sérier une recherche sur une liste de sites saisis manuellement par l'utilisateur. Mais «
Google Co op » (http://www.google.com/coop/cse/) va encore plus loin dans la
personnalisation du moteur de recherche dédiée. Il n'y a ainsi pas de limite dans le nombre
de sources choisies par l'utilisateur (Rollyo ne permet pas de dépasser 25 sites) mais surtout,
le module « Google Co op » offre de nombreuses possibilités : habillage graphique, mise en
place d'un groupe collaboratif destiné à faire évoluer le moteur, génération d'un code pour
intégrer son moteur sur un blog ou un site web d'entreprise. Il est donc possible d'envisager
facilement la création de divers « Google Co op » thématiques en fonction de ses sujets de
veille.

Moteur de recherche et répertoire collaboratifs


Yahoo ! « Questions/réponses » est un nouveau service de recherche qui permet de
formuler sa question - non plus sous forme de mots-clés - mais en langage naturel. Ce sont
ensuite des internautes - contributeurs de Yahoo ! - qui se chargent de répondre. « Les
moteurs de recherche indexent moins de 1 % de la connaissance humaine, explique Olivier
Parriche, directeur de la recherche chez Yahoo France, et la restituent de manière encore
assez grossière. Le moteur collaboratif libère les boîtes crâniennes des internautes, les
questions y sont plus intuitives et les réponses plus directes. »
L'objectif est d'enrichir au fur et à mesure une base de connaissances en fonction des
questions posées et des réponses jugées pertinentes par l'équipe de Yahoo !

30
Web 2.0 : Au service de la veille et de la recherche...
|cc| Les Infostratèges
Retour à la table des matières

Nous sommes à nouveau dans une logique de partage de connaissances mais reste à voir si
Yahoo ! « Questions/réponses » se révélera efficace par rapport à la recherche traditionnelle
dans les moteurs. D'autant plus que le concurrent « Google Answers » a annoncé la fin de
son service de recherche personnalisé et « humain » le 29 novembre 2006. Mais il est vrai -
aussi - que « Google Answers » était payant, contrairement à Yahoo ! « Questions/réponses »
qui a opté pour la gratuité du service.
Enfin, il convient de mentionner le répertoire DMOZ (http://dmoz.org/) étroitement associé
à Google et qui demeure le principal répertoire collaboratif sur le Net. Ainsi, tout internaute
peut postuler en devenant « éditeur » sur DMOZ et enrichir ainsi - de manière bénévole -
une catégorie du répertoire.

Page d'accueil personnalisée


Un site comme Netvibes (http://www.netvibes.com/) permet de se composer sa page
d'accueil personnalisée en intégrant contenus et outils disponibles sur le Net.
Un utilisateur peut ainsi choisir de voir apparaître sur la même page son courrier
électronique et son agenda, des fils d'actualités, ses favoris ou encore les nouveaux résultats
issus de certains moteurs au format RSS. Après avoir créé un compte chez Netvibes, il sera
alors possible d'accéder à sa page d'accueil personnalisée dans n'importe quel coin du globe.
Même si les fonctions sont moins poussées, Google propose aussi de personnaliser sa page
de démarrage en cliquant sur le lien « Accueil personnalisé » présent en haut de sa page
d'accueil. Différents modules sont ainsi proposés : le calendrier, la météo, Google Map,
Gmail, Google Actualités mais également des outils issus de sites de presse (L'Express, Le
Figaro, CNN, etc.).

Voir aussi sur le site: Google Actualités - Google Actualité personnalisé au service de la
veille.

31
Web 2.0 : Sommaire du dossier en ligne
|cc| Les Infostratèges
Retour à la table des matières

SOMMAIRE DU DOSSIER SPÉCIAL EN LIGNE :

Éditorial

Regards sur le Web 2.0 - Didier Frochot, Fabrice Molinaro

Genèse du terme de Web 2.0 - Fabrice Molinaro

Petit lexique du Web 2.0 - Fabrice Molinaro

Pourrais-je avoir un nuage de tags sur mon site Web 2.0 ? - Didier Frochot

Quelques applications emblématiques du Web 2.0 - Fabrice Molinaro

o Blog
o Partage de fichiers multimédia
o Encyclopédie collaborative en ligne
o Géo-localisation
o Bureautique en ligne

Le Web 2.0 au service de la veille et de la recherche d'information - Fabrice Molinaro

o Flux RSS
o Revue de presse personnalisée
o Social bookmarking
o Moteur de recherche personnalisé
o Moteur de recherche et répertoire collaboratif
o Page d'accueil personnalisée

32
Livre blancs sur le Web 2.0 : Crédits documentaires
|cc| Les Infostratèges
Retour à la table des matières

CRÉDITS DOCUMENTAIRES
Toutes les marques citées dans ce document appartiennent aux organismes qui les ont
déposées et ne sont mentionnées qu’à titre signalétique.

Image de couverture :
Tag cloud with wordle.net (Nuages de tags)
Par Luc Legay – FlickR.
http://www.flickr.com/photos/luc/2590452226/

33

You might also like