Après les systèmes Dewey et Congress II

Les grands sites commerciaux, ceux qui gèrent des millions de documents, d’informations et de documents, comme Ebay, Amazon, Facebook, Youtube, etc, ont développé d’autres systèmes de classement, non-standardisés, plus intuitifs, où les usagers jouent un rôle central dans l’indexation des dizaines de millions documents multimédias qu’ils décrivent. En ce domaine, c’est sans doute l’expérience de Ebay qui est la plus riche et originale. Le site regroupe des millions d’acheteurs et de vendeurs qui font des millions de transaction par jour pour vendre-acheter de tout: livres, bébelles, voitures, maisons (!), billets de spectacle, vêtements, « weird stuff », etc. La variété des choses décrites est absolument phénoménale: elle recoupe tous les produits et choses possibles. Et pourtant, les acheteurs trouvent rapidement ce que des milliers de vendeurs sans aucune formation en bibliothéconomie ou en indexation décrivent spontanément, sans trop rigueur, d’une manières souvent incomplète et même souvent (involontairement) fausse. Et ça marche! Moins rigoureux que ceux des bibliothèque mais plus souple, ce système est très performant parce qu’il évolue tout le temps selon les ressources nouvelles des NTIC. Celui des bibliothèques ne bouge pas, n’évolue pas. Si de nombreuses discussions portent sur la manière d’introduire la folksonomie dans les bibliothèques web 2.0, faut noter que les exemples sont encore rares et plutôt prudents et craintifs.

Mais comment le sytème d’Ebay réussit-il? Il y a deux systèmes d’identification complémentaire: un thésaurus de catégories structuré, hiérarchique et la recherche plein texte dans le titre (par défaut) et/ou dans le texte de la description rédigée par les vendeurs. Ça peut ressembler à un système Dewey, moins détaillé à l’intérieur de chaque grande classe d’objets (par exemple, le classement des livres y est infiniment moins développé quand dans le Dewey bien sûr), mais avec un spectre, un champ d’application plus large, du dé à coudre pour collectionneur aux photos anciennes, du calendrier aux souliers de contrefaçons.

Autre idée: Youtube permet de découvrir et tous les moteurs de recherche commerciaux sont axés sur la découverte: offrir aux clients plus qu’ils en demandent, leur proposer ce qu’ils ne cherchent pas, les faire cliquer plus et plus, ne jamais les mettre devant « pas de résultats »: ces sites nous inondent d’informations qu’on ne cherche pas, et ça marche: souvent, on oublie un peu ce qu’on est venu chercher et on clique sur ce qu’on nous propose. D’ailleurs, les gens utilisent très souvent l’expression « T’as pas vu ce que j’ai découvert… » ou « Tu sais pas ce que j’ai trouvé… », mais employée dans le sens de « découvrir », verbe qui exprime l’étonnement, la surprise… En un certain sens, les moteurs de recherche de ces sites sont plutôt des moteurs de découverte plus que de recherche.

Dans les sites des institutions publiques, c’est comme si à l’entrée d’une musée il y avait un portier qui demandait l’air un peu bête: que cherchez-vous? Si vous ne le savez pas, attendez de le trouver avant d’entrer. On sait tous que souvent la première motivation, comme dans une librairie, est la curiosité même l’ignorance: « Je ne sais pas trop, je m’en viens voir ce que vous avez… » Et c’est au musée et à la librairie de concevoir un aménagement qui m’en mette plein la vue. C’est ce que font les sites commerciaux qui, autre paradoxe, ne produisent aucun contenu! Ils ne doivent pas classer ce qu’ils produisent, mais ce que les usagers et les abonnés ajoutent à leur base de données. Ce sont des sites qui investissent rien dans le contenu, ou presque, et tout dans des applications pour rendre facile l’ajout du contenu, sa consultation, son échange, etc.
À l’inverse, les bibliothèques et les institutions nationales investissent tout dans le contenu numérisé et rien ou presque dans les applications pour le consulter, le commenter, l’échanger. La popularité des premiers est-elle que tout le monde les connaît – même ceux les non-branchés ont entendu parler de Ebay, Amazon, Facebook – alors que le contenu des seconds est à peine connu et consulté par le public branché.

Bibliographier Internet?

Un problème quasi insoluble en ce moment, c’est d’établir une bibliographie thématique annotée des informations trouvées dans Internet. Plusieurs difficultés:

  1. ajout perpétuel et rapide d’infos
  2. pluralité des « types » de documents dans Internet: en plus de tous les genres de textes connus associés à l’imprimé (articles, livres, lettres, chroniques…) et leur version numérique, il y a tout un ensemble de nouveaux genres: les blogues et leurs commentaires, les « profils de membres », les clips audio, vidéos, tous les types de photos, etc. S’ajoutent à ces variétés non-standardisées le fait que ce soit souvent des genres très courts, bien moins qu’une page, parfois quelques dizaines de mots comme dans les « chats » les séances de clavardage, les textes hyper brefs de la nouvelle patente « Twitter » (140 mots au maximum, je pense). Autre difficulté, une seule page peut contenir toutes sortes de types de documents, comme une page de journal, mais en pire! Dans l’indexation des journaux anciens, on indique parfois la colonne où apparaît le document ou la citation. Dans les périodiques contemporains, avec leur graphisme éclaté, le concept même de colonne est problématique. Dans Internet, en plus, la « publication » du document est elle-même problématique, elle est souvent aléatoire, contextualisée par une requête de l’usager. L’étude de la publicité pourrait être encore plus difficile. On peut localiser une pub dans un imprimé, mais comment localiser un bandeau publicitaire qui apparaît de temps en temps en puisant dans une liste de bandeaux virtuels?

Donc, il y a une première difficulté à décrire le type de document et d’informations, à le localiser physiquement « spatialement », et à le dater. Sur ce plan, l’indexation d’Internet reste vraiment problématique. Pour l’imprimé, même dans le cas d’un imprimé détruit, on pourrait quand même être sûr que le texte X a paru dans le document Y à la date Z, et ce pour toujours! Un poème publiés dans Les fleurs du mal, mentionné dans la table des matières, ne disparaît pas si on perd l’exemplaire du livre. Dans Internet, cela est possible. On risque fort de ne pas retrouver le texte déjà identifié lorsqu’on retourne sur un site, il n’y a peut-être même plus de trace que ce document ait un jour existé. C’est pourquoi Zotero, par exemple, offre la possibilié de conserver des saisis d’écran de tous les sites et pages que l’on ajoute à sa bibliothèque. Au moin, si la pge disparaît, change et supprime les informations qui nous intéressaient, on aura pas l’impression d’avoir rêvé. Comme si l’établissement d’une bibliographie exigeait que l’on conserve aussi un exemplaire de tous les livres mentionnés au cas où ils disparaîtraient! Cela ne fait que montrer l’importance des institutions de conservation traditionnelle, bibliothèques et archives, mais montre aussi la tâche extrêment complexe d’archiver Internet.

Autres difficultés:

  1. Aussi, localiser correctement un document et lui donner une adresse précise est aussi problématique: le document peut changer souvent de place dans un même site, et être reproduit des dizaines de fois, des centaines de fois. Internet, c’est le règne des doublons. Mais tous les catalogues de bibliothèques mis en ensemble demeurent sans doute le plus énorme univers de doublons jamais créé. Les catalogues collectifs sont confrontés à cela: pour un titre, on trouve des centaines de localisation, de doublons. C’est pratique quand on est rendu à l’étape d’aller le consulter à la bibliothèque près de chez soi, mais dans les résultats préliminaires de recherche, cette montagne de doublons doit être surmontée par une sélection des documents-titres « uniques », ce qui oblige à avoir des descriptions les plus standardisées possibles. Trouver les doublons à partir de descriptions dissemblables est chose presque impossible. Les grandes bibliothèques, grâce à leur tradition, arriveront assez bien à résoudre ce problème de doublons, mais comment Google pourrait-il y arriver? Comme Ebay oy Abebooks où se sont des millions d’usagers-clients-abonnés qui créent leurs descriptions personnelles des documents. Les pages complètes, entièrement identiques sont probablement, toute proportion gardée, peu nombreuses, mais les fragments d’informations, eux, doivent atteindre une quantité astronomique. Avec toutes les applications qui se développent, ce sera encore mille fois pire bientôt.

Alors combien d’informations originales? Et que signifie « combien »?

L’autre chose est la nature des résultats de recherche que donne Google, par exemple. Malgré la possibilité de développer un moteur de recherche personnalisé, on recommence toujours à zéro avec Google et les autres moteurs de recherche. Peut-être y a-t-il un moyen « d’écumer », « d’élaguer » peu à peu un premier résultat et d’éliminer tous les résultats non-pertinents pour ne conserver que ceux qu’on choisit pour annoter, mais cela n’est pas facile à réaliser. Le métachercheur Copernic, version pro, paraît offrir la possibilité de gérer les résultats, de les filtrer, etc. Il semble cependant que l’évolution de ce logiciel soit arrêté. Plus personne en parle, et les dernières infos sur leur site date d’un année ou deux
Aussi, on ne peut chercher que quelques mots à la fois (avec les opérateurs booléens, par exemple… Google fixe le maximum à 25, je crois). Pour une recherche le moindrement complexe qui couvrent un domaine de recherche substantiel, un mot à la fois ne mène à rien. Il faudrait pouvoir chercher des listes d’expressions, fusionner les résultats, et les conserver! Puis, travailler à les identifier, les choisir, les annoter avec des mots-clés standards, et surtout rejeter de ce résultat, les pages-références qui ne sont pas pertinentes.