Direction générale des travaux….

Dans le domaine de l’histoire, il y a maintenant une accessibilité à une quantité gigantesque de documents imprimés, iconographiques, audio-visuels, statistiques, inimaginable voilà à peine quelques années. La connaissance historique que l’on peut faire jaillir de ces vertigineuses données représente un monde possible, un univers à faire advenir, le seul qui soit vraiment et authentiquement virtuel, c’est-à-dire « qui ne l’est qu’en puissance, qui est à l’état de simple possibilité ». Le Robert petit continue et ajoute que les « particules virtuelles sont des particules fictives permettant d’expliquer l’interaction entre les quantons ».

Cette documentation-monde contient donc une connaissance en puissance, une connaissance fictive, alors que les fichiers numériques, eux, sont réels et non virtuels, comme on le dit souvent incorrectement. C’est une connaissance qui n’existe pas encore, elle est seulement une possibilité de connaître, une possibilité de connaissances nouvelles pas encore tombées de l’univers fictif-virtuel créé par la masse documentaire pour prendre forme dans des résultats tangibles: oeuvres, discours, encyclopédie, paroles, sites.
D’où peuvent venir ces objets de connaissances nouvelles?

Sinon de l’acte de connaître lui-même qui consiste d’abord dans l’interrogation des bases de données numériques qui forment aujourd’hui des sortes de réserves culturelles de connaissances, des couches sédimentaires intellectuelles accumulées au cours des siècles dont il convient d’explorer la richesse pour agrandir le domaine du connu, les sortir de l’univers des virtualités cognitives pour en faire du connu.
Mais que voulons savoir, connaître? C’est la question!
Le fait est connu: une majorité de gens cherchent souvent leur propre nom ou quelque chose d’autre qu’ils connaissent déjà très bien dans Internet! Quelle est la motivation, la volonté de connaître dans ces recherches? Quelque chose de nouveau sur eux-mêmes qu’ils ne connaîtraient pas? Ou plutôt connaître « ceux » qui connaissent quelque chose sur eux ou ont « parlé » d’eux? Vanité, peut-être, mais surtout la situation de quelqu’un qui ne sait pas ce qu’il veut chercher ni ce qu’il veut savoir ne sachant pas exactement ce qu’il peut trouver.
Où placer la curiosité dans tout ça, à l’intérieur d’une théorie de la connaissance qui ne s’intéresserait pas seulement à comment nous connaissons mais aussi à pourquoi voulons connaître?
Comment rendre ces connaissances virtuelles réelles? D’où vient tout simplement la connaissance? pourrait demander le philosophe.

Pour s’en tenir à un corpus textuel, quelle lecture nouvelle la numérisation rend-elle possible qui n’existait pas auparavant? Éliminons la lecture continue à l’écran du fichier pdf d’un document papier: c’est une lecture traditionnelle qui continuera malgré toutes les évolutions technologiques pour bien longtemps encore. On parle souvent de lecture discontinue, fragmentaire, aléatoire. Certains la célèbrent; d’autres la dénoncent: ce nouveau mode de lecture est aussi là pour rester, et il étend d’ailleurs, à des proportions inattendues, le très vieux mode du feuilletage, du saut de passages ennuyants, des lectures en diagonales. Une différence inédite pourtant est qu’un lecteur peut feuilleter-sauter instantanément entre plusieurs documents.
C’est encore mettre l’accent sur la lecture individuelle et non pas sur un projet de lecture systématique d’un assez large corpus dans le cadre d’une recherche précise, même si elle peut très bien être celle d’un seul lecteur, poursuivie pour son seul plaisir. Même si ce n’est pas une « vraie » recherche, avec un plan et des objectifs précis, la question demeure: comment lire une grande masse textuelle?
Pour lire, ul faut d’abord une intention, un projet de lecture. On se lasse vite de parcourir des dizaines de documents numériques trouvés au hasard: ou on arrête tout, ou on en choisit un, et on le creuse, on le lit à l’ancienne, en continu.
C’est paradoxal: on dirait que le projet de lire un grand corpus empêche en fait la lecture de ce corpus dans un format nouveau. On ne peut pas tout lire les textes à la manière traditionnelle, alors on n’en lit aucun, ou seulement quelques-uns. De retour à la case de départ. Il y a donc à trouver des modes d’appréhension de la matière textuelle qui soit autre chose qu’une lecture continue d’un document après l’autre, suivie de notes de lectures, de résumé, d’analyse.

Le nombre de textes à lire, souvent impressionnant, apparaît suite à une requête simple dans le moteur de recherche: cette opération ne sert qu’à créer une sous collection du corpus général. La petite fenêtre du formulaire aussi simpliste qu’elle soit demeure la seule voie pour commencer à « lire-chercher » dans un grand corpus. Pour lire mieux, il faut donc multiplier le nombre de requêtes, accroître leur niveau de complexité, prévoir de longue liste de mots à chercher simultanément, avoir des outils d’analyses des résultats, des séries de requêtes combinatoires, des analyseurs sémantiques, etc.

Dans cette perspective, l’acte de « lecture » consiste dans un montage raisonnée de questions, un parcours de curiosité pour chercher un sujet, construit à partir d’un ensemble de mots, d’expressions, éventuellement de catégories linguistiques (verbes, pronoms, adjectifs), de structure syntaxique ou morphologique. « Lecture » entre guillemets puisqu’à cette étape, c’est toujours le moteur de recherche qui ne repère que les chaînes de caractères que l’on donne à chercher.

Le projet de recherche prospective sur l’Amérique conquérante de l’Europe ou sur l’Amérique française dans l’imprimé mondial seraient de bons exemples. On peut bien étendre le concept de lecture à cette étape, mais il s’agit plutôt de sélectionner un corpus thématique à partir duquel des lectures seront possibles. Difficile d’employer le mot « lecture » dans une opération qui consiste essentiellement à entrer quelques mots à la fois dans un formulaire de recherche. C’est plutôt se donner des conditions de lecture dont il s’agit, de sortir le corpus numérisé de sa pure virtualité pour s’approcher de sa lecture réel et de ses lecteurs réels.
Pas une lecture, mais un acte intellectuel par lequel on donne sens à un ensemble de documents par leur réunion dans une bibliothèque particulière de la bibliothèque universelle. De simples données dans un catalogue numérique, les documents s’intègrent dans un ensemble signifiant.

Questions:

– comment exploiter la richesse de la masse documentaire mis à la portée de tous et des chercheurs?
– comment transformer la matière textuelle en informations, en savoirs, en significations, en théorie, en culture, en sagesse…

Que peut-on savoir de l’oeuvre de l’écrivain aujourd’hui?

En prenant Ferron comme échantillon-étalon, quelles sont les questions que l’on peut poser à une oeuvre et à son auteur aujourd’hui? Que peut-on savoir, penser, écrire, publier aujourd’hui, avec l’avancée des NTIC, sur une oeuvre littéraire ou, tout simplement (!), sur la littérature?

D’abord, essentiellement, les connaissances et les informations ne sont pas différentes de celles qui permettaient de les étudier précédemment: exhaustivité du corpus, manuscrits, textes critiques, documentations connexes, etc. On retrouve tout cela autour de certaines grandes oeuvres canoniques: la Bible, Shakespeare, Rabelais, Cervantes, Carroll. Ce travail est l’accumulation de siècles de recherche parfois. Le passage au numérique accélère d’une façon inimaginable la cueillette des informations et permet de les regrouper rapidement dans des applications ou des bases de données que l’on peut interroger immédiatement et sans arrêt. On peut donc étendre ces recherches exhaustives à tout un ensemble d’autres oeuvres.

Une partie de ces informations, surtout celles sous forme imprimée, était accessible mais seulement théoriquement. Dépouiller tous les journaux du XIXe siècle pour y trouver des références à une oeuvre ou à des auteurs était possible, mais dans la réalité, cela ne l’était pas vraiment: trop long, trop fastidieux, c’était une tâche infinie compte tenu des ressources humaines disponibles.

Les changements sont alors:
– la précision et l’exhausitivité des inventaires textuels imprimés… Les grands corpus numérisés vont permettre d’étendre la réception critique à de grands corpus jamais ou rarement indexés précédemment. Souvent des références secondaires, bien sûr. Mais dans un projet d’une étude de réception critique pointue ou de la diffusion d’une idée ou d’un style sur une longue période dans un immense corpus, cela peut devenir un champ de recherche et de découverte très riche.

– la pluralité des sources documentaires qui recouvrent la totalité de l’activité littéraire de l’écrivain (de ses lectures à la dernière réception critique dans un blogue, en passant par ses manuscrits, les rééditions, adaptations, etc.)

– une abondance d’informations qui dépassent la capacité de lecture et d’analyse d’un seul lecteur et même d’une équipe (mais cela est assez fréquent dans le cas d’un auteur important, comme Proust), ce qui fait qu’il n’y a plus de véritable synthèse. Les études deviennent de plus en pointues, spécialisées, pas tant à cause d’une évolution intellectuelle qui aurait permis de faire apparaître un nouvel objet d’étude, mais tout simplement parce qu’une étude à l’horizon large, ambitieuse, synthétique, est maintenant impossible.

Par exemple, l’analyse de Bakhtine sur l’évolution du roman occidental, des pastorales grecs à Dostoïevski, peut paraître aujourd’hui extrêmement partielle. On pouvait le penser et le savoir aussi quand cela a été publié, mais la critique était malaisée: il était impossible de faire autrement, et on ne pouvait qu’admirer sa culture et son érudition. Ce qui ne signifie pas que ces hypothèses soient fausses, mais la prise en compte de tout le corpus maintenant numérisé, donc accessible à l’analyse, modifierait certainement ses conclusions.

En ce sens, des travaux de recherche pourraient consister à refaire des études anciennes, à partir des mêmes hypothèses, et de les étendre aux grands corpus maintenant accessibles. Faudrait, bien sûr, réussir à automatiser la méthodologie et le répérage des indices textuels à l’aide de logiciels en intelligence artificielle. Que resterait-il de ces études anciennes une fois qu’on les aurait soumises à cette épreuve? Cela se fait souvent en science, en médecine, dans toutes les sciences expérimentales où les protocoles d’observation sont repris sur des échantillons plus vastes. Les conclusions confirment ou infirment souvent les premières. L’autre chose, bien sûr, est de modifier le protocole de recherche en les adaptant aux ressources des NTC pour les ré-appliquer au corpus premier.

D’autre part, c’est un point capital: la valeur du travail de Bakhtine, et de bien d’autres comme lui, est justement sa méthode, sa culture, ses connaissances encyclopédiques et « polygottes ». Les NTIC étendent à des dimensions infinies le corpus, et montrent la valeur irremplaçable de l’esprit et de l’intelligence du critique.
Paradoxalement, cette explosion du corpus interrogeable montre une déficience de la pensée. On pourrait dire que plus s’accroît l’accès aux sources documentaires, plus diminue la capacité intellectuelle de les étudier pour en faire jaillir le sens, autrement que par des données quantitatives. L’intelligence ne diminue pas en « quantité » absolue: ses limites, son incapacité (relative) à penser est inversement proportionnelle au corpus accessible.

Nous sommes donc en déficit d’intelligence.

Faudrait voir comment dans le domaine scientifique, la théorie a été obligée d’évoluer à cause de nouveaux outils de connaissances ou d’observation. Par exemple, le microscope électronique, en faisant reculer les limites du « visible », a forcé la physique, la chimie et la biologie à revoir leurs théories. En climatologie, où il y a maintenant des milliards de données presque quotidiennes, cela doit être la même chose: penser autrement la météo parce que les données sont différentes, et surtout extrêmement plus nombreuses.

La quantité et la variété du corpus demande l’assistance d’assistants artificiels et intelligents. Ils vont apparaître et doivent se développer sous la pression de ceux qui veulent connaître. Justement, que voulons-nous savoir d’une oeuvre littéraire et d’un auteur aujourd’hui que nous ne pouvions pas connaître auparavant? Ou encore mieux, que voulons nous connaître que nous n’avions même pas l’idée de connaître parce que l’éventuelle réponse, la « réponse virtuelle », était en dehors du connaissable, ou de ce que nous pouvions connaître avec les outils dont nous disposions? Il y a donc aussi un déficit de questions, ou une difficulté à poser d’autres questions, de nouvelles questions, pour forcer, encourager le développement des applications des NTIC.

Qu’est-ce qui est alors vraiment nouveau?

1) le format numérique permet de réunir toute la documentation qui, dispersée dans des centaines et des milliers de documents-papier, ne pouvait pas être vraiment regroupée, liée, reliée et associée pour créer un seul immense document, comme un ouvrage gigantesque de dizaines de chapitres, de tableaux, d’index, de définitions, etc. Ce réseau documentaire est inédit. L’oeuvre de Rabelais n’est pas reliée à sa critique, sauf parfois en notes en bas de page. Pour ce texte où chaque mot a fait l’objet de plusieurs gloses souvent importantes, aucun ouvrage imprimé ne rend compte de la totalité de la documentation ni des liens qui existent entre les différentes gloses.

2) la question centrale est sans doute à chercher de ce côté, de la manière d’organiser les réseaux documentaires dans des perspectives diachronique et synchronique. D’abord, en réalisant ces deux réseaux pour chaque élément de l’étude:
– biographie
– oeuvres – manuscrits
– correspondances
– critiques
– documentation diverses (bibliothèques, lectures, influences, contexte intellectuel…)
– chronologies multiples.

Pour la critique, cela prendrait la forme d’une bibliométrie exhaustive où on pourrait suivre chaque élément et point de vue de la critique tout au long de l’histoire de l’oeuvre. Par exemple, pour Ferron, on pourrait suivre la réception du « pays incertain » depuis 1962 à travers la critique, ou l’idée de Jean Marcel à savoir que « toute l’oeuvre de Ferron peut être placée sous le signe du conte ». Idée souvent reprise depuis plus de trente ans.
De la même manière, on pourrait faire une sorte d’étude de bibliométrie pour l’oeuvre de Ferron elle-même pour identifier la multitude des reprises textuelles ou thématiques que l’on trouve tout au long de ses écrits: d’un manuscrit, à une historiette, à un récit, à une lettre, à un autre manuscrit.

Une fois qu’on aura trouvé une manière d’exploiter la documentation numérique, il faudra inventer aussi comment représenter, publier les résultats trouvés. Une partie prendra toujours la forme de textes et d’études, peut-être la partie essentielle, mais il faudra aussi inventer des manières de publier-afficher-diffuser les résultats d’un type nouveau que permettent les NTIC. Il y a un spécialiste italien qui crée des graphiques assez originaux à partir de grands corpus sur la littérature du XIXe siècle. Par exemple, il a trouvé une façon de représenter l’évolution des techniques narratives de l’intrigue policière sous la forme d’une sorte d’arbre généalogique. Il a fait la même chose avec l’apparition du discours indirect et du discours indirect libre.

Pour Ferron, une étude linguistique intéressante serait d’étudier comment le jeune brébeuvois qui écrit des petits vers libertins « niaiseux » a-t-il pu s’émanciper de ce style appris pour, à la toute fin de sa carrière, près de cinquante ans plus tard, écrire avec le souffle de Gaspé Mattempa. Vadeboncoeur a écrit que la langue de Ferron marchait sur trois siècles: le Grand Siècle, le XIXe et le XXe. Peut-on le démontrer, l’illustrer ou l’infirmer? Sur le plan du lexique, de la grammaire, de la syntaxe? À quel corpus le comparer? Comme écart stylistique, mais dans quelle mesure le fait-il, lui qui a toujours souligné comment l’écrivain écrit avec la langue de tous?

Champs fondamentaux de la recherche

Quelques lignes directrices de recherche et de réflexion tirées de l’expérience de conception, de développement et de gestion du site Jacques Ferron, écrivain depuis près de 10 ans:

1) Mode de publication des résultats de la recherche savante:
– repenser les manières de diffuser les inventaires, répertoires, index, dictionnaires, études, dépouillements, notes de recherche, etc., dans la perspective de développer une politique éditoriale propre à les rendre plus accessibles pour le public et pour les chercheurs eux-mêmes, en incluant toujours une dimension pédagogique pour rendre possible l’intégration de ces résultats dans différents niveaux d’enseignement.
Des exemples:
– on peut imaginer créer un Inventaire des lieux de mémoire junior: une application pédagogique niveau primaire-secondaire pour faire découvrir les lieux commémoratifs locaux, ou proposer des activités pour créer des lieux de mémoire à partir de ce que les enfants considèrent important dans leur environnement immédiat
– ou, à l’autre extrémité du spectre, développer un PPP avec un ou des éditeurs importants de guide touristique (Ulysse, Michelin, Fodor, Le Routard, Lonely Planet) pour intégrer à leur édition des références et des informations sur des lieux de mémoire pertinents, ou mieux encore, faire de la RD avec l’un d’entre eux pour créer des circuits touristique patrimoniaux virtuels branché sur un réseau d’activités et de ressources touristiques locale et réelles.

Ces propositions-projets sont toujours conçus à partir du fait que les informations produites par la recherche auxquelles le public pourraient s’intéresser, comme cet Inventaire patrimonial, sont mal mises en marché, mal publiées, mal éditées. Les chercheurs n’étant pas des spécialistes de la vente ni de la promotion, des professionnels devraient s’en occuper comme c’est le cas dans l’édition sur papier depuis très longtemps. Sur ce plan, l’imprimé continue à voler la vedette et à centraliser presque toute les ressources « esthétiques ». Un exemple récent est le superbe catalogue de l’exposition Yves Thériault à BAnQ. La mise en place de l’exposition est aussi très réussie, mais il n’y a rien de prévu pour laisser des traces de l’expo en ligne. Il suffit de comparer la qualité graphique de ce catalogue avec l’allure des parcours thématiques qui servent à présenter les collections numériques: une dizaine d’illustrations accompagnées par des commentaires neutres, corrects, sans trop de saveur.
Ce n’est pas qu’une question de sous ou de budget. La publication dans internet ne reçoit pas l’attention qu’elle mérite, encore plus pour des projets, comme l’Inventaire, qui ne peuvent pas vraiment être publiés autrement qu’en ligne, même si un beau livre est toujours possible: pourquoi pas de beaux sites comme on dit de beaux livres?
Donc, ce champ de recherche mène vers des publics variés, vers l’exploration de nouveaux modes de diffusion du contenu numérique, vers différentes applications aussi: savantes, commerciales, pédagogiques, culturelles… Il y a un déséquilibre marqué entre les ressources humaines financières investis dans la recherche et la petite somme ensuite consacrée à prendre tous les moyens pour la faire connaître et la diffuser.
Le grand intérêt du format numérique (surtout quand il est dans une base de données, donc non formaté ou à peine) est justement de permettre un nombre presqu’infini de publications pour un même contenu: la collection du Musée McCord rend possible de publier des centaines d’albums de photographies. Cette dimension est très souvent négligée. D’ailleurs, les projets de ce genre se sont réalisés le plus souvent en dehors du monde de la recherche, subventionnés dans le programme du Musée virtuel du Canada ou d’autres de Patrimoine Canada (auxquels des chercheurs ont aussi participé parfois).
Il y a beaucoup de coupures dans ces programmes… N’empêche, les meilleurs de ces projets montrent que ce sont souvent les organismes du milieu associatif et communautaire qui peuvent le mieux mettre en valeur le « patrimoine » pour tous les publics, associés à des éditeurs de contenu Internet. Donc, la publication des résultats de recherche (au-delà des informations « brutes » de la recherche pour lesquelles les applications actuelles peuvent suffir et ce n’est même pas sûr: pour les chercheurs eux-mêmes ces bases de données en ligne sont plus ou moins bien publiées) devraient mener à des partenariats entre le milieu de la recherche et le milieu associatif, plus près du public, plus communicatif…

2) Modèle de moteurs de recherche
Tout le monde en utilise tout le temps, partout, en commençant par Google. Il y a autant de manière de concevoir les formulaires de recherche, simple ou avancé, qu’il y a de moteurs de recherche. Google vise toujours la simplicité; d’autres sont hyper compliqués et sophistiqués: en théorie on devrait pouvoir y faire des recherches complexes, mais c’est assez inexact. Même en employant quelques opréateurs booléens, les possibilités sont restreintes.
Sur ce point, il y a deux approches presque complètement différentes:
a) – celle des entreprises commmerciales (Ebay, Amazon, Ikea, Rona, etc.) qui entourent le moteur de recherche proprement dit d’une multitude d’informations pour présenter-offrir leurs produits aux visiteurs: ils n’attendent pas qu’ils cherchent! Ils l’inondent d’infos! Et les résultats de la recherche sont eux aussi subdivisés, « ventilés », entourés d’autres informations-produits, d’offres parfois personnalisées à partir du profil de l’usager, des suggestions. Une constance: l’usager trouve toujours quelque chose sur sa page de résultats: elle n’est jamais vide. En fait, dans ces sites, ce sont les moteurs de recherche qui travaillent le plus fort, pas l’usager! On ne lui demande pas de cocher quelle catégorie de livres il cherche: il entre un mot, et c’est le moteur de recherche qui va lui donner toutes les catégories dans lesquelles se trouve ce qu’il cherche. Ces compagnies se disent: un acheteur est ici, on va pas le laisser repartir sans lui montrer nos produits, et même si ce n’est pas qu’il cherche, ça marche! Tout le monde se retrouve souvent à cliquer sur des choses-produits auxquels on ne pensait pas: comme dans une vraie librairie, où on voit des dizaines de titres qu’on n’est pas venu acheter. On ne repart jamais les yeux vides.

b) – celle des entreprises publiques, comme les moteurs de recherche des bibliothèques publiques, universitaires, centre de recherche. Là, c’est généralement le contraire: il n’y a que le formulaire de recherche sur une page vide. On veut vous montrer que ce que vous cherchez, et rien d’autre. Sur plusieurs, comme celui de BAnQ, on peut chercher 10 mots différents et rien trouver du tout, rien, rien. Même chose dans des banques d’images parfois fantastiques: si vous n’avez pas le bon mot-clé pour trouver une seule photo, on ne vous montrera que: « 0 résultat pour votre recherche / Veuillez faire une autre recherche ». Alors qu’il y a des milliers d’images à montrer et qui auraient enclanché une processus d’exploration et de découverte. Un exemple totalement opposé à cette approche est celui du Bilan du siècle de l’Université de Sherbrooke: là, il y a toujours toutes sortes d’informations connexes qui nous sont présentées, quels que soient les résultats même nuls. C’est probablement un des sites publics qui met le mieux en valeur tous ses contenus. C’est une exception, très instructive pour ce que pourraitdevenir tous les sites d’organismes publics.

Au-delà de ces généralisations excessives (mieux connaître les expériences innovatrices en ce domaine, comme le CCDMM?), il y a deux philosophies pour concevoir les moteurs de recherche et l’affichage des résultats:
– une approche active, riche, qui va au devant de l’usager et ne le laisse jamais rien trouver
– une approche passive: on attend le sujet de recherche de l’usager, et on lui donne rien d’autres, s’il ne trouve rien qui l’intéresse, c’est de sa faute: il n’avait qu’à mieux savoir ce qu’il voulait.

La première sert partout dans le domaine commercial: si l’usager ne trouve pas, c’est à nous de lui offrir autre chose. Dans le domaine public et surtout dans le domaine de l’enseignement universitaire, cette approche « commerciale » devrait être l’expression de leur mission éducative: instruire, éduquer, diffuser le savoir, la connaissance. Pas sûr que le milieu de la recherche, de l’édition savante, les universités et leur éditeurs aient une politique générale de « l’éducation en ligne ». En ce moment, les programmes de numérisation semblent être la seule manière qu’ils emploient, sans trop se demander quelle type de publication et quel usage on pourrait inventer pour ces millions de documents nouvellement numériques.

3) Grand corpus et recherche
Une autre dimension de la recherche change à chaque jour: c’est l’abondance et la variété des documents et des sources en ligne. C’est l’âge des BigDatas comme en parlait Wired cet été.
Que faire justement devant toutes ces données?
C’est la question. Pour parler du domaine des ressources textuelles numériques, il y a en ce moment des dizaines de millions, sinon déjà des centaines de millions pages en ligne dans des centaines de catalogues numériques. Que peut-on connaître, savoir, découvrir de tout ça? En ce moment, on continue à chercher comme avant: un titre ou quelques-uns. Dans cette masse de texte intégral, on cherche un mot, une expression à la fois! Que pense-t-on trouver de nouveau comme ça! Si des groupes de recherche ont comme objectif d’explorer les possibilités de travailler avec ces millions de mots et de textes, ils sont fort discrets.

Pour que ce passage de la totalité de l’imprimé au format numérique qu’on est en train de réaliser fasse naître de nouvelles connaissances, de nouveaux savoirs, il faudra des projets aussi ambitieux, aussi grands par ce qu’ils veulent connaître que sont immenses les corpus culturels maintenant accessibles.
Et pourquoi une seule classification, Deway ou Congress? Ces systèmes de classification servent à définir les contenus mais aussi à une autre chose essentielle: indiquer la place physique du document sur les rayonnages de la bibliothèque, à côté des autres qui ont un sujet semblable. Aucun document ne peut avoir deux cotes: cela voudrait dire qu’il peut être sur deux rayonnages en même temps. Quand on croit qu’un document a deux ou trois cotes, c’est parce qu’il y a 2-3 exemplaires du même document dans autant de collections à l’intérieur de la bibliothèque.
Un projet serait donc de penser de nouveaux systèmes de classification des contenus indépendamment de leur place physique: il n’y a plus de place « physique » pour un document numérique: c’est le numéro de système qui joue ce rôle, et le document n’est jamais vraiment « déplacé » dans une base de données: il est affiché, diffusé, etc.
On peut donc imaginer de nombreux systèmes de classification de la totalité de l’imprimé, concurrents, complémentaires, contradictoires, ou d’une seule partie de ce corpus archi-immense.

De nouvelles classifications seraient déjà un développement sur ce que nous pouvons connaître de ce corpus. Se rappeler que la numérisation n’ajoute aucune information nouvelle. On n’en sait pas plus pas moins devant la version pdf d’un ouvrage que devant ce même ouvrage format papier qui ne serait même pas ouvert.