Un web composé d’espace-temps

Placard, 20 février 2012


Appel de projets autour de Google+ et Montréal : idée soumise: 375xMontréal

Dans la perspective du 375e anniversaire de Montréal en 2017 (et du 150e du Canada et du 50e d’Expo 67), ce projet propose de créer rétroactivement le réseau des habitants de la ville depuis sa fondation. Il utilise à grande échelle la création des « pages » dans Google+, et explore la possibilité de créer des profils antidatés. Exploitant le patrimoine numérisé, ce projet veut offrir à tous les Montréalais leur histoire, augmentée par la connection de leur réseau Google+ avec leurs concitoyens du passé, loitain ou récent.

L’idée centrale est d’explorer les possibilités d’utiliser Google+ pour re-créer d’anciens réseaux sociaux à partir des informations extraites de la documentation historique. La difficulté est de pouvoir dater rétrospectivement les profils, les envois et les activités de personnes qui n’ont pas utilisé les outils numériques pour communiquer avec leurs « amis ». Dans le Web, la date de l’information diffusée est celle de l’appareil numérique, soit celui du temps présent, le fameux « real time ». Toute l’information qui circule est fondée sur le temps universel et continu du présent. Est-ce une limite absolue? Peut-on contourner cette limite? 

Questions pour circonscrire ce projet:
– peut-on recevoir un courriel du passé? Oui, j’ai mis la date de mon ordi au 1er avril 1980 et je l’ai reçu normalement! Du futur? Oui, j’ai changé la date pour 2099, et je l’ai reçu dans Gmail, mais la date avait changé pour 1969??? Windows limite changements d’années entre 1980 et 2099.

C’est comme fabriquer de faux courriels. Si on le pouvait à très grande échelle, il serait possible de « bombarder » les boîtes de courriels de lettres anciennes: ce serait du spam historique, auquel on pourrait s’abonner volontairement! 

Dans Google, il faudrait constituer un groupe d’usagers dont certains pourraient être morts. Par exemple, un réseau de correspondants de Jacques Ferron (mort en 1985), dont plusieurs vivent encore et ont des comptes Gmail. Créer le compte J. Ferron pour recréer leur échange épistolaire.

Cela demande de créer un éco-système de communication et d’information antidatés: un espace-temps autre, plus ancien, pour retourner dans le passé comme si on y était. Oui, c’est théoriquement possible. On peut concevoir alors un Web constitué d’espace-temps imbriqués / emboîtés / structurés avec des échanges avec d’autres espace-temps, comme le real time d’aujourd’hui. L’espace-temps « Jacques Ferron » serait divisé en différents territoires et zones: biographique, politique, intellectuel, littéraire. 

Une carte ancienne représente le territoire d’un ancien temps. Sur et dans cette carte, on peut reproduire le circuit des échanges, des amitiés, des relations sociales. Antidater des profils et des communications permettrait de créer des avatars historiques, comme dans les jeux virtuels de simulation, en ligne ou hors ligne. Est-ce que les avatars des joueurs dans les jeux de rôles communiquent entre eux? Ont-ils des réseaux sociaux? Que le jeu se déroule dans le passé (fictif ou non) ou dans le futur, quel moyen de communication dispose les joueurs pour communiquer, établir des relations, etc.?

Ces jeux créent des univers, des espace-temps parallèles, avec leurs propres données spatio-temporels, avec leurs connections ou non à d’autres espace-temps. On peut donc imaginer la création d’un Web « fictif », un double du Web réel, antidaté ou postdaté, avec les mêmes possibilités de communication, d’échanges, de production que le Web réel. Comment? Une application permettrait de choisir son espace-temps (ex. Montréal 1837) et la connexion se fait  avec un « serveur » synchronisé à 1837. Chaque usager pourrait donc interagir en temps réel avec les autres habitants. C’est l’idée d’un « proto-web », d’un web avant le web, à recréer par l’antidatation des informations qu’on produit. Cela prendrait l’équivalent de Google Maps pour le temps: le GoogleTime, et de StreetView, le TimeView.

L’antidation est déjà permise dans la Timeline de Facebook. L’usager peut ajouter des événements, des documents, des photos de sa vie avant Facebook. Donc, pourquoi pas des réseaux fictifs ou historiques à partir de l’utilisation d’applications semblable à celle de FB? Ça permet de faire entrer l’histoire pré-web dans l’économie de l’information du Web. Les commentateurs de la Timeline de Facebook ont raté cette innovation. 
Il y a de nombreux autres espaces-temps narrativisés, dans l’oeuvre de Ferron, de La Comédie humaine de Balzac, dans chacun des grands projets romanesques, etc. À partir de leurs temporalités et de ces géographies fictives, on pourrait identifier l’ensemble de leurs actants/acteurs. Qui vit, où et quand dans les romans? L’univers de la fiction est remplie d’une multitude d’espace-temps dont on pourrait extraire les coordonnées et les actions pour les intégrer dans des espaces-temps numériques parallèles à l’Internet réel.

Organisant ainsi les univers parallèles de la fiction, de la science-fiction, pour les intégrer dans l’univers d’information global, déjà documenté, contenant tous les sous-univers passés, fictifs, futurs.

À suivre

Temps, archives et Internet: une histoire hors du temps

Quand viendra le temps d’indexer un jour les milliards de documents « nés numériques », les archivistes, historiens et bibliothécaires auront un problème nouveau: trouver la date de parution-publication de chacun des documents, des textes, des tweets, des commentaires, des textos.

Au minimum, on peut trouver la date de création du site où paraît le document la première fois. Trouver la date de parution du document lui-même est déjà plus compliqué, même en supposant que le « document » n’ait été modifié qu’une seule fois. Et d’ailleurs, question fondamentale: qu’est-ce qu’un document dans Internet? Si même le concept de « document » est toujours valable.

Autre chose, quel document n’aura jamais changé de « lieu » de publication, de site? Il peut très bien avoir paru sur le site X en 1998, avoir été débranché pendant quelques années et avoir été republié plusieurs années plus tard.

Internet, c’est aussi le règne de la duplication des documents, tous peuvent être reproduits un très grand nombre de fois sur autant de sites, même à l’intérieur du même site. Pensons aux images ou illustrations, sur combien de sites une photo peut-elle être publiée? Des milliers, des millions…

C’est comme s’il y avait une confusion, un mélange, entre une édition particulière d’un document et les exemplaires de ce tirage. Dans internet, c’est comme s’il y avait autant d’édition d’un titre qu’il y a d’exemplaires! En fait, on pourrait donner aux sites internet le statut de bibliothèques virtuelles, soit un lieu où sont regroupés un nombre X de « documents », où ils sont conservés temporairement ou pour une longue durée. Ici, l’éditeur du document, ou plutôt l’entité responsable de la création du document, ne correspond pas au site lui-même.

Par exemple, que sont, sur le plan de la bibliographie, Youtube, Flickr, Facebook, Google+, WordPress, Twitter? Tous ces sites où les usagers publient et diffusent des documents: des éditeurs? Oui, car ils créent des interfaces particuliers pour la publication-affichage; non, car ils ne font pas de choix ni de sélection. Ils ne possèdent pas les droits d’auteur sur les oeuvres et les informations qu’ils diffusent, mais font signer un contrat où chaque abonné leur cède des droits quasi universels et éternels (non-exclusifs!, c’est tout ce qu’ils laissent à leurs abonnés.).

Comment étudier la diffusion d’une idée, d’un document, d’une image dans Internet? Il n’y a comme pas de points fixes… Comment établir une chronologie? Comment suivre la diffusion d’un document et même d’un site? Plusieurs sites ou pages changent de nom, de serveur, de fournisseurs de services Internet? On ne connaît même pas les anciennes adresses: comment pourra-t-on faire une histoire d’Internet sans ce genre d’informations?

Il faudrait créer une sorte de cadastre général du territoire numérique, divisé comme un espace géographique, avec des villes, des rues, des villages abandonnés, fermés, disparus… Il doit y avoir déjà de grandes ruines numériques: des sites complètement abandonnés depuis des années et qui pourraient le demeurer encore des années et des années.

Sur les sites de pages personnelles, comme celle de Videotron ou Sympatico, par exemple, ou les anciens Wanadoo ou Geocities. Il doit y en avoir des gigantesques aux États-Unis. Sont-ils encore en ligne? Seulement débranchés mais conservés sur des zones de serveurs oubliés, ou vraiment complètement supprimés d’Internet?

Google aurait une politique de conservation des historiques de 1 an et demi. Mais sa « mémoire cache », Google la garde combien de temps? Est-ce que chaque capture d’écran des pages « écrase » la précédente, ou s’ajoute-t-elle à une archive de chaque site? C’est un peu ce que fait la WayBack Machine…

Cette situation ressemble beaucoup à la tradition orale: origine obscure, non datée, créé par on ne sait qui, texte-document transformé tranquillement, par de petites variations qui, au bout de plusieurs transformations, devient souvent peu reconnaissable. Phénomène proche aussi de la dispersion d’une rumeur, tout se transmet par « viralité » ou par communication-publicité virale.

Dans le cadre des méthodologies employées en histoire en ce moment, Internet n’est pas indexable ni pensable ni archivable (ou presque). Quand on archive-copie une page ou un site, c’est la date de l’archivage qui est ajoutée à l’archivage et non pas sa date de « mise en ligne ». Et dès que quelqu’un affiche de l’information sur un écran, une autre date de « mise en ligne » s’ajoute ou efface la première.

C’est toute la notion de chronologie qui fout le camp! Ce n’est pas une mince « disparition » pour l’histoire.

Comment établir une chronologie d’Internet?

On peut établir un chronologie de l’imprimé, mais d’Internet?
La mise à jour continuelle des informations et des documents rend la chronologie presque impossible à établir. On ne peut tout même pas conserver les archives de chaque micro-changement que l’on peut faire sur un document numérique. Que devrons-nous faire pour archiver la page d’accueil d’un site? Archiver une saisie d’écran à chaque fois qu’il y a la moindre modification?

Wikipedia conserve apparemment toutes les modifications effectuées sur toutes les pages. Faudra bien élaguer tout ça un jour! Dans 5 ans, qu’est-ce que cela sera? Un immense fouillis. D’abord, comment distinguer entre une modification tout à fait mineure d’un ajout ou d’un développement essentiel? Les changements de contenus (et même là, il y a plusieurs niveaux de modifications possibles), des changements substantiels. Malgré tout l’effort des milliers de participants, les connaissances de Wikipedia vont aussi devenir obsolètes. Par exemple, la listes des liens vers d’autres articles, comment sera-t-elle mise à jour au fil et à mesure de l’évolution de Wikipedia? Faudrait avoir une encyclopédie déjà conçue qui indiquerait que le nouvel article X doit être ajouté à la liste des liens de l’article Y.

Aussi, puisque les articles sont rédigés par des individus plus ou moins associés, la mise à jour sera forcément inégale. Telle information ajoutée dans un article, par exemple, la mort de X, ne sera pas nécessairement ajoutée à un autre, ce qui fait que le nouveau mort X sera toujours vivant ailleurs dans Wikipedia. Il y aura donc différentes temporalité à l’intérieur même de Wikipedia. Une nouvelle édition de la Britannica ou d’Universalis proposait une mise à jour complète de l’ensemble de l’encyclopédie. Un bel effort même si, à la publication, elle était déjà forcément un peu décalée, surtout pour les informations factuelles.

Wikipedia deviendra de plus en plus une encyclopédie a-synchrone, où les savoirs et les disciplines s’écarteront d’un ensemble cohérent pour offrir de plus en plus de informations contradictoires, peut-être. Il y a le problème de l’exactitude de l’article en lui-même, mais il y a le problème plus fondamental de la cohérence de la totalité des informations.

Ça rejoint la question des « frontières du texte » devenues floues, incertaines qu’abordent souvent les spécialistes de textologies numériques.
Tout est brouillon, tout peut avoir le statut de brouillon, rien n’est clos, fermé, pour toujours.

Données ouvertes SUR Montréal

Il y a des centaines de milliers, des millions de données et d’informations SUR Montréal en plus de celles que possèdent la Ville.
Voici quelques autres source de données publiques ou utilisables:

Geoliqi a créé une application pour localiser tous les lieux dans les articles de Wikipédia

C’est fait à partir de l’API d’Infochimps pour géolocaliser toutes les données géographiques contenus dans les articles de Wikipedia

– concevoir une application qui lie ces données aux catalogue des bibliothèques de la Ville (ou d’autres base de données pour lier les articles de Wikipedia à la documentation pour les géo-positionner sur une carte interactive. En cliquant sur Place Ville-Marie, Outremont, rue Saint-Laurent… on pourrait obtenir la documentation sur ce lieu. Même application avec une timeline montréalaise: lier la documentation aux et aux événements…

– Le Dictionnaire biographique du Canada contient des infos sur des milliers de Montréal

– Internet Archives permet de télécharger facilement la totalité des données bibliographiques des documents qui contiennent « Montréal » (en fichier csv)

– Google Books: l’API devrait rendre possible l’exploitation des documents liés à Montréal

– Commission de toponymie du Québec (Topos): chercher tous les toponymes montréalais et créer des applications ou une carte interactive en affichant la notice sur l’histoire du lieu; ajouter des fonctionnalités Web 2.) pour que les citoyens puissent ajouter leur propre souvenirs ou documents sur les lieux montréalais.

– Inventaire des lieux de mémoie de la Nouvelle-France: extraire tous les lieux commémoratifs de l’île de Montréal, les géo-positionner

Liste à poursuivre

Recherche dans les données des bibliothèques de Montréal

Le 19 novembre 2011 [ à l’occasion du Hackhaton de données ouvertes] , la Ville de Montréal a rendu accessible des données des catalogues de ses 43 bibliothèques. Le fichier contient des informations sur plus de 4,4 millions. En plus des données bibliographiques, certaines données sur les prêts et la circulation des documents devraient être aussi accessibles.

Voici quelques orientations et idées pour exploiter et visualiser ces données.

Tableaux-synthèses de référence à créer pour:

– global pour l’ensemble des bibliothèques : statistiques variés, dynamiques
– bibliothèque: type de doc, catégorie de sujet, etc.
– auteur et éditeur: nombre de titres, prêts
– titres: données globales, par bibliothèque…

Pour l’analyse des pratiques de lecture et culturelles des Montréalais:

1) Prêts des documents (qu’est-ce que les gens ont lu, regardé, écouté)
– total par TYPE de documents (livres, films, musique) et par SUJETS (à partir des mots-clés); outil pour approfondir la recherche par genre de documents par TYPE (romans, documentaires, thriller, etc.), par sous-catégorie de SUJET; par âge ou sexe (si disponible); par succursale

– par DATE (d’édition); par DATE du SUJET ou du TITRE (si disponible: chercher les caractères numériques (ANNÉE) dans le champ SUJET ou TITRE, ex. « 1900 »

– en valeur absolue; ET en pourcentage, pondéré en fonction du % de type de documents, sujets dans le catalogue globale (ex.: prêt de 40% des films, 25% des livres, 60 des films)

– nombre de prêts par documents uniques, avec une échelle X documents prêtés + de 100 fois, 75 -99 fois, 0 fois; par succursale (pour établir un profil des SUCCURSALES)

– autres possibilités: par LANGUE du documents; origine (Québec – France, autres)

– s’il y a des données sur les ACQUISITIONS: visualiser les acquisions par ANNÉE, TYPE, SUJET, succursale (pour suivre l’évolution de la politique d’acquisition)

2) Nouvelles voies de la recherche sur la documentation  et la visualisation des résultats

Les outils de recherche des bibliothèques sont souvent banals: de longue liste de résultats. Cherchez à inventer de nouveaux modes de visualisations pour la recherche par CONENU et SUJET

– total des documents par TYPE, SUJETS, ANNÉE (absolu/pourcentage pondéré); par succursale

– inventer un mode de navigation dans les SUJETS, sans moteur de recherche, uniquement visuellement, par catégorie et sous-catégorie (voir la visualisation de 3 millions d’articles de Wikipedia avec Sylverlight)

– SUR Montréal

– chercher « Montréal » dans tous les champs (environ 32 000 résultats): analyser les SUJETS, et les visualiser dans différents modes: arbre sémantique, hiérarchique, chronologique

– extraires les entités nommées montréalaises (lieux, quartier, personnages historiques, événements, etc.) et les géo-positionnner sur une carte interactive; les positionner dans des chronologies générale et thématiques

Avec l’extraction et la classification des entitées nommées (dans un thésaurus, une ontologie sémantique), les possibilités deviennent extrêmement nombreuses


Ces sujets m’intéressent depuis longtemps. Je vous invite à me contacter pour en discuter.

Luc Gauvreau
lgovro@gmail.com




Une Grande Bibliothèque ouverte pour et SUR Montréal

Dans le mouvement des données ouvertes, celui des villes et des gouvernement ouverts, les informations historiques ou culturelles, contenues dans les archives de l’imprimé et les bibliothèques font souvent l’objet de peu de discussion. Les applications pratiques pour répondre aux citoyens en « real time » semblent être les plus développées, susciter le plus grand intérêt. Pourtant, les administrations municipales ne sont pas que des infrastructures matérielles, mais aussi des lieux de culture. Les bibliothèques, musées, festivals, théâtres, cinémas, parcs et jardins font aussi partie des services essentiels qu’une ville doit offrir à ses citoyens. Il faut donc aussi ouvrir les données et les informations des institutions culturelles pour que Montréal devienne une vraie ville ouverte.

Dans ce domaine, ce sont les programmes de numérisation dont on parle le plus, ou des projets en arts numériques. En ce moment, il y a des centaines de milliers pages et d’images, sans doute quelques millions, déjà en ligne, reliées à Montréal et son histoire. Cette documentation est-elle pour autant vraiment accessible, diffusée, lue?

Les ressources de données et d’informations contenues dans ces millions pages sont généralements peu consultées, sous utilisées par rapport aux multiples usages que l’ont peut en faire aujourd’hui. Les sites institutionnels dans lesquels on les consulte sont rarement autre chose qu’un entrepôt de fichiers pdf ou jpg que l’on trouve à partir d’un catalogue en ligne élémentaire, avec peu ou pas de fonctionnalités du Web 2.0. Comme si après la numérisation, il ne restait plus rien à faire. Au contraire, le vrai travail de recherche et d’innovation ne fait que commencer. On doit plutôt considérer cela comme un nouveau territoire de données à exploiter. Cela exige d’en refaire l’inventaire, l’indexation, la classification avec les outils d’extraction, d’analyse et de visualisation que nous possédons aujourd’hui.

Heureusement, il y a parfois de belle initiative. Samedi, le 19 novembre, au Hackhaton, la Ville de Montréal va ouvrir le catalogue de ses 43 bibliothèques, ainsi que des données sur la circulation des documents. C’est une excellente nouvelle! Pour étudier les pratiques culturelle des Montréalais, pour créer toutes sortes de visualisations des collections, pour intégrer les activités des abonnés dans leurs réseaux sociaux, pour explorer la documentation sur Montréal de mille façons, c’est vraiment une très stimulante initiative. C’est une porte ouverte sur d’autres manières de concevoir l’accessibilité aux bibliothèques.

En ce moment, les documents et les informations SUR Montréal sont dispersés dans plusieurs institutions: archives et services de la Ville, bibliothèques nationales (Québec, Canada), bases de données gouvernementales, centres d’archives, sociétés d’histoires, musées (McCord), etc. Avec l’ouverture des données et l’interopérabilité croissant des systèmes de gestion des bibliothèques, les millions de pages « montréalaises » déjà numérisées par Google Books, BAnQ, Internet Archives, Notre mémoire en ligne, il est maintenant possible de regrouper toute cette documentation dans une seule base de données. Tous les documents, données et informations du domaine public pourraient être accessibles à travers un API pour créer la Grande Bibliothèque Ouverte Numérique de Montréal. On peut aussi imaginer de nouvelles bibliothèques pour réunir « virtuellement » toute l’information disponible par arrondissement, quartier, lieu, événement.

– participation de BAnQ au mouvement de l’Open bibliographic data: libre accès aux données et au fichier autorité
– partage de la documentation (données et fichiers numérisés) sur Montréal avec la Ville, d’autres institutions, les citoyens
– s’associer à la communauté de développeurs pour accroitre la diffusion de la culture québécoise et de l’information sur Montréal
– initier un large débat sur l’utilisation des oeuvres et des documents du domaine public, par le milieu scolaire, les éditeurs, les développeurs, les citoyens
– accueillir un prochain Hackhaton dans le grand hall de la Bibliothèque pour inventer de nouvelles façons de lire, d’écouter, d’organiser l’information historique et culturelle SUR Montréal.

Les élections ont lieu du 22 au 27 novembre 2011, en ligne, sur le site de BAnQ. Pour plus d’informations et voter, visiter le site internet:

Je vous remercie de votre appui,

Luc Gauvreau

Élection au CA de BANQ

J’ai posé ma candidature pour représenter les usagers de l’île de Montréal au conseil d’administration de Bibliothèque et Archives nationales du Québec. Quinze autres personnes ont posé leur candidature…

J’aimerais compter sur votre appui.

Amateur de livres et de bibliothèques depuis l’école primaire, j’aimerais mettre mon expérience aux services des abonnés montréalais de BAnQ pour en faire une institution encore plus accessible, mieux branchée sur les ressources du numérique. Depuis plus de 20 ans, j’ai utilisé tous les services des bibliothèques, des microfilms aux bases de données, et j’ai consulté toutes les collections, des cartes postales aux archives privées. Je m’intéresse maintenant aux mutations de l’écrit et de l’imprimé vers le numérique.

Pour lire la suite de ma présentation, je vous invite à la consulter sur le site de BAnQ.

Pour avoir le droit de vote, il faut: habiter sur l’île de Montréal, avoir
18 ans et plus, être abonné à BAnQ.

Le scrutin électronique aura lieu du 22 novembre à 10 h au 27 novembre à 17 h.

Merci de faire circuler cette information parmi vos amis, vos réseaux sociaux, vos contacts.

Je vous remercie de votre soutien,

Luc Gauvreau

Le Montréalscope (version complète)

Au Web In 2011 consacré au Web du futur, organisé par l’Alliance numérique, tous les conférenciers avaient 10 minutes pour exposer leurs projets et leurs idées: c’est pas long! Mais cela a donné un rythme stimulant à la journée.
Pour voir et lire ma présentation complète du Montréalscope, il m’aurait bien fallu 20 ou même 30 minutes. Vous pouvez juger par vous-même.
Pour lire mes commentaires, cliquer sur la roulette des options et Afficher les commentaires. L’affichage plein écran est meilleure.
C’est un projet in progress, comme on dit. Tous les commentaires sont bienvenus. Merci!

Le Montréalscope: histoire données au futur

Au Web In 2011, organisé par Alliance numérique, j’ai présenté une proposition pour organiser et observer la totalité des informations sur Montréal et son histoire:

Le projet du Montréalscope propose d’ouvrir un chantier numérique pour construire le premier territoire virtuel urbain, l’espace structuré de la totalité des données de l’histoire et du présent de la ville. C’est une plateforme pour inventer un nouveau Grand Montréal, une hyper-réalité augmentée, un lieu d’échange commun d’exploration, de découvertes, d’aventures culturelles et technologiques.
Les bibliothèques conservent les données de millions de textes. La numérisation des imprimés ouvre les livres et rend possible l’extraction des informations qu’ils contiennent.
Le défi est aujourd’hui d’entreprendre un séquençage des écrits humains pour lier les données publiées dans l’imprimé aux « Big Data » diffusées en temps réel dans le Web et les réseaux sociaux. (Présenté par Luc Gauvreau; conception visuelle: Irène Ellenberger)

La semaine prochaine, toutes les conférences devraient être en ligne dans le site du Web In.

Métaphores du livre

Au Moyen-Âge, le monde était le Grand Livre de Dieu dans lequel on apprenait à déchiffrer le sens qu’Il y avait mis tout en ayant foi dans les mystères que ce Livre divin contenait. Aujourd’hui, le livre n’est plus une métaphore structurante du monde ni même de la connaissance. C’est plutôt le livre qui est comme la Grande Toile, comme le Web, fait de relations, de liens. Un dictionnaire (imprimé sur papier) est vu maintenant comme un document numérique dans lequel les liens hypertextes sont réalisés en tournant les pages plutôt qu’en appuyant sur le museau de la souris.

À quel moment le comparant « livre » est-il devenu un « comparé »? Que cela signifie-t-il? Certainement, un changement en profondeur dans la place qu’il occupe dans la culture.

L’idée d’une Église catholique contre le livre et la lecture est toujours paradoxale. Si elle a mis en place l’Inquisition et toutes sortes de politique de censure à travers le temps et les pays, c’est que l’Église croyait dans les pouvoirs du livre, des livres: elle était bien obligée avec la Bible comme fondement.

Si on s’élève aujourd’hui contre toute forme de censure du livre, des idées ou des paroles, ce n’est pas que pour des raisons de libertés individuelles. C’est aussi parce que la croyance dans les pouvoirs du texte et du livre a beaucoup diminuée sinon disparue. Pourquoi mettre en place tout un système d’interdiction de l’écrit si on ne lui reconnaît pas le pouvoir de modifier les esprits ou de les changer? Pourquoi interdire un livre quand on ne croit pas qu’il puisse changer quoi que ce soit? Pourquoi le ferait-on?

Les termes, les images et les métaphores pour décrire Internet ont envahi le domaine des métaphores: réseau, toile, navigation, discontinu, fragmentaire, aléatoire, virtuel, numérique, lien, non-linéaire, connexion, etc. Internet a re-métaphorisé un lexique ancien appartenant à d’autres domaines de l’activité humaine: naviguer et toile par exemple, empruntés à la marine, ont acquis d’autres significations dans le domaine des NTIC. On pourrait chercher dans le Petit Robert numérique les termes pour lesquels on a ajouté une entrée précédée d’expressions comme « en informatique », « dans Internet », comme on mentionne « en linguistique », en « biologie », etc. Il y a des nouveaux mots, mais quels « anciens » mots ont acquis des sens nouveaux?

Dans le Grand Corpus Numérisé, comme celui auquel donne accès les Ngrams de Google, pourrait-on dessiner l’évolution du champ sémantique d’un mot-clé de la culture comme « livre », observer sa période d’extension sémantique presque impérialiste et son déclin à l’heure présente. On y observerait le parcours d’un mot au début de son usage intensif, alors qu’on le compare à quelque chose, le moment où il est le comparé. Puis, en même temps que l’accroissement de sa valeur culturelle et symbolique, le mot « livre » est devenu à son tour un comparant, une sorte de levain sémantique qu’on lie métaphoriquement à d’autres mots pour faire lever leur sens.

Aujourd’hui, ce mot-clé de « livre » redevient un simple comparé, ou pire, il connaît une sorte d’inversion sémantique de son aire métaphorique. De valorisant, il devient péjoratif: linéaire comme un livre, fermé, ou « autoritaire », monosémique, etc., comme si tout ce qui lui avait donné le pouvoir de devenir le Grand Comparant, jusqu’à créer l’équation Monde = Livre, s’estompait peu à peu, se refermait sur la culture du livre d’où il était sorti.

Le livre et disons mieux, disons le roman, au moins la longue histoire du roman occidental, a peut-être été un combat contre le chaos du monde, échevelé, discontinu, in-sensé. Des centaines d’années à construire ce que Bakhtine appelait la « maîtrise des faits dans la temporalité », de la réalité prise dans le mouvement du temps, sans début fixe ni fin déterminée. Comment dans ce temps sans commencement ni fin, sans programme ni finalité, raconter une ou des histoires, les faire tenir entre quelques-unes ou des centaines de pages? Tout le travail de générations de romanciers a été cela. Tellement bien réussi que le récit « avec un début et un fin bien déterminés » paraît être la forme naturelle du récit alors qu’il en est une de ses formes les plus construites. C’est plutôt le récit échevelé, sans queue ni tête, le récit sans début évident ni fin certaine qui est la forme « naturelle » du récit.

Les récits non-linéaires, mis en valeur dans la littérature du XXe siècle, et célébrés par tout un courant des études sur les récits de l’ère numérique, seraient peut-être plutôt qu’une avancée vers des formes plus évoluées du récit, une sorte de régression au stade primitif du récit, aussi chaotique que le monde avant que le premier véritable conteur y donne sens et lui donne des significations. Dans la persistance des récits « traditionnels », ceux qui demeurent encore et contre toute tentative les vrais seuls best-sellers aujourd’hui, ce besoin grégaire, atavique, d’opposer au désordre insensé du monde, un récit lié-liant, s’exprime l’opposition de la conscience à la réalité immédiate composée des infinies perceptions des sens et des mouvements du monde.

Données au futur 1

Café dépôt, 29 juin 2011, 21 hrs (carnets 1, pages 91-94)

Photo de Wiliam Jackson assis devant sa montagne d’archives de la Rébellion de Rie: histoire de la perte de l’information brûlée, perdue, détruite.

Montrer que la structuration des données mène au récit, à la narration.

Watson, le plus gros et puissant ordi d’IBM, a vaincu deux humains à un jeu télévisé: quel exploit! Quand on prend du recul, on réalise comment les prouesses des ordis demeurent très, très, loin de l’intelligence humaine qui les a conçus: est-il possible pour un être, un système, un outil d’inventer ou de créer une version supérieure à celle qui l’a inventé?

Bakthine: le roman est la maîtrise progressive des données spatiaux-temporelles dans le récit réaliste européen: des siècle d’évolution pour arriver à Balzac dont les romans structurent sémantiquement des milliers de données de toutes sortes (ses années de formation et de lecture intensives à la BNF avant d’entreprendre la Comédie humaine; Flaubert, et sa préparation pour Bouvard et Pécuchet; Melville, et son encyclopédie de cétacélogie; Pérec et la Vie d’emploi de la vie; Calvino et la cybernétique…)

Déconstruire une phrase et la reconstruire à partir des données démontées: données de la perception, du langage, des modèles rhétoriques, poétique
a) poème en vers? comment pourrait-on le considérer comme un ensemble de données un-structured???
– phonétique, règle de versification, codes pour structurer les éléments verbaux.

Présentation: révit – conte d’organisation des données!
S. Kubrik, dans 2001: au début, imaginer les singes avec un bloc de Tweeter-Facebook (ou Google Circles: structure qui n’est pas dérivée de l’observation des échanges linguistiques, d’informations, de documents, dans un ensemble de groupes composés de X membres: ce sont des systèmes de relations sociales formalisées dans des structures élaborées à partir des modèles des bases de données et non à partir d’une formalisation de ces relations après en avoir observé la dynamique et l’évolution. C’est une démarche inductive – pas déductive – qui impose son mode de fonctionnement au lieu de mimer les réseaux d’échanges interpersonnelles. Aucun a greffé, par exemple, la structure des données généalogiques. Chaque groupe (famille, travail, école, amis) établit les voies par laquelle l’information circule. L’armée, par exemple, a un écosystème hiérarchique très puissant. Relire L’Ordre du discours de Foucault: les discours ne sont pas libres même si Internet bouleverse totalement les anciens réseaux hiérarchiques. Ajouter au moment de la transcription: devrait aller en note ou en commentaire: peut-on le fixer en un point défini d’un texte?) qui émet le premier tweet, repris par le singe alpha, jusqu’à ce énoncé-anomatopée deviennent 10-1000 (un google) la totalité des données textuelles d’aujourd’hui. Combien d’énoncés humains on été échangés depuis l’apparition du langage?!

Histoire des emprunts linguistiques: liés au commerce, aux moyens de transports, de médias: Nouveau Monde, comme rencontre de deux Anciens Mondes (D. Vaugeois, lors d’une conférence à Pointe-à-Callières). [92]

Partir d’un nuage de données sans fin. S’inspirer de « Puissance of ten », le film d’IBM pour arriver au récit de ce couple et de leur enfant. Déconstruire – reconstruire en numérique, par extraction les données totales de leur génotype-phénotype, pour les relier, les lier une deuxième fois.

R A C O N T E R
faire surgir, le récit du chaos des données, des faits (Qu’est-ce qu’un fait – small datas?)

Jacques Ferron est comme un territoire de données narrativisées: une chaîne d’extractions (index) / observation / transformation de l’observation en données: instrument de mesure correspondant à la matière du fait à mesurer / archives.
Inventer des appareils qui extrait des données bizarres: rayons N(umérique): X vers N (faire glisser les 2 diagonales du X pour qu’elles forment un N), comme une formule d’algèbre: X x NNN = du X fois du N => H(istoire) / R(écit) / O(bservation) / S(émantique) / D(iscours)

(Penser à Paul Otlet et sa conception élargie du Livre au début de son Traîté de la documentation)

Inventaire des archives / tiroir de données
Taxonomie: ordre -classement: relier des données
Métaphores:
– cuisine: bouillon primitif de données -> éclair, rayon numérique qui crée les données animées (soupe primitive): expérience de Faraday? Faire un pastiche d’une expérience scientifique, comme l’affair Brunswick -> s’inspirer du schéma qui montre comment les rayons secrets de la télévision modifie les perceptions de téléspectateurs.