OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Facebook étend la statusphère http://owni.fr/2011/12/26/extension-du-domaine-de-la-statusphere/ http://owni.fr/2011/12/26/extension-du-domaine-de-la-statusphere/#comments Mon, 26 Dec 2011 14:50:08 +0000 Olivier Ertzscheid http://owni.fr/?p=91462 C’est une nouvelle presque anodine. Facebook vient d’autoriser la publication de statuts comprenant jusqu’à plus de 63 000 caractères. Soit l’équivalent d’une vingtaine de pages d’un traitement de texte classique. Largement de quoi exprimer bien plus qu’un simple “WTF” ou autre “VDM”.

Avec – comme le rappelle l’image ci-dessous – cette augmentation, cette densification récente de l’espace alloué aux “statuts”, Facebook tente d’asseoir sa base documentaire (au sens propre). A l’opposé de la contrainte des 140 signes de Twitter, il décide donc d’allouer à chacun un espace de publication affranchi de toute contrainte de brièveté, il décide de rompre avec une forme de fragmentation, de fractalisation de l’écrit souvent analysée – à tort – comme consubstantielle du numérique.

D’abord, il s’agit de sortir du modèle de la page (entendez la “page Facebook”), beaucoup moins consultée, utilisée (et donc rentabilisée) parce que beaucoup moins installée dans un espace naturellement conversationnel (relire, dans ce billet, les explications de danah boyd sur le sujet).

Ensuite il s’agit également de capter des pratiques en déplacement, de faire le pari d’un environnement Facebook encore plus immersif pour les usagers, qui, en leur offrant un espace de publication large, pourrait par exemple les dispenser d’utiliser d’autres espaces de publication traditionnellement exempts de toute contrainte de brièveté (par exemple de tenir un blog, puisque qu’ils ont désormais la place de raconter la même chose sur leur “mur”). Or chacun peut constater que l’immense majorité des utilisateurs de Facebook est plutôt adepte de la forme courte que de la longue dissertation. Il est peu probable que cette pratique change à court terme. Mais nombre d’utilisateurs jusqu’ici obligés de jongler entre des espaces conversationnels brefs (Facebook et ses statuts) et des espaces discursifs longs (leurs blogs) pourront être séduits par la possibilité d’enrichir le deuxième univers de toute la force d’exposition et de réactivité du premier. Quant aux “primo-entrants” du numérique, pour lesquels l’inscription sur Facebook reste souvent le rite fondateur, la possibilité de disposer dès leurs premiers pas d’un espace de publication aussi large et dense que nécessaire risque de les enfermer un peu plus au sein de l’écosystème des 700 millions d’amis, en leur ôtant l’idée de se mettre à la recherche d’autres espaces discursifs ou conversationnels.

Enfin, mais probablement à la marge, il s’agit de perfectionner la “connaissance” que Facebook a de chacun de ses utilisateurs, en s’offrant la possibilité de travailler non plus seulement sur des conversations mais sur d’authentiques “discours”, sur de larges espaces discursifs.

L’avenir dira si la mayonnaise prend, si les utilisateurs exploitent ce nouvel espace de publication, et si cela se fait au détriment d’autres espaces, ou en complémentarité.

Il semble en tout cas manifeste, à observer de l’extérieur la multiplicité des stratégies documentaires (ou de redocumentarisation) de Facebook, que de la même manière qu’il tente d’épuiser une écologie du lien en lui substituant une économie du “Like” (remember, “le like tuera le lien“), il s’efforce de territorialiser à l’extrême – et à son seul profit – les expressions documentaires dans leur gamme la plus large : depuis le “poke” (activité et fonction phatique) jusqu’au “Like” (fonction conative détournée ou triangulée dans la mesure ou Facebook est, in fine, également un récepteur) en passant par toute l’étendue d’une captation d’une fonction expressive pouvant désormais s’étendre sur plus de 60 000 caractères.

Se différencier de Twitter

Même s’il existe quelques similarités entre les deux services, Facebook et Twitter achèvent donc de se différencier, et cette différenciation permet d’éclairer une partie de leurs usages dédiés. Sur Twitter prévaut une écriture de la brièveté, de la contrainte, de la brièveté contrainte. Cette brièveté contrainte implique (parfois) un réel travail “littéraire” (on s’applique à faire plus court) et oblige à maîtriser un certain nombre de codes (hashtags, acronymes, etc.) qui font alors parfois office de stratégies de contournement (pour une analyse plus complète de la littératie de Twitter, relire “Twitter, le hiératique contre le hiérarchique”). Facebook se présente en regard comme une anti-littératie, un parangon du web pousse-bouton.

Les stratégies attentionnelles s’appuyant sur des formes courtes et sur des audiences présentes – pour l’essentiel – au moment de l’énonciation véhiculent davantage de critères de différenciation (d’où l’intérêt des journalistes et autres veilleurs de métier pour l’écosystème de Twitter), mais elles sont plus difficilement monétisables. A l’inverse, les stratégies attentionnelles mobilisées dans des espaces de publication plus larges et garantissant la présence permanente de ce que danah boyd appelle les “audiences invisibles“, jouent sur l’effet d’uniformisation (tout le monde partage les mêmes vidéos) pour caractériser a posteriori des segments d’audience directement monétisables.

Faire le mur. J’ignore si un sociologue, un linguiste ou un scénariste du biopic de Mark Zuckerberg s’est penché sur l’origine du choix du mot “mur” pour nommer un espace de publication. Probablement y a-t-il eu la volonté – consciente ou non – de faire référence à l’univers du graf, chacun venant ainsi “graffiter” les limites de l’intimité de l’autre, l’invitant, l’incitant ou le contraignant au dialogue, à l’échange. En étendant aujourd’hui les murs des 700 millions d’habitants de ce gigantesque lotissement dans lequel la proximité ne vaut qu’en tant qu’elle inaugure une promiscuité contrôlable, instrumentalisable, Facebook étend également son propre espace périphérique, s’isolant encore plus d’autres territoires documentaires. Il poursuit l’implacable logique des “Walled Gardens” décrits par Tim Berners Lee.

Refrain connu. La première chaîne française en termes d’audience est la propriété du groupe Bouygues. Un groupe de maçons. Des gens qui batissent des murs. Le premier site de la planète en termes d’audience ne tient que par les murs qu’il offre à chacun. Peut-être est-il temps de faire le mur.

(pour les djeun’s qui lisent ce blog, le dessin de Wiaz ci-dessus à une histoire)

Billet initialement publié sur Affordance.info

Image CC Flickr Attribution owenwbrown

]]>
http://owni.fr/2011/12/26/extension-du-domaine-de-la-statusphere/feed/ 1
Penser le futur du web http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/ http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/#comments Tue, 25 Oct 2011 16:41:02 +0000 Olivier Ertzscheid http://owni.fr/?p=84609

Qu’y aura-t-il demain sous nos moteurs ? Moteurs de recherche et réseaux sociaux occupent une place chaque jour plus prépondérante dans nos accès à l’information et à la connaissance. Ils suscitent également de vives interrogations, notamment dans leur capacité à rendre indexables des informations relevant indistinctement des sphères publiques, privées et intimes des contenus disponibles en ligne.

Enfin, inaugurés par le “like” de Facebook, les systèmes de recommandation se multiplient, venant concurrencer ou remplacer l’établissement de liens hypertextes et suscitant de nouveaux usages, de nouvelles métriques. Par ailleurs, la famille documentaire s’est agrandie : les encyclopédies sont devenus collaboratives, d’immenses silos documentaires sont apparus (YouTube, Flickr, etc.), les profils humains sont devenus des objets de “collection”.

Ce qui a réellement changé : capter l’attention

Question d’économies. Dans le contexte d’une abondance de contenus informationnels, prévaut une économie de l’attention hypothéquée par la capacité à mettre en place une économie de la confiance (Trust economy) avec la foule comme support (crowdsourcing), la modélisation de la confiance comme vecteur, et de nouvelles ingénieries relationnelles comme technologie.

La force des métadonnées. Pour les moteurs mais aussi pour les réseaux sociaux, toutes les données sont ou peuvent devenir des métadonnées, qui dessinent des comportements (pas uniquement documentaires) en même temps qu’elles permettent de caractériser la motivation de ces mêmes comportements. Chaque clic, chaque requête, chaque comportement connecté fait fonction de métadonnée dans une sorte de panoptique global.

Le web invisible ne l’est plus vraiment. Le défi technologique, après avoir été celui de la masse des documents indexés, devient celui de la restitution en temps quasi-réel du rythme de publication propre au web (“world live web”). Pour accomplir ce miracle, il faut aux outils de captation de notre attention que sont les moteurs et les réseaux sociaux, une architecture qui entretiennent à dessein la confusion entre les sphères de publication publiques, intimes et privées.

Rendre compte de la dissémination et du mouvement

La naissance de l’industrie de la recommandation et des moteurs prescripteurs. La recommandation existe de toute éternité numérique, mais elle est désormais entrée dans son ère industrielle. Moteurs et réseaux sociaux fonctionnent comme autant de prescripteurs, soit en valorisant la capacité de prescription affinitaire des “proches”, des “amis” ou des “collaborateurs” de l’internaute (boutons “like” et “+1″), soit en mettant en avant les comportements les plus récurrents de l’ensemble de leurs utilisateurs.

De nouvelles indexations. Après l’indexation des mots-clés, des liens hypertextes, des images, de la vidéo, des profils, il faut maintenant apprendre à indexer, à mettre en mémoire, la manière dont circule l’information, être capable de rendre compte de cette dynamique virale, capable de prendre en compte la dissémination, l’écho, l’effet de buzz que produisent les innombrables “boutons poussoir” présents sur chaque contenu informationnel pour lui assurer une dissémination optimale.

Navigation virale ou promenade carcérale ? L’approche fermée, propriétaire, compartimentée, concurrentielle, épuisable de l’économie du lien hypertexte que proposent les systèmes de recommandation, ne peut mener qu’à des systèmes de nature concentrationnaire. Des écosystèmes de l’enfermement consenti, en parfaite contradiction avec la vision fondatrice de Vannevar Bush selon laquelle la parcours, le chemin (“trail”) importe au moins autant que le lien. Les ingénieries relationnelles des systèmes de recommandation – de celui d’Amazon au Like de Facebook – ressemblent davantage à une promenade carcérale qu’à une navigation affranchie parce qu’elles amplifient jusqu’à la démesure la mise en avant de certains contenus au détriment de la mise au jour d’une forme de diversité.

Brassage des données dans un “jardin fermé”

Un nouveau brassage. La recherche universelle, désignant la capacité pour l’utilisateur de chercher simultanément dans les différents index (et les différentes bases de données) proposés par les moteurs de recherche, ouvre un immense champ de possibles pour la mise en œuvre d’algorithmes capables de prendre en charge les paramètres excessivement complexes de la personnalisation, de la gestion des historiques de recherche, de l’aspect relationnel ou affinitaire qui relie un nombre de plus en plus grand d’items, ou encore du brassage de ces gigantesques silos de donnés. Un brassage totalement inédit à cette échelle.

Le mirage des nuages. De rachats successifs en monopoles établis, l’extrême mouvement de concentration qui touche la médiasphère internautique fait débat. D’un immense écosystème ouvert, le web mute aujourd’hui en une succession de ce que Tim Berners Lee nomme des “walled gardens”, des “jardins fermés”, reposant sur des données propriétaires et aliénant leurs usagers en leur interdisant toute forme de partage vers l’extérieur. L’enjeu n’est alors plus simplement celui de l’ouverture des données, mais celui de la mise en place d’un méta-contrôle, un contrôle accru par la migration de l’essentiel de nos données sur les serveurs des sociétés hôtes, grâce à la banalisation du cloud computing : l’essentiel du matériau documentaire qui définit notre rapport à l’information et à la connaissance étant en passe de se retrouver entre les mains de quelques sociétés marchandes

Et tout ça pour quoi ? Il s’agit de porter à visibilité égale des contenus jusqu’ici sous-utilisés ou sous-exploités, pour augmenter leur potentiel marchand en dopant de la sorte le rendement des liens publicitaires afférents. Un objectif qui ne peut être atteint sans la participation massive des internautes.

La marchandisation de toute unité documentaire recensée

Le web personnel. La pertinence et la hiérarchisation d’un ensemble de contenus hétérogènes n’a de sens qu’au regard des intérêts exprimés par chacun dans le cadre de ses recherches précédentes. La condition sine qua non de la réussite d’une telle opération est le passage au premier plan de la gestion de l’historique des recherches individuelles.

Algorithmie ambiante. A la manière de l’informatique “ambiante” qui a vocation à se diluer dans l’environnement au travers d’interfaces prenant la forme d’objets quotidiens, se dessinent les contours d’une algorithmie également ambiante, c’est à dire mettant sous la coupe de la puissance calculatoire des moteurs, la moindre de nos interactions en ligne.

Marchands de documents. Derrière cette algorithmie ambiante on trouve la volonté déterminée d’optimiser encore davantage la marchandisation de toute unité documentaire recensée, quelle que soit sa sphère d’appartenance d’origine (publique, prive, intime), sa nature médiatique propre (image, son, vidéo, page web, chapitre de livre, etc…), sa granularité (un extrait de livre, un billet de blog, un extrait de vidéo …) et son taux de partage sur le réseau (usage personnel uniquement, usage partagé entre « proches », usage partagé avec l’ensemble des autres utilisateurs du service).

Une base de données des intentions

La recherche prédictive. Les grands acteurs du web disposent aujourd’hui d’une gigantesque “base de donnée des intentions” (concept forgé par John Battelle), construite à l’aide de nos comportements d’achats, de l’historique de nos requêtes, de nos déplacements (géolocalisation), de nos statuts (ce que nous faisons, nos centres d’intérêt), de nos “amis” (qui nous fréquentons). Une base de donnée des intentions qui va augmenter la “prédictibilité” des recherches. Et donc augmenter également leur valeur transactionnelle, leur valeur marchande.

Recherche de proximité et moteurs de voisinage. A l’aide de moteurs comme Intelius.com ou Everyblock.com, il est possible de tout savoir de son voisin numérique, depuis son numéro de sécurité sociale jusqu’à la composition ethnique du quartier dans lequel il vit, en passant par le montant du bien immobilier qu’il possède ou l’historique de ses mariages et de ses divorces. Toutes ces informations sont – aux États-Unis en tout cas – disponibles gratuitement et légalement. Ne reste plus qu’à les agréger et à faire payer l’accès à ces recoupements numériques d’un nouveau genre. Surveillance et sous-veillance s’affirment comme les fondamentaux de cette nouvelle tendance du “neighboring search.

Pourquoi chercher encore ? Le nouvel horizon de la recherche d’information pose trois questions très étroitement liées. Demain. Chercherons-nous pour retrouver ce que nous ou nos “amis” connaissent déjà, permettant ainsi aux acteurs du secteur de vendre encore plus de “temps de cerveau disponible” ? Chercherons-nous simplement pour acheter, pour consommer et pour affiner le modèle de la base de donnée des intentions ? Ou pourrons-nous encore chercher pour dmoteuécouvrir ce que nous ne savons pas (au risque de l’erreur, de l’inutile, du futile) ?

Les risques d’une macro-documentation du monde

Le web était un village global. Son seul cadastre était celui des liens hypertexte. Aujourd’hui, les systèmes de recommandation risquent de transformer le village global en quelques immeubles aux incessantes querelles de voisinage.

Un web hypermnésique et des moteurs omniscients. Aujourd’hui le processus d’externalisation de nos mémoires documentaires entamé dans les années 1980 avec l’explosion des mémoires optiques de stockage est totalement servicialisé et industrialisé. L’étape suivante pourrait ressembler à l’hypermnésie. Celle dont souffre Funès dans la nouvelle de Borges. Mais cette hypermnésie est aujourd’hui calculatoire, algorithmique, ambiante. Elle est massivement distribuée, ce qui lui confère cette impression de dilution, de non-dangerosité. Mais quelques acteurs disposent des moyens de l’activer et de tout rassembler. Pour l’instant ce n’est que pour nous vendre de la publicité, du temps de cerveau disponible. Mais que deviendrait cette arme hypermnésique entre les mains d’états ? Nous avons tendance à oublier l’importance de se souvenir puisqu’il est devenu possible de tout se remémorer.

Des enjeux de politique … documentaire. La deuxième question c’est celle de l’écosystème informationnel que nous souhaitons pour demain. Ne rien dire aujourd’hui, c’est consentir. Il est aujourd’hui absolument nécessaire d’ouvrir un débat autour de l’écosystème non plus simplement documentaire mais politique que les moteurs représentent, il est vital de s’interroger sur la manière dont cet écosystème documentaire conditionne notre biotope politique et social … Or toutes ces questions sont par essence documentaires, ce sont les questions que posent une macro-documentation du monde. Voilà pourquoi le rôle des professionnels de l’information est et sera absolument déterminant.


Billet initialement publié sur affordance.info, sous le titre “Qu’y aura-t-il demain sous nos moteurs ?”. Article de commande pour la revue Documentaliste, sciences de l’information, publié ici dans sa version longue. Article également déposé sur ArchiveSic.

Ertzscheid Olivier, “Méthodes, techniques et outils. Qu’y aura-t-il demain sous nos moteurs ?” in Documentaliste, sciences de l’information. Vol. 48, n°3, Octobre 2011, pp. 10-11. En ligne

Olivier Ertzscheid est également auteur d’un récent ouvrage sur l’identité numérique et l’e-reputation

Illustrations CC FlickR eirikref (cc-by), hawksanddoves.

]]>
http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/feed/ 15
L’article du futur sera une API http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/ http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/#comments Wed, 06 Jul 2011 17:05:27 +0000 Olivier Ertzscheid http://owni.fr/?p=72185 Face.

Face à l’explosion continue des savoirs disponibles. Face à la perméabilité chaque jour plus grande des champs scientifiques, à leur reconfiguration permanente et à la place toujours plus grande de l’interdisciplinarité et de la transdisciplinarité. Face à la crise de l’édition et aux rentes de situation de quelques monopolistiques éditeurs. Face à la babélisation des expertises et à la crise de l’autorité académique qu’elle met en exergue. 

Face au mouvement de l’open access et à l’ensemble de ses dérivés (science commons, archives ouvertes et/ou institutionnelles, sciences citoyennes, etc.). Face à la mise en place de nouvelles énonciations scientifiques, de nouveaux agencements collectifs d’énonciation et face à leur structuration et à leur légitimité grandissante. Face à l’explosion des usages scientifiques de sites, de données, d’API, de corpus non-originellement scientifiques. Face aux interfaces évolutives proposées pour l’accès et pour le traitement des données disponibles pour les chercheurs ou offrant un intérêt scientifique. Face à une transition encore en train de se faire entre la “science” et la “science 2.0″.

Face à tout cela, le monde académique (éditeurs, universitaires, ingénieurs, professionnels de la documentation) cherche et tatônne pour savoir, ce qui dans une transition déjà actée, relèvera demain de la réelle nouveauté disruptive et/ou du simple effet de mode passager.

Pile.

C’est dans cette logique de grand tremblement institutionnel qu’Elsevier (grand éditeur monopolistique qu’engraisse éhontément l’argent public des universités) a lancé, à grands renforts de tambours et de trompettes marketing, son projet pour étudier ce que sera “l’article du futur“. Pile poil. Où l’on apprend que l’article du futur sera :

  • plus interactif
  • plus hypertextuel
  • plus “segmenté” (avec d’un côté les données brutes, de l’autre côté le protocole expérimental, au milieu les résultats)
  • plus interfacé (en lieu et place d’un simple pdf à double colonne aux immuables têtes de chapitres – résumé, description du problème, revue de littérature existante, description du protocole, analyse des données recueillies et méthodologie de recueil, conclusions, prolongements et/ou réplications possibles, bibliographie)
  • variable en fonction des spécificités de chaque discipline
  • plus facilement “partageable”
  • plus facilement visualisable (différentes “vues” du même contenu seront disponibles)

Wow. On a même droit à une jolie vidéo avec des bonnes grosses flèches oranges “powerpoint-like”:

Un ou deux ans de recherche pour inventer un affichage à 3 colonnes avec le sommaire à gauche et les navigations et vues contextuelles à droite (soit ce qui est déjà disponible depuis 6 ou 7 ans dans les templates ou gabarits gratuits des grandes plateformes de blogs, au hasard et de manière non-exhaustive “wordpress” ou “blogger”). On peut même accéder à un exemple “live” d’article du futur. Re-wow. Mais ce n’est pas tout. Sans même parler de “l’article du futur”, figurez-vous, ô révolution numérique, qu’Elsevier vient de rendre possible d’ajouter des cartes Google sur des articles en ligne.

Et là je dis au mieux “WTF” et au pire “no future”. Bon, blague et mauvaise foi à part, il est évident que ce truc là sera toujours préférable à un vieux pdf à double colonnage sans liens hypertextes, mais qualifier ce prototype “article du futur” me semble un peu too much pour être honnête. Pendant qu’Elsevier réfléchit à l’article du futur, le futur de la science s’écrit au quotidien.

Ici, les formidables carnets (= blogs) de la plateforme HYpotheses.org se voient attribuer un numéro ISSN. Authentique (r)évolution :

Cette attribution, exceptionnelle pour une plateforme de carnets de recherche, constitue avant tout la reconnaissance des carnets de recherche comme de véritables publications scientifiques.

Pendant ce temps, , un enseignant-chercheur dépose (pour la première fois dans le monde francophone ?) la concaténation de 5 articles de blogs sur une plateforme d’archive ouverte, non pas pour se la jouer rebelle mais pour s’inscrire dans une très ancienne tradition de préprint initiée par la communauté des physiciens (sur le serveur Arxiv notamment). Et la bonne nouvelle – et la vraie nouveauté – est que cela n’émeut plus personne (à moins naturellement que personne ne l’ait encore remarqué ou n’ait jugé opportun de venir me manifester son outragé mécontentement devant ce dévoiement de l’honorabilité des publications académiques estampillées par la très sainte AERES).

Pendant ce temps-là, les contributions à l’encyclopédie Wikipédia sont prises en compte dans un CV académique.

Pendant ce temps-là, il y a déjà 3 ans, Jean-Max Noyer et 3 collègues universitaires réfléchissaient, non pas à “l’article du futur”, mais à la nécessaire et inexorable déconstruction numérique des modes de publication scientifique et des autorités liées. Voici quelques extraits de leur prose (je souligne) :

Les transformations de la sphère éditoriale scientifique sont à l’œuvre avec vigueur, depuis le début des années 90 et elles sont loin d’être stabilisées. Le passage d’un mode d’édition  « blanchi sous le papier »  avec ses dispositifs de fabrication, (leur sociologie) de financement, de légitimation (critériologie de sélection scientifique), de distribution, vers un mode éditorial numérique, hypertextuel complexe s’est accéléré depuis une dizaine d’années.
La première phase de ce passage est à présent bien avancée et la saturation des formes héritées du papier, toujours présentes au cœur des premières réalisations numériques est en cours. Une seconde phase est en cours de déploiement. Elle consiste à mettre l’édition numérique « au milieu » des conditions de production / circulation des savoirs scientifiques… Il s’agit en effet de penser et de concevoir des dispositifs qui soient l’expression la plus adéquate de ce couplage structurel.
Les mémoires numériques ont mis très rapidement en évidence la complexité des processus d’écritures scientifiques, les chaînes plus ou moins longues de transformations des textes, les morphogenèses documentaires. Bref, face à une exhibition de plus en plus forte  des dimensions processuelles et collectives des textualités scientifiques à travers la mise en mémoire d’un nombre croissant de traces produites par les chercheurs, l’édition scientifique doit repenser la manière dont elle a fondé son efficacité et sa légitimité sur une sélection relativement simple d’objets éditoriaux finis comme hypostases des savoirs scientifiques, comme effacement relatif (du processus de production scientifique lui-même), comme expression de l’imaginaire égalitaire de la redistribution des savoirs.
L’édition scientifique doit aujourd’hui permettre d’habiter les communautés d’œuvres, les agencements qui produisent et font circuler les documents, comme « incomplétude en procès de production ». Il s’agit de prendre en compte les dimensions complexes des procès d’écritures scientifiques et de favoriser le travail de recherche (…) au cœur des pratiques. Il s’agit encore de permettre l’établissement de chemins pertinents, de connexions, entre les hétéro-genèses documentaires, des fragments et des formes courtes les plus labiles aux textes stabilisés et sanctifiés en passant par les « working papers », les corpus de données quelconques… qui sont convoqués au cours du travail de recherche, de lectures-écritures.

De tout cela, de tous ces enjeux, naturellement pas un mot dans la réflexion sur l’article du futur d’Elsevier.

Alors ce sera quoi, l’article du futur ? Et ben je vais vous le dire :-) L’article du futur sera une API.

  • “A” non pas comme “Autorité” mais bien comme “agencements collectifs d’énonciation”. Ce que la recherche n’a par ailleurs – heureusement – jamais cessé d’être.
  • “P” comme “percolation” rendue possible entre différents champs scientifiques (voilà pour le fond), et entre les silos documentaires en reconfiguration permanente (voilà pour la forme)
  • “I”. Triple “I”. “I” comme “inscription”, c’est à dire comme capacité à faire trace. “I” comme “interface”, interface multimodale. Nécessairement multimodale. ”I” comme “indicateurs” : les nouveaux indicateurs de la science, viralité, téléchargements, réels, temps de lecture accordé, réplication, citations. Sur ce dernier point, Elsevier travaille beaucoup pour élaborer les tableaux de bord d’indicateurs scientifiques nécessaires au pilotage de la science, d’un strict point de vue comptable et/ou “valorisation à court terme”. Sur la question des indicateurs, Elesevier travaille (vraiment) beaucoup, et communique (vraiment) très peu. Ce sera peut-être l’objet d’un billet dédié si j’en trouve le temps, mais le monde académique serait très bien inspiré de se mettre rapidement au travail pour définir et fabriquer ses propres tableaux de bord d’indicateurs pour ne pas se trouver, demain, prisonnier de solutions clés en main technologiquement pointues mais méthodologiquement empreintes d’une vision strictement rentabiliste de la chose scientifique.

Et puis littéralement, l’article du futur sera une API. Une interface de programmation (voir le remarquable article d’InternetActu), rendant différentes applications possibles. Un vrai boulot d’éditeur que de réfléchir à ce que seront ces API. Que l’on regarde ce qui se passe du côté du livre numérique. L’édition savante va devoir faire rapidement la preuve de son érudition informatique et logicielle. A moins qu’elle ne préfère réinventer la roue ou l’article d’hier en l’appelant celui de demain.


Article initialement publié sur “Affordance.info” sous le titre “L’article du futur sera une API”.

Crédits photo FlickR CC : by-nc Eric Constantineau / by-sa Reilly Butler

]]>
http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/feed/ 0
Nos mémoires ne valent pas un cloud http://owni.fr/2011/06/17/nos-memoires-ne-valent-pas-un-cloud/ http://owni.fr/2011/06/17/nos-memoires-ne-valent-pas-un-cloud/#comments Fri, 17 Jun 2011 09:02:53 +0000 Olivier Ertzscheid http://owni.fr/?p=68408 Il est 19 heures dans la vraie vie. Monsieur Toumaurau habite Nantes. Il cherche à se procurer un livre. Il veut se rendre à la librairie, mais la librairie n’a plus d’adresse stable. Elle est un jour située au pied du quartier de la défense à Paris, un autre jour dans le Jura, un troisième jour à Toulouse. La librairie n’a plus d’adresse stable parce qu’elle dispose de toutes les adresses existantes. Il suffit à Monsieur Toumaurau de pousser une porte pour être dans la librairie. Il entre et cherche quoi lire. Il aimerait bien un roman de science-fiction. En rayonnage le classement par nombre de “like” a déjà depuis longtemps remplacé l’ordre alphabétique ou thématique. Monsieur Toumaurau optera pour le roman Bit.ly/Ep6bCKtt.

Pratique de ne plus avoir à retenir de nom d’auteur ou même de titre. Avec 17 000 like dont 70 en provenance de profils affichant les mêmes préférences littéraires que les siennes, Monsieur Toumaurau voit, en même temps qu’il règle 6 euros depuis son cellulaire, s’afficher sur l’écran de sa liseuse qu’il n’a que 17% de chances de ne pas aller au bout de le lecture du roman Bit.ly/Ep6bCKtt. Il commence à lire et à générer des liens sponsorisés qui, s’il s’applique, lui rapporteront un peu plus de 2 euros la semaine. Ce qui ramènera donc le prix d’achat de son roman à moins de 4 euros net. Monsieur Toumaurau est un bot, un lecteur industriel, un robot de dernière génération qui indexe en temps réel les ouvrages disponibles et génère des liens sponsorisés. Il est 19h01 sur le réseau. Monsieur Toumaurau habite Lyon.

Les 3 petites morts du web

Le web s’est construit sur des contenus, bénéficiant d’un adressage stable, contenus librement accessibles et explicitement qualifiables au moyen des liens hypertextes. Ces 3 piliers sont aujourd’hui ouvertement menacés.

  • L’économie de la recommandation est aussi une économie de la saturation. Les like et autres “+1″, les stratégies du graphe des bouton-poussoir menacent chaque jour davantage l’écosystème du web. nous ne posons plus de liens. Nous n’écrivons plus, nous ne pointons plus vers d’autres écrits, vers d’autres adresses, vers d’autres contenus. Nous préférons les signaler, en déléguant la gestion de ces signalements éparpillés à des sociétés tierces sans jamais se questionner sur ce que peut valoir pour tous un signalement non-pérenne, un signal éphémère.
  • L’externalisation de nos mémoires est devenue l’essentiel de nos modes d’accès de de consommation. L’informatique est “en nuages”. Nos mémoires documentaires, mais également nos mémoires intimes sont en passe d’être complètement externalisées. Nous avons tendance à oublier l’importance de se souvenir puisqu’il est devenu possible de tout se remémorer.  Les contenus sont dans les nuages. Ils ne nous appartiennent plus, ils ne sont plus stockables. La dématérialisation est ici celle de l’épuisement, épuisés que nous serons, demain, à tenter de les retrouver, de les rapatrier, de se les réapproprier.
  • Le web ne manque pas d’espace, son espace étant virtuellement infini. Pourtant les services du web s’inscrivent dans une logique d’épuisement. Les raccourcisseurs d’URL, nés sur l’écume de la vague Twitter fleurissent aujourd’hui partout. Même la presse papier y a de plus en plus fréquemment recours. les adresses raccourcies, épuisent les possibilités de recours, les possibilités de retour. IRL comme URL, sans adressage pérenne, les digiborigènes que nous sommes se trouvent condamnés au nomadisme à perpétuité.

Saturation. Epuisement. Externalisation. Les 3 fléaux.

Big Four

Facebook, Google, Apple, Twitter sont des dévoreurs d’espace. Ils ont colonisé le cyberespace. Ils y ont installé leurs data centers. Ils y ont instauré des droits de douane. Ils ont décidé qu’il serait plus “pratique” pour nous de ne pas pouvoir télécharger et stocker un contenu que nous avons pourtant payé, qu’il serait plus pratique d’y accéder en ligne. A une adresse qui n’est plus celle du contenu mais celle du service hôte. Leur adresse. Ils ont décidé d’organiser la hiérarchie et la visibilité de ces contenus à l’applaudimètre. Ils ont décidé que nos messages seraient limités à 140 caractères. Ils nous ont contraint à passer par des adressages indéchiffrables (url shorteners) pour pointer vers un contenu.

Consentement en clair-obscur. Les choses ne sont naturellement ni aussi simples ni aussi noires. Nous avons soutenu ces projets ; nous avons peuplé ces espaces vierges ; nous avons profité des infrastructures qu’ils mettaient à notre disposition gratuitement. Nous avons emménagé librement dans ces colonies.

Retour aux fondamentaux. Le rêve réalisé de Tim Berners Lee et des autres pionniers avant lui était celui de l’infini des possibles, celui d’une écriture dans le ciel que rien n’entrave. Certainement pas le projet d’une inscription, d’une engrammation dans des nuages fermés et propriétaires.

Pour les contenus. Le droit d’avoir une adresse stable. Le droit de pouvoir y être trouvé, retrouvé. Le droit au stockage local sans lequel il n’est plus de droit de transmettre un bien (culturel) en dehors du super-marché qui l’héberge.

Que serait Sisyphe sans mémoire ? Les sociétés humaines, les “civilisations” se construisent sur de la mémoire. Sur une mémoire partagée et rassemblée et non sur des fragment mémoriels largement “partagés”, en permanence “disséminés”, épars. Le seul vrai projet pour civiliser l’internet serait d’empêcher cette priva(tisa)tion de nos mémoires, de nos mémoires intimes, de nos mémoires sociales, de nos mémoires culturelles. Des bibliothèques y travaillent, avec le dépôt légal de l’internet, avec le Hathi Trust pour la numérisation des oeuvres libres de droits, y compris même en archivant la totalité de Twitter. Elles essaient. Elles tatônnent encore parfois. Mais elles ont compris. Pas de mémoire sans archive. Pas d’oubli sans traces effacables. Pas de civilisation sans patrimonialisation pensée. Le temps de cerveau reste disponible. Le temps d’accéder à nos mémoires est compté. Nous seuls en sommes comptables. Sauf à considérer que …

… Nos mémoires ne valent pas un cloud.

<Update> Dans la guerre qui s’annonce entre les lieux de mémoire et de conservation que sont les bibliothèques d’une part, et les grands acteurs commerciaux de la marchandisation des accès mémoriels que sont les big four suscités d’autre part, il est urgent de rappeler que les premières sont dans une situation critique en Angleterreen Espagneaux Etats-Unis … sans parler de celles du Portugal, de la Grèce, etc … </Update>

A l’origine de ce billet :

  • L’entrevue éclairante avec Tim Berners Lee dans le dernier numéro de Pour la Science.
  • Un tweet signalant le service http://urlte.am/ qui tente, un peu à la manière du Hathi Trust dans un autre domaine, de bâtir une archive stable et pérenne des adresses raccourcies.

Billet initialement publié sur Affordance.info


Crédits photo: Flickr CC Yoshi HuangJulian Bleecker, Biggies with Fish,

]]>
http://owni.fr/2011/06/17/nos-memoires-ne-valent-pas-un-cloud/feed/ 12
Ordi en cours: soyons pragmatiques, n’ayons l’air de rien http://owni.fr/2011/04/26/ordi-en-cours-soyons-pragmatiques-nayons-lair-de-rien/ http://owni.fr/2011/04/26/ordi-en-cours-soyons-pragmatiques-nayons-lair-de-rien/#comments Tue, 26 Apr 2011 10:30:58 +0000 Olivier Ertzscheid http://owni.fr/?p=58957

À l’heure de l’économie de l’attention, à l’heure où de plus en plus d’étudiants sont “équipés” de micro-ordinateurs, se pose de plus en plus la question d’autoriser ou d’interdire l’usage desdits micro-ordinateurs pendant les cours à l’université.

Enseignant principalement en IUT j’ai la chance d’effectuer la plupart de mes cours avec des promotions assez peu nombreuses (60 étudiants au maximum). Promotions dans lesquelles la proportion d’étudiants qui ouvrent leurs portables est de plus en plus grande. D’où débat avec les collègues : que faire ??

  • Interdire tout le temps ? Débile quand on prétend en même temps promouvoir une littératie numérique.
  • Autoriser tout le temps et sans condition ? Ingérable.
  • N’autoriser que pour certains cours ? Pas cohérent.
  • Mettre en place une charte ? Beurk. Je garde encore le souvenir nauséeux des chartes des salles d’informatique qui vous décourageaient de toute tentative d’approche d’ordinateurs par ailleurs en nombre notablement insuffisant et tournant à la vitesse d’une idée dans les circonvolutions cérébrales de Frédéric Lefebvre (c’est-à-dire très lentement). Et puis de toute façon, les étudiants ne lisent pas les chartes.
  • Laisser chaque enseignant décider ? Pas cohérent.
  • Couper l’accès WiFi ? Je suis pas fan de la castration chimique. Et puis la couverture WiFi sur les campus est quand même l’un des principaux acquis sociaux de la communauté étudiante (et accessoirement enseignante lors de conférences parfois… euh… ronflantes)

Résultat des discussions, pas grand-chose mais des débats intéressants.

De mon côté, je suis plutôt adepte d’une ouverture maximale aux NTAD (nouvelles technologies de l’attention et de la distraction) : blog du cours, présence sur les réseaux sociaux, etc.

À ma connaissance toujours, peu d’universitaires se sont publiquement exprimés sur ces questions de “pratique”, avec deux exceptions notables  :

  • André Gunthert : plutôt ni pour ni contre
  • Jean-Michel Salaün : assez clairement contre (de nombreux liens dans son billet et à l’appui de sa réflexion, notamment les toujours éclairantes synthèses d’Hubert Guillaud sur InternetActu)

Voilà donc le contrat que j’ai décidé de passer avec mes étudiants :

L’utilisation d’un micro-ordinateur pendant mes cours est autorisée aux conditions suivantes :

  • m’envoyer, à la fin du cours, un mail contenant (en fichier attaché) la prise de note du cours.
  • accepter, si la prise de note est jugée correcte, qu’elle soit (anonymisée puis) versée sur le blog du cours pour pouvoir être ainsi utile à d’autres (éventuellement absents ce jour-là ou momentanément distraits – car comme le rappelait Lao-Tseu-Point-Com, “point n’est besoin d’être connecté pour être distrait”)
  • accepter que l’utilisation du portable pour le prochain cours soit soumise à une autorisation préalable en fonction du résultat de la prise de note transmise lors du cours précédent.

Les avantages de ce contrat :

  • je pense que le nombre d’étudiants bossant “sur ordi” va considérablement se réduire :-)
  • pour celles et ceux qui joueront le jeu cela permettra d’enrichir le blog du cours et aussi de les sensibiliser “pratiquement” à une certaine idée du “collectif” / “partage” / “travail collaboratif”. Accessoirement, cela peut aussi permettre de valoriser le travail de certains.
  • me permettre de “mesurer” les points du cours qui passent bien et ceux qui passent… à la trappe

Les inconvénients :

  • ben… ça va me faire un peu de boulot en plus. Mais bon, on n’en est plus à ça près. Et pour une fois que ce sera pas du boulot administratif en plus ;-)

Les limites :

  • le contrat ne vaut pour pour un nombre d’étudiants présents qui reste raisonnable. Si j’ai un cours en amphi demain avec 200 étudiants et qu’il y a 90 portables ouverts… À ce niveau-là il faudrait envisager une prise de note mais “réservée” sur un wiki commun (par exemple).

Et vous, quelles sont vos solutions ??

P.S. : le titre de ce billet est évidemment un clin d’œil.

Billet initialement publié sur Affordance sous le titre “NTAD : Soyons pragmatiques, n’ayons l’air de rien”

Photo Flickr PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales smannion

]]>
http://owni.fr/2011/04/26/ordi-en-cours-soyons-pragmatiques-nayons-lair-de-rien/feed/ 31
Culturonomics: juste une question de corpus? http://owni.fr/2011/01/11/culturonomics-juste-une-question-de-corpus/ http://owni.fr/2011/01/11/culturonomics-juste-une-question-de-corpus/#comments Tue, 11 Jan 2011 11:26:12 +0000 Olivier Ertzscheid http://owni.fr/?p=41686

À quoi sert de numériser des millions d’ouvrages depuis 2005 ? À ça (« Quantitative Analysis of Culture Using Millions of Digitized Books », article publié dans la revue scientifique Science). Disposer de 4% de tous les livres publiés depuis 2 siècles. 7 langues. 2 milliards de mots. 5,2 millions de livres numérisés “inside” (voir l’article du NYTimes).

Deux corpus. Mais qu’est-ce qu’un corpus ?

  • Ensemble de données exploitables dans une expérience d’analyse ou de recherche automatique d’informations.” (Source : Trésor de la langue française)
  • Ensemble de textes établi selon un principe de documentation exhaustive, un critère thématique ou exemplaire” (Source : Trésor de la langue française)

Dans le domaine du droit, le corpus : “C’est l’élément matériel de la possession, le pourvoir de fiat exercé sur une chose. (Animus).

Du premier corpus, celui de Google, on ne pourra que se réjouir, pour ce qu’il représente de potentialités ouvertes dans l’aventure linguistique comme compréhension du monde. Et l’on mettra du temps à en épuiser les possibles. Mais nul doute qu’il contribuera aussi à alimenter tous les fantasmes, celui, notamment, d’une “intelligence artificielle” dévoyée, apprenant à penser en déchiffrant ce que le plus grand corpus du monde révèle des pensées de ce même monde. Les ingénieurs ont même inventé un mot pour cela : “culturonomics”. Culture et génomique. Enthousiasmant. Pour l’instant. Et pour les linguistes.

Du second corpus, celui de Facebook, on ne peut que continuer à raisonnablement s’alarmer. Surtout lorsque les techniques de traitement dudit corpus prennent cette orientation, rendant plus que jamais nécessaire la mise en œuvre d’un littéral Habeas Corpus numérique.

Dans l’histoire des sciences, les scientifiques de tous les domaines, de toutes les époques, de toutes les disciplines, se sont en permanence efforcés de prendre l’ascendant sur leur différents corpus ; pour pouvoir être exploitable, le corpus doit pouvoir être circonscrit par ceux qui prétendent en faire l’analyse.

Il n’y a rien que l’homme soit capable de vraiment dominer : tout est tout de suite trop grand ou trop petit pour lui, trop mélangé ou composé de couches successives qui dissimulent au regard ce qu’il voudrait observer. Si ! Pourtant, une chose et une seule se domine du regard : c’est une feuille de papier étalée sur une table ou punaisée sur un mur. L’histoire des sciences et des techniques est pour une large part celle des ruses permettant d’amener le monde sur cette surface de papier. Alors, oui, l’esprit le domine et le voit. Rien ne peut se cacher, s’obscurcir, se dissimuler.

Bruno Latour, Culture technique, 14, 1985 (cité par Christian Jacob dans L’Empire des cartes, Albin Michel, 1992).

L’informatique, les outils de la linguistique de corpus ont permis aux linguistes de rester les maîtres de corpus aux dimensions exponentielles. Même chose dans le domaine de la médecine : disséquer une grenouille est une chose (et un corpus), séquencer le génome humain en est une autre. Dans tous ces cas comme dans les courbes proposées par Google, le scientifique est parvenu à “ruser” le monde pour user de son corpus.

Et donc ? Nos sociétés de données, nos sociétés d’une exponentielle et inconcevable immensité de données, nourrissent en permanence des monstres calculatoires et industriels (voir les textes d’Hervé Le Crosnier sur le sujet, ou ) qui, dans certains domaines, sont en passe d’être les seuls capables de circonscrire des corpus qui relèvent, pourtant, du bien commun. Aujourd’hui déjà la génomique, demain peut-être la linguistique, après demain qui sait, les traits culturels ? Culturonomics. Le génome de la culture.

S’il est vrai, comme le remarque Jean Véronis dans son billet que “la biologie et le traitement des langues partagent beaucoup de choses du côté des algorithmes et des mathématiques“, je pense que le choix terminologique de Google dépasse, de loin, la seule interdisciplinarité ; Culturonomics : dans l’histoire de Google comme dans ses liens les plus intimes, la culture et le génome sont les deux brins d’un même ADN fondateur.

Moralité. Celui qui peut dire que la vie l’emporte sur la mort ne doit jamais se retrouver en situation d’être le seul à pouvoir le dire. Ou à prétendre le contraire. Ou à ne pas le dire. Il est de notre responsabilité collective d’y veiller. Habemus corpus. Ceci est notre corp(u)s.

>> Article initialement publié sur Affordance

Retrouvez notre dossier :

Petite histoire de la géologie en quelques mots

La politique, le sexe et Dieu dans Google Books

>> Illustrations FlickR CC : Calamity Meg, J.Salmoral

>> Illustration de Une FlickR CC : stefernie

]]>
http://owni.fr/2011/01/11/culturonomics-juste-une-question-de-corpus/feed/ 5
Google Books, libraire numérique depuis 2010 http://owni.fr/2011/01/10/google-books-libraire-numerique-depuis-2010/ http://owni.fr/2011/01/10/google-books-libraire-numerique-depuis-2010/#comments Mon, 10 Jan 2011 07:30:51 +0000 Olivier Ertzscheid http://owni.fr/?p=41097 Mes étudiants vous le confirmeront, j’avais dès 2006 annoncé que Google deviendrait un jour libraire. Et j’avais également indiqué qu’il le serait au plus tard en 2010. Il s’en est donc fallu de peu (25 jours), mais j’ai gagné mon pari :-) Le 6 décembre restera donc comme la date officielle de lancement de Google Edition : http://books.google.com/ebooks.

Disponible uniquement aux États-Unis, l’ouverture pour l’Europe (et la France ?) et annoncée pour le début 2011 (“first quarter 2011″).

Pas le temps de faire un billet d’analyse, je me lance donc, par défaut, dans une petite revue de liens qui permettront, je l’espère, de circonscrire les principaux enjeux de ce lancement. Car figurez-vous qu’en plus de ce lancement, Google a, ces derniers jours, multiplié les annonces. Mais d’abord une question.

Pourquoi lancer Google Edition maintenant et dans une (relative) précipitation ?

Parce que c’est bientôt Noël et parce que comme tous les foyers qui peuvent faire flamber leur Carte Bleue pour l’occasion sont déjà équipés de cafetières, de micro-ondes, d’ordinateurs, et de lecteurs DVD, tous les indicateurs et tous les analystes le disent : ce Noël sera celui des tablettes tactiles et autres e-readers (liseuses). L’iPad va faire un carton (même si je vous conseille d’attendre la prochaine version). Et outre-Atlantique, les ebooks vont se vendre comme des petits pains (ben oui, faudra bien remplir les sus-cités tablettes et autres e-readers). Donc c’eût été digne de la stratégie d’un vendeur de sable en Afrique sub-saharienne que de ne pas lancer Google Edition avant les fêtes de Noël (pour info, et d’après une étude de Forrester citée ici, “le marché US représente près de 1 milliard de dollars en 2010 et devrait tripler d’ici 2015″, d’autre part, ici, “le marché du livre électronique progresse : +200% de ventes en 2009 pour les États-Unis.”).

La question des chiffres

Épineuse. Pour certains, reprenant la communication officielle de la firme [en] pour certains donc, Google Edition c’est 3 millions de livres sur les 15 millions d’ouvrages numérisés à ce jour par le moteur, issus des catalogues de 35.000 éditeurs et plus de 400 bibliothèques (source). Pour d’autres, dans Google Edition on partirait sur “4.000 éditeurs pour environ 200.000 livres mis en vente. Les éditeurs recevront jusqu’à 52 % du prix de vente.” (source) La vérité est ailleurs probablement à chercher du côté du supplément livres du Los Angeles Times :

Google is working with all of the big six major publishing houses — Random House, Penguin, HarperCollins, Hachette Book Group (sic), Simon and Schuster and Macmillan — and thousands of smaller publishers to offer more than 250,000 in-print books for sale. Google eBooks will also launch with about 2.7 million public-domain books in its store, which can be accessed for free.

Voilà. 2,7 millions d’ouvrages du domaine public + 250.000 ouvrages sous droits = pas loin de 3 millions d’ouvrages, sur les 15 millions que Google dit avoir numérisé, et dans lesquels figurent au moins 60% d’œuvres orphelines qui ne seraient donc pas, pour l’instant et en attendant que la justice se prononce sur la dernière version du règlement Google, qui ne seraient donc pas dans l’offre de lancement de Google Edition.

La question des droits (et des ayants-droit).

Problème épineux et consubstantiel de Google Books (cf les différents procès et la mise sous coupe réglée du règlement afférent). Avant de lancer Google Edition, Google s’est aussi efforcé de faire bonne figure auprès des ayants-droit :

  • “meilleure accessibilité des contenus légaux depuis son moteur. (…) Une modification de l’algorithme de Google afin de faire remonter systématiquement les contenus identifiés comme légaux ne serait pas à exclure.”
  • nettoyage de l’auto-complétion (pour éviter les suggestions du type “Houellebecq… BitTorrent”)
  • “répondre en 24 heures aux demandes de retrait de contenus litigieux de la part d’ayants-droit”
  • “fermer les vannes d’AdSense aux sites pirates”

La question des DRM, des formats et des concurrents

On a beaucoup dit (et écrit) que la caractéristique de Google Edition serait l’absence de DRM. Faux [en]. Il y aura bien des DRM. Reste à savoir s’ils seront limités aux œuvres sous droits ou s’ils seront étendus aux œuvres orphelines. Cette question constituera un des points à surveiller tout particulièrement. Le modèle de l’allocation proposé par Google permettant en effet partiellement d’évacuer la question des DRM castrateurs, question certes sensible pour les ayants-droit et les éditeurs mais aussi et surtout facteur ô combien bloquant pour le décollage du marché.
La plupart des ouvrages disponibles sur Google Edition seront – c’était annoncé et cela reste une bonne nouvelle – au format open-source ePub. J’ai bien dit la plupart.
Ben… [en] des concurrents y’en a plein : Amazon, Apple, Amazon, Apple, Amazon, Apple. Peut-être aussi Barnes&Noble (plus gros libraire américain).

La question des (petits) libraires (indépendants)

Ben oui. Dans ce monde un peu fou de la librairie (et pas que dans celui-là d’ailleurs), le même Google qui était hier le grand méchant ogre est aujourd’hui en passe de devenir la planche de salut de la librairie indépendante [en]. Google leur fournirait les briques et le mortier (“brick and mortar”) nécessaires à la construction de leur librairie numérique. À moins qu’il ne s’agisse du goudron et des plumes nécessaires à son enterrement de première classe. Mais du coup, le grand méchant ennemi de la librairie indépendante reste Amazon et Google s’offre une relative virginité ainsi qu’une main d’œuvre qualifiée qui fera diligence pour aider le même Google à vendre… ses livres. Ou comment créer à moindre frais une chaîne de libraires franchisés Google (rappelons pour mémoire qu’il y autant de libraires indépendants en France que sur tout le territoire américain, et si la nouvelle est accueillie avec enthousiasme par l’alliance des libraires indépendants américains, l’enthousiasme risque d’être moins spontané du côté du Syndicat de la Librairie Française… )

With access to over three million titles in the Google system, a variety of e-book formats, and compatibility with most of the e-reading devices out there, independent bookstores have a powerful platform available to them. Without having to concentrate on the technical details of selling e-books, indies can focus on their “bread-and-butter” services like curation and personal book recommendations. (source)

More than 200 independent bookstores nationwide will be able to sell Google eBooks. (LATimes)

Créer une armée de libraires “Powered by Google”. (TechCrunch)

La question des supports de lecture

C’est là où Google Edition s’inscrit en rupture du modèle dominant avec sa stratégie de l’allocation. Mais on pourra aussi lire les ouvrages achetés sur Google Edition sur à peu près tou(te)s les tablettes/smartphones/e-readers/iPad (via une application en cours de développement)… à l’exception notable du Kindle d’Amazon :-)

La question du nuage (comme support de lecture)

Les ouvrages de Google Edition sont (et resteront pour la plupart d’entre eux) dans les nuages du cloud computing. Or on apprend que Google lancerait demain (mardi 7 décembre) son système d’exploitation Chrome OS, permettant d’équiper d’ici Noël les premiers Netbooks tournant sous Chrome OS, le même Chrome OS étant la première version à supporter le Chrome Web Store et son magasin d’application sur le même modèle qu’Apple (apprend-on ici). Donc ? Donc en plus des tablettes, smartphones, PC et e-books, Google se réserve aussi son Netbook comme potentiel support de lecture, et comme fournisseur d’applications pour sa chaîne de libraires franchisés. [maj : Google a bien lancé [en] le premier prototype de portable avec Chrome OS) 

La question du partage du gâteau

Houlala. Va falloir s’accrocher (voir par ici les “pricing options”, [en]) Plusieurs options donc. Les librairies indépendantes franchisées. Le modèle d’agence (c’est l’éditeur et non le libraire qui fixe le prix). On sait que, pour les ouvrages sous droits et uniquement ceux-là :

* l’éditeur touchera jusqu’à 52% du prix si l’ouvrage est vendu “sur” Google Edition (jusqu’à 45% s’il est vendu par un détaillant – ou un libraire partenaire)

Less than 10 percent of Google’s publishing partners asked for an agency deal, but they represent over half of the best-sellers in the store, the company said, and they get 70 percent of the sale price. (source)

Rappelons au passage que depuis le règlement Google (et même si celui-ci n’est toujours pas définitivement validé par la justice américaine), et concernant les œuvres orphelines, si les ayants-droit sont connus ils peuvent fixer le prix de vente, mais pour l’immense majorité des œuvres sans ayants-droit connus, et sauf accord particulier (comme dans le cas d’Hachette), c’est Google et lui seul qui fixera et modifiera comme il l’entend son prix (dans une fourchette de 12 tranches de prix comprises entre 1,99 dollars et 29,99 dollars)

La question du partage du gâteau (encore). Je fais et refais, depuis 2009, le pari avec mes étudiants que Google mettra en place sur Google Edition un équivalent du modèle AdWords permettant de rémunérer les auteurs non pas uniquement “au pourcentage des ventes” mais aussi – et peut-être surtout – “à la consultation”. D’autres (analyste chez Forrester [en]) ne sont pas loin de me suivre et font l’hypothèse de la création d’un “ad-supported publishing model” dans lequel Google vendra des liens sponsorisés (= proposera des campagnes AdWords) sur le contenu des ouvrages :

Where Dickens’s, “It was the best of times, it was the worst of times,” could end up sponsored by a Google AdWords campaign that reads, “Is your day feeling like the worst of times? Try our new sports drink to get your afternoon back on track.

Et le même d’ajouter :

First, books are the only medium left not significantly sponsored by advertising. From the Android Angry Birds game app to Pandora music streams to Hulu.com to the venerable NYT.com, advertising is essential to the success of nearly all media—analog and digital. The only reason book advertising has not happened is that the economics of distributing books have required that people pay for them—in a way they have never paid for the newspaper, magazines, or even music, where a majority of listening has always been radio-based.” (…) “the economics of publishing are swiftly moving away from an analog production model. (I blogged about this to much ado last month), which means that soon, we will no longer need to force the entire cost of a book on the buyer of the book, but instead can extract value from the reader of the book, in direct proportion to the value they get from it. In other words, the more pages they read (the more value they get), the more ads they see and the more value the publisher and author receive.

La question des oeuvres orphelines

Le réglement Google (settlement) n’ayant toujours pas été définitivement validé, reste la question de savoir si les oeuvres orphelines dont les ayants-droit ne sont pas connus figureront ou non dans le pack de départ de Google Edition. L’AFP et Letemps.ch semblent penser que non.
J’incline à penser que oui, parce que primo, bien malin celui qui réussira à les y dénicher, que deuxio, la “chaîne du livre sous droits” va avoir d’autres soucis immédiats à gérer en terme de positionnement et de choix stratégiques, et que tertio, le contrat avec Hachette risque de faire tâche d’huile et qu’une fois que la tâche sera suffisamment grande, Google pourra alors ouvrir en grand le robinet des oeuvres orphelines, sans grande crainte de représailles ou de procès.

J’allais oublier : la machine bizarroïde qui vous imprime et vous relie un livre de 300 pages en 5 minutes arrive en Europe [en]. Elle est déjà présente dans 53 bibliothèques et librairies des États-Unis. Je vous ai déjà dit que Google était partenaire de l’Espresso Book Machine ?

Moralité : Google Edition est en fait une librairie. Google Print était en fait une bibliothèque. Ne reste plus qu’à attendre le lancement de Google Library qui sera en fait une maison d’édition. Je verrai bien ça pour dans deux ans ;-)

Lire aussi l’expérience utilisateur et les réflexions d’Hubert sur La Feuille.

Sources utilisées pour la rédaction de ce billet (dans le désordre). Les ** signalent les articles particulièrement intéressants et/ou synthétiques (de mon point de vue) :

Google veut se refaire une image auprès des ayants-droits
Google eBooks propose 3 millions de livres numériques pour son lancement
Adobe announces adoption of ebook DRM by Google
Google eBooks is live: just in case Amazon, B&N, and Apple aren’t enough
Radio-Canada La revue du web – 6 décembre 2010
**Will Google eBooks Save Indie Booksellers?
Discover more than 3 million Google eBooks from your choice of booksellers and devices
** Google launches its eBooks store
Google’s New Bookstore Cracks Open the E-book Market
** The Ultimate Effect Of Google E-Books: A New Ad-Supported Model For Books
Google pourrait lancer Chrome OS mardi
Google nous invite pour une annonce Chrome
Google prêt à lancer le Nexus S
Google eBooks, la librairie en ligne est ouverte aux États-Unis
** Google Books overview
Google livres programme partenaires
** Google Editions : diviser pour mieux régner
First Espresso Book Machine in Continental Europe

Publié initialement sur le blog Affordance sous le titre Google édition : books.google.com/ebooks

Crédits photos flickr sous licence Creative Commons PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales Visualist Images ; digitalnoise ; Stuck in Customs

]]>
http://owni.fr/2011/01/10/google-books-libraire-numerique-depuis-2010/feed/ 5
Le web. Un point c’est tout ? http://owni.fr/2010/12/15/le-web-un-point-cest-tout/ http://owni.fr/2010/12/15/le-web-un-point-cest-tout/#comments Wed, 15 Dec 2010 16:05:10 +0000 Olivier Ertzscheid http://owni.fr/?p=39290 Vous êtes ici.

Pourquoi le web, pourtant si bifurquant, si rhizomatique, si sensiblement épars, nous semble-t-il si aisément abordable, si facilement traversable, embarqués que nous sommes, équipage de moussaillons mal dégrossis derrière leur navigateur (browser), vaisseau amiral en haute mer des hyperliens possibles ?

Est-ce là la seule grâce et le seul fait d’une formidable et trans-maritime écluse répondant au nom de Google ? Est-ce là l’inaliénable mérite de “moteurs” de recherche fixant eux-mêmes le cap, listant par défaut quelles routes seront ouvertes et traversables parce que par eux-mêmes balisées (indexées) et quelles voies resteront inaccessibles sauf à quelques rares mais essentiels navigateurs chevronnés ?

Non.

Si le web, malgré son immensité de contenus donc, nous est rendu appropriable, si le sentiment d’être “lost in hyperspace” s’efface souvent au profit d’une découverte hasardeuse, heureuse (sérendipité) et rassurante, c’est pour une raison simple.

Le web. Aller et retour.

C’est parce que le web est un graphe. Mais un graphe particulier. Un graphe à invariance d’échelle, c’est à dire avec de la redondance, beaucoup de redondance, c’est-à-dire un graphe ni vraiment aléatoire ni vraiment hiérarchique. C’est à dire un graphe dont l’immensité relationnelle, dont l’extraordinaire densité n’oblitère pas la possibilité offerte à chacun d’entre nous d’en mesurer le diamètre ; mieux, de faire l’expérience de cette mesure, de faire le tour du web.

Le diamètre d’un graphe, c’est la plus longue distance entre deux nœuds. Le diamètre du web, c’est la plus longue distance entre deux liens hypertextes.
LE spécialiste intergalactique des graphes, Laszlo Barabasi a mesuré ce que nous ne faisons la plupart du temps que ressentir en naviguant, c’est à dire cette impression d’avoir fait le tour, de revenir à notre point de départ ou à quelque chose qui lui ressemble étrangement. Laszlo Barabasi a mesuré le diamètre du web. C’était en 1999. Et il était de 19 liens.

Avec mon camarade Gabriel Gallezot, dans un article fondateur – bien que jamais publié en papier ;-) -, dans cet article nous écrivions derechef que :

Cela signifie, que quelles que soient les unités d’information choisies (en l’occurrence des pages web), elles se trouvent connectées par une chaîne d’au plus dix-neuf liens. Au delà de chiffres qui, du fait de la nature même du web ne sauraient être stabilisés, ces études ont surtout permis de construire une topologie de l’espace informationnel tel qu’il se déploie sur les réseaux, en faisant émerger certaines zones « obscures » (web invisible), déconnectées d’autres zones mais tout aussi connectées entre elles, et en ce sens homogènes.

D’où ce sentiment de proximité, de complétude, de confort de navigation (plutôt que d’errance), de communauté, de “village global” devant ce qui devrait pourtant nous apparaître comme une immensité par définition non-traversable puisque impossible à cartographier parce qu’en perpétuel mouvement.

Des graphes et des fractales.

Car tel est le web. Tout au moins celui des premiers temps. Car depuis le web – et depuis le temps – sont apparus des graphes dans le graphe. Ils ont pour nom Flickr, YouTube, LiveJournal (plate-forme de blogs) et tant d’autres. D’autres en ont également établi les diamètres respectifs :

  • FlickR : 5,67
  • YouTube : 5,10
  • LiveJournal : 5,88
  • Orkut : 4,25

Nota-Bene : dans leur étude, les auteurs (3) partent d’une mesure du web donnée à 16,12.

Des petits web dans le web. Du genre des petits ruisseaux qui font les grandes rivières. Sur un mode fractal, c’est à dire partageant les mêmes propriétés de graphes invariants d’échelle. Jusqu’à un certain point.

Graphologues contre graphomanes.

Si les graphologues sont (1), (2) et (3) – parmi d’autres – c’est à dire des gens qui font profession de l’établissement de graphes capables d’attester de la navigabilité réelle du web, existent aussi ceux que l’on nommera graphomanes ou graphophobes et qui font profession ou vœu d’abaisser significativement le diamètre dudit graphe jusqu’à idéalement le réduire à un point, c’est à dire – heureusement – une aporie, mais également le rêve cauchemar d’un monde où tout est univoquement connecté à tout, un monde dans lequel chacun est simultanément en contact avec les autres, avec tous les autres, en permanence.

Abolir le fractal.

Si la dimension fractale du web des origines – comme pour l’exemple célèbre de la côté de la Bretagne – permettait l’agrandissement de ses dimensions (donc de sa navigabilité, de sa possible exploration) au fur et à mesure du rapprochement de l’observation , le projet politique des graphomanes est de bâtir des “environnements en apparence semblables à des graphes invariants d’échelle” mais dont la dimension, c’est à dire le spectre de ce qui est observable et/ou navigable se réduit au fur et à mesure ou l’observateur se rapproche. Soit une forme paradoxale de panoptique.

Facebook, YouTube et tant d’autres sont, chacun à leur manière des projets graphomanes. La graphomanie de Facebook est de nature politique (= on est tous amis), celle de YouTube est idéologique (on aime tous les mêmes vidéos rigolotes). Tous ont en commun de tendre vers l’abolition du fractal, c’est à dire d’une certaine forme d’inépuisable. De faire du web un simple nœud. Un seul nœud. L’isolement du graphe. L’avènement du point.

L’avénement du point

Plus que le web lui-même, plus que l’infrastructure qui le porte, c’est une certaine idée du web comme ressource qui est en danger. Danger d’une concentration, une contraction des liens qui le structurent et le forment ; danger d’une surexploitation de cette ressource naturelle (le web) d’un écosystème informationnel (internet) qui pourrait conduire à son épuisement, à son tarissement au seul profit d’immenses et finalement pauvrement réticulés supermarchés relationnels dont Facebook ou YouTube sont aujourd’hui les emblèmes par l’homogénéité des ressources qu’ils proposent, et les “patterns” qu’ils propagent et auto-alimentent.

Le courroux des gourous.

N’étant ni Chris Anderson ni Tim Berners Lee je ne sais si le web est mort ou s’il peut encore être sauvé. Peut-être ne suis-je que l’un des initiés nourris à la rhétorique d’un web libertaire.

J’observe qu’en-deçà d’une certaine granularité, qu’en-deçà d’un certain diamètre, qu’au-dedans de certains sites, ce sur quoi nous passons chaque jour davantage l’essentiel de nos navigations n’a pas davantage à voir avec le web des origines que le couteau de cuisine n’a à voir avec l’écriture.

Je rappelle ce que j’écrivais ici-même il y a déjà 3 ans et un mois de cela, à savoir que cette approche fermée, propriétaire, compartimentée, concurrentielle, épuisable de l’économie du lien hypertexte ne peut mener qu’à des systèmes de nature concentrationnaire. Des écosystèmes de l’enfermement consenti, en parfaite contradiction avec la vision fondatrice de Vannevar Bush et selon laquelle la parcours, le “chemin” (“trail”) importe au moins autant que le lien. Les ingénieries de la sérendipité n’ont pas plus aboli le hasard que ne l’avait fait le coup de dès de Mallarmé, mais elles en ont profondément et durablement changé la nature.

Choisir : le lien ou le chemin (de ronde).

De l’ensemble de mes données personnelles récupérées sur Facebook ne se dégage aucun chemin : seulement la litanie de la liste de mes “amis”. Les liens, la totalité des liens qui dessinent mon “vrai” profil social, mon véritable cheminement, ceux-là restent la propriété – et à la discrétion – du seul Facebook. Dans l’usage même, quotidien de Facebook, de YouTube et de tant d’autres, je ne parcours aucun chemin, je n’effectue aucun autre cheminement que celui qui place mes propres pas dans ceux déjà les plus visibles ou pré-visibles, dans ceux déjà tracés pour moi par d’autres qui m’ont en ces lieux précédés. Ce chemin là, tant il est à l’avance tracé et déterminé, tant il est en permanence scruté et monitoré par d’autres “au-dessus” de moi, ce chemin-là ressemble davantage à une promenade carcérale qu’à une navigation affranchie.

A ce web carcéral fait écho le discours politique d’une criminalisation des pratiques, alibi commode pour porter atteinte à sa neutralité au seul profit d’intérêts marchands et sans égards pour ce qui fut un jour une terra incognita pleine de promesses. Qui l’est encore aujourd’hui. Mais pour combien de temps ?

Au risque du territoire.

Une fois n’est pas coutume, terminons sur un exemple et sur des données factuelles :

Facebook générait 16.68% des pages vues aux Etats-Unis contre 24.27% en novembre 2011, soit une progression annuelle de 60% et de près de 8 points selon Hitwise. Facebook génère donc désormais une page vue sur quatre aux Etats-Unis.

Sur ce critère, Facebook est suivi de Youtube (6.39%). Aux États-unis, cela signifie donc qu’une fois sur quatre, je vais naviguer là où “mes amis” ou “les amis de mes amis” m’envoient naviguer. Comme dans la vraie vie me direz-vous. Précisément.

Le web fut et doit demeurer le lieu d’un décalage, d’une altérité. La territorialisation est le plus grand risque qu’il encourt. S’il ne doit plus avoir vocation qu’à singer numériquement la trame de nos sociabilités ou de nos déambulations dans le monde physique, il cessera alors d’être ce qu’il promettait de devenir : un lieu d’exploration inépuisable, à l’abri du pesant carcan de nos consubstantielles matérialités.


Article initialement publié sur Affordance
Illustrations CC: iamjon*, joelogon, Pilgrim on Wheels, erix!

]]>
http://owni.fr/2010/12/15/le-web-un-point-cest-tout/feed/ 2
De la roue à livres à la table Ipad http://owni.fr/2010/11/25/de-la-roue-a-livres-a-la-table-ipad/ http://owni.fr/2010/11/25/de-la-roue-a-livres-a-la-table-ipad/#comments Thu, 25 Nov 2010 15:40:49 +0000 Olivier Ertzscheid http://owni.fr/?p=36917 Titre original : Ameublement cognitif

D'abord la "Roue à livres"

On savait déjà que les fauteuils étaient, de manière périphrastique, des “commodités de la conversation“. Mais il est d’autres meubles, et nous le verrons, depuis longtemps, qui jouent ou ont joué un rôle essentiel dans “l’assise” de notre lien cognitif au monde.

Or donc. Je suis tombé ce matin, sur un billet de (l’eeeeexcellent) blog Graphism.fr, présentant une version de la table “salsa” du designer Bram Boo, version équipée de 4 Ipads intégrés. Et là, la vision de cette table Salsa équipée d’Ipads rapprochée de la lecture du titre du billet (“voici la mort de la bibliothèque ou son renouveau“) a immédiatement fait surgir une autre image : celle de la “roue à livres” d’Augusto Ramelli.

Les images en question

Tout ce qu’il faut savoir sur cet étrange objet est à lire dans ce billet du blog du bibliophile. Du point de vue cognitif, ou si l’on préfère, du point de vue de l’histoire des supports d’inscription de la connaissance, la roue à livres arrive à un moment où il devient essentiel de pouvoir mettre les textes en résonance, de les comparer, un moment où il est également nécessaire de pouvoir lire plusieurs ouvrages simultanément pour faire le tour (de roue) d’un sujet, d’un domaine, d’une question. Bref, la roue à livres incarne davantage qu’elle n’inaugure le modèle de la bibliothèque d’étude.


Ensuite la Table Salsa Ipad.

Une table dont Graphism.fr nous rappelle la particularité : “être un ensemble de chaises/bancs conçus pour quatre personnes avec quatre iPad intégrés. Chaque utilisateur se trouve ainsi dans une direction différente mais tous avec un iPad sous les yeux.

Pourquoi penser à la roue à livres en découvrant la table à Ipad ?

Parce que la table à Ipad, dont la finalité première est de pouvoir équiper – notamment – les bibliothèques, me semble emblématique d’un nouveau rapport cognitif au savoir, comme le fut la roue à livres en son temps.

La table à Ipad vise au rassemblement des “lecteurs” quand la roue à livres leur offrait un isolement nécessaire. Il s’agit de mettre 4 personnes en situation de rassemblement (= “sur”  et non pas “autour” d’une même table) mais en préservant, par défaut, leur “intimité” en les orientant différemment (c’est à dire en “organisant”, en “scénarisant” l’absence de face à face), et tout en incluant (et en induisant fortement) dans le dispositif (la table) la possibilité d’une transition facile vers une rupture de cette intimité au profit d’une collaboration duale prioritaire, mais pouvant également être élargie à l’ensemble des personnes “en co-présence” autour de ladite table.

Ingénierie de la proxémie

La table à Ipad est un outil qui relève d’une ingénierie de la proxémie. (la proxémie étant l’étude des distances mesurables entre des personnes – ou des animaux – qui interagissent pour en déduire des données comportementales).

Scénariser le lien, qu’il soit “hypertexte” ou “social”. Là où son lointain ancêtre (la roue à livres) visait précisément à se focaliser sur un seul type d’interaction (entre l’homme et les livres), en jouant l’isolement du lecteur – postulé comme nécessaire – et en intensifiant et dé-multipliant le seul rapport à l’objet-livre, la table à Ipad scénarise différemment la nature du lien social en bibliothèque.

Pour une raison “simple” : le dispositif technologique contenant – possiblement – tous les livres, point n’est besoin de scénariser le chemin d’accès à la lecture, toutes les lectures étant là encore possiblement contenues dans un si petit objet. L’accent peut donc être mis sur le meilleur moyen de rebâtir autour de l’objet lui-même, c’est à dire, en fait, autour de la connaissance qu’il contient et donc de la bibliothèque elle-même, un espace qui autorise l’isolement sans interdire, et en facilitant le rapprochement.

Les bibliothèques ont à mon avis beaucoup à glaner du côté de cette ingénierie de la proxémie. Certaines y réfléchissent d’ailleurs déjà depuis pas mal de temps (enfin j’espère).

Deux ingénieries connexes. Au fond, c’est peut-être cela le seul vrai learning center : tous les livres dans des Ipad, des Ipad “dans” des tables, des gens disposés autour, des interactions qui se mettent en place. Une ingénierie de la proxémie au service d’une autre ingénierie déjà bien avancée, celle de la proxémie d’en-dedans du dispositif technologique (l’ipad) : c’est à dire la manière dont s’effectue la navigation entre des contenus venant eux-mêmes de strates cognitives parfois radicalement diverses (journaux, livres, jeux, etc.). De cette ingénierie là également (qui correspond grosso modo à ce que l’on nomme habituellement la “navigation”) il faut s’emparer.

Moralité. Si elles veulent s’emparer des enjeux de la révolution cognitive de notre époque, les bibliothèques (ou les learning centers …) de demain ont aujourd’hui tout intérêt à embaucher massivement des anthropologues (proxémie – interactions dans l’espace), des ergonomes (navigation dans les contenus), et des designers qui permettront d’articuler l’ensemble.

>> Article initialement publié sur Affordance

>> source (photos non Creative Commons)

>> Illustration pour OWNI de Elliot Lepers

]]>
http://owni.fr/2010/11/25/de-la-roue-a-livres-a-la-table-ipad/feed/ 4
Facebook, la vie téléchargée http://owni.fr/2010/11/18/facebook-la-vie-telechargee/ http://owni.fr/2010/11/18/facebook-la-vie-telechargee/#comments Thu, 18 Nov 2010 15:03:00 +0000 Olivier Ertzscheid http://owni.fr/?p=36160 Ca y est c’est fait. Sur mon compte Facebook, dans l’onglet “Account” > “Account settings”, j’ai vu apparaître le petit lien magique que j’attendais tant : “Download your information”

J’allais enfin pouvoir télécharger toutes mes données personnelles. Après avoir indiqué que “oui, oui, je suis sûr de bien vouloir les télécharger“, et une heure plus tard, j’ai reçu dans ma boîte mail un message de Facebook avec un lien d’activation pour accéder au précieux fichier.

Mais il m’a d’abord fallu doublement montrer patte blanche : une première fois en redonnant mon mot de passe (ok, précaution élémentaire), et une deuxième fois en jouant au jeu des photos de mes amis.

Je traduis :

Pour vérifier que vous êtes bien le propriétaire de ce compte, merci de reconnaître les personnes tagguées sur ces photos suivantes.

Il faut reconnaître 5 amis et on l’on n’a droit qu’à 3 erreurs (“I’m not sure“), soit 8 questions en tout. Le problème c’est que les photos affichées ne sont pas des portraits de vos amis, mais des photos prises au hasard dans le photostream de tous vos contacts Facebook, c’est à dire toutes les photos déposées par tous vos amis.

Et là première angoisse : je suis ami avec plein de gens, mais surtout j’ai plein “d’amis d’amis” et encore davantage “d’amis étudiant(e)s”. Et autant vous dire que je ne passe pas mon temps à regarder toutes les photos postées sur Facebook par tous mes “amis”. Et donc ça ne loupe pas, on me demande de reconnaître quel est l’ami qui se cache derrière ces photos :

Voilà voilà voilà … Donc ben du coup je n’ai plus droit qu’à 2 erreurs en espérant que les autres photos seront plus … explicites. Quelques reconnaissances plus tard, c’est gagné :

Une fois le téléchargement effectué, je me retrouve avec çà :

Le dossier avec :

  • mes photos de profil  (album-Profile Pictures.html)
  • la liste alphabétique de tous mes amis (friends.html)
  • les événements auxquels j’ai été convié (events.html)
  • mes courriers reçus sur facebook (messages.html)
  • tout ce que j’ai posté sur mon “mur” (profile.html), soit – en ce qui me concerne – l’équivalent de 150 pages Word, et ce qui m’a permis de retrouver la date précise de mon arrivée sur Facebook: c’était le 11 Juillet 2007 à 13h40 et mon premier statut disait: “At home”. Largement de quoi imprimer un aussi épais que futile “egobook”.

Le dossier avec :

  • toutes mes photos (c’est à dire en ce qui me concerne, uniquement 2 pauvres photos de profil)

Soit un dossier complet d’1,3 Méga-octets.

Remarque : ce dossier et les fichiers qu’il contient est un “à plat”. Ainsi, dans le fichier “profile.html” on retrouve bien – et on peut activer – les liens hypertextes postés sur mon mur ou dans mes “statuts”, mais on ne retrouve naturellement pas le graphe relationnel/navigationnel qui constitue le vrai trésor de guerre de Facebook, notamment – depuis l’activation de la fonctionnalité – les personnes qui ont “aimé” (= le fameux bouton “like”) tel ou tel statut.

Et maintenant un peu de maths

Sachant qu’un individu (moi en l’occurrence) peut être considéré comme un utilisateur type du réseau social Facebook, et sachant qu’il y a au moins 500 millions d’utilisateurs sur Facebook, quel est le poids des données personnelles détenues par Facebook ?

Solution : 500 millions multiplié par 1,3 méga-octets = 650 millions de mégaoctets.

Ce qui nous donne : 650 Téra-octets de données personnelles disponibles sur Facebook [EDIT: selon le commentaire d'un employé de Facebook posté sur le blog d'Olivier Ertzscheid, ce chiffre serait encore plus élevé, notamment parce que l'entreprise de Mark Zuckerberg a collecté plus de 160 téraoctets de photos sur la seule année 2007. Par ailleurs, Twitter stockerait pas moins de 4 pétaoctets (4.096 téraoctets) par an.]

65 fois la bibliothèque du Congrès

Sachant que “10 téraoctets pourraient contenir toute la collection des ouvrages imprimés de la bibliothèque du Congrès” (source), on peut donc supposer que Facebook détient au moins l’équivalent de 65 bibliothèques du Congrès uniquement composées de données personnelles. Celle-ci comptant plus de 33 millions d’ouvrages, cela fait donc l’équivalent de (33 x 65) : 2.145 millions de livres de données profilaires.

Et encore, je dis bien “au moins” car dans les profils Facebook ce sont les photos qui prennent le plus de place, que je n’en ai que deux (photos) dans le mien et qu’en moyenne mes amis sont plus proches d’une bonne cinquantaine (de photos toujours), et je ne vous parle même pas de mes “amis-étudiants” (il n’est pas rare de voir plus de 300 photos dans certains profils). Mais bon on va pas chipoter, l’ordre de grandeur me semble déjà suffisamment parlant …

Mon mur, ma bataille

L’équivalent de 150 pages Word pour moi en 3 ans, et pour 499.999.999 autres, 2.145 millions de livres de données profilaires dont probablement plusieurs centaines de millions également et uniquement remplis de ces traces profilaires, conversationnelles, le reste étant occupé par la documentation iconographique rétrospective des 500 millions d’habitants de cette communauté. Vertigineux.

Facebook en grand ordonnateur du nouvel ordre documentaire mondial?

Facebook est, par le nombre, la première communauté humaine de la planète numérique. Si l’homme est un document comme les autres, et si l’ordre documentaire du 21ème siècle sera celui d’un pan-catalogue des individualités humaines, Facebook est en bonne place pour remporter la mise ou pour en devenir à tout le moins le grand ordonnateur, le grand sachem de ce qui est “su”.

De la thésaurisation des profils au trésor de guerre

Au-delà des chiffres et des questions de “vie privée”, il faut relire ce billet de Tim Berners Lee, une nouvelle fois visionnaire, dans lequel il évoque le Giant Global Graph.

  • Le net est un graphe d’ordinateurs connectés.
  • Le web est un graphe de contenus connectés, dont Google est, pour l’instant, l’outil qui permet le mieux d’en sonder les profondeurs, d’en donner l’image la plus “complète” possible.
  • Les réseaux sociaux sont un graphe d’individus connectés, dont Facebook est, pour l’instant, l’outil qui permet le mieux d’en sonder les profondeurs, d’en donner l’image la plus “complète possible”.

L’enjeu est désormais de savoir qui sera le premier à pouvoir réunir la puissance des 2 graphes. La guerre des graphes a désormais officiellement commencée. Et comme toutes les guerres, elle fut d’abord larvée, chacun essayant de circonscrire au mieux ses frontières naturelles (les contenus pour Google, les profils pour Facebook).

Elle fut ensuite une série de petites offensives permettant de jauger les forces et faiblesses de l’adversaire en envoyant une petite armée le combattre sur son terrain : ce que tenta de faire Google en lançant “son” réseau social (Orkut), ce que tenta de faire Facebook en nouant alliance avec Microsoft pour s’installer – mais en restant dans ses frontières – sur le marché du “search”.

“Projet Titan”

Et puis un jour, à l’occasion d’une escarmouche, on sort l’artillerie lourde et on engage “officiellement” le début des hostilités. C’est désormais chose faite entre Google et Facebook.

L’escarmouche ce fut ce “cheval de troie” qui permettait à un nouvel arrivant sur Facebook d’importer rapidement l’ensemble de ses contacts Gmail pour densifier rapidement son réseau d’amis. Jusqu’à ce que Google exige une contrepartie, c’est à dire que les utilisateurs de Gmail puissent récupérer et importer – par exemple – leurs contacts Facebook. Un blocage par ailleurs rapidement contourné par Facebook.

Et l’on apprend (sur Techcrunch) que Facebook lancerait (demain lundi ?) son webmail, nom de code “projet Titan” (sic) :

Le réseau social proposerait ainsi à ses utilisateurs, qui sont plus de 500 millions dans le monde, une adresse email personnelle @facebook.com, permettant d’envoyer des mails à tous les internautes, qu’ils aient une messagerie Hotmail, Yahoo ou Gmail. Aujourd’hui, les membres de Facebook ne peuvent envoyer de messages qu’aux autres membres du site.

(Source)

Le courriel et les webmails sont, pour ces deux acteurs, un cheval de Troie idéal et hautement stratégique permettant d’assiéger la place-forte de nos pratiques connectées :

  • D’abord parce que les mails  rassemblent, parce qu’ils “synthétisent” notre réseau relationnel (nos “contacts”),
  • Ensuite parce qu’ils sont le point d’entrée le plus aisé vers le cloud computing, le stockage “dans les nuages” ou plus exactement sur les serveurs de ces grandes compagnies de pans entiers de nos vies sociales (pièces jointes, documents de travail, photos, etc …)
  • Parce qu’ils contiennent également ce que nous avons à raconter de plus “intime”, de plus “personnel” et qu’ils permettent donc d’affiner encore l’affichage de publicités “contextuelles” en scannant le contenu desdits mails,
  • Enfin parce que les webmails peuvent, au sein d’un écosystème semi-fermé (comme Facebook) ou semi-ouvert (comme Google et sa galaxie de services), constituer un point pivot autour duquel hiérarchiser l’ensemble des autres données affiliées à notre profil, à notre “empreinte numérique”.

Techcrunch souligne ainsi que “Facebook aurait les moyens à la fois de hiérarchiser les courriels et de les intégrer à ses autres fonctions (partage de photos, calendrier etc.) d’une façon très convaincante.” (source)

Thesaurus : From society of query to society of contact

Google est depuis longtemps emblématique de ce que Geert Lovink appelle une “Société de la requête”. Facebook représente lui, les promesses d’une société des contacts étendus, ou distendus. Or requêtes comme contacts représentent la conquête et l’apprentissage d’un langage commun à l’humanité tout entière ; plus précisément un thésaurus, c’est à dire :

Un type de langage documentaire qui consiste en une liste de termes sur un domaine de connaissances, reliés entre eux par des relations synonymiques, hiérarchiques et associatives.

En l’occurrence, de l’approche commune de Google et Facebook on pourrait dire qu’elle vise à faire émerger et à circonscrire un type de langage documentaire qui consiste, en une liste de requêtes (déposées sur le moteur ou sur chacun de nos “murs”), portant sur l’ensemble des domaines de connaissance existants (des plus fondamentaux aux plus futiles).

Ces requêtes sont reliées entre elles par des relations lexicales (ingénierie linguistique) et associatives “amicales” ou “contactuelles” (ingénierie de la recommandation reposant sur des graphes relationnels) permettant de hiérarchiser l’ensemble des requêtes et des profils en fonction du contexte de la requête et/ou du profil du requêtant.

Moralité. L’étymologie du mot thésaurus désigne, en latin, le “trésor”. De ce trésor là nous n’avons pas encore fini de mesurer la valeur. De ce trésor là nous connaissons déjà ceux qui veulent en être les grands avaleurs.

Cet article a initialement été publié sur Affordance

__

Crédits photo: Flickr CC dbking, Eneas, Mosman Library, malias

]]>
http://owni.fr/2010/11/18/facebook-la-vie-telechargee/feed/ 15