OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Vers le Libre Accès au Savoir à l’Université http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/ http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/#comments Thu, 30 Dec 2010 14:42:47 +0000 aKa (Framasoft) http://owni.fr/?p=39758 Titre original : Le long chemin du Libre Accès au Savoir à l’Université

La question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever.

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition :

« chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ».

Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inaccessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT).

Mais étonnamment, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la technologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisamment convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

Illustrations CC by-nc : byronv2 et by-nc-sa : Kaptain Kobold, Stuart Bryant

Retrouvez tous les articles d’OWNIsciences.

]]>
http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/feed/ 2
Le long chemin du Libre Accès au Savoir à l’Université http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/ http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/#comments Wed, 29 Dec 2010 14:10:13 +0000 aKa (Framasoft) http://owni.fr/?p=33733 La question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever.

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition :

« chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ».

Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inaccessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT).

Mais étonnamment, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la technologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisamment convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

Illustrations CC by-nc : byronv2 et by-nc-sa : Kaptain Kobold, Stuart Bryant

]]>
http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/feed/ 6
Les chercheurs doivent-ils boycotter Elsevier? http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/ http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/#comments Tue, 09 Nov 2010 12:30:15 +0000 Roud http://owni.fr/?p=35056 Titre original : Faut-il boycotter Elsevier ?

On a déjà longuement discuté des problèmes liés aux revues scientifiques et des possibilités offertes par l’accès libre. Mais certaines pratiques  récentes du grand éditeur Elsevier posent vraiment la question aujourd’hui d’un boycott pur et simple.

Elsevier est un acteur quasi-incontournable de l’édition scientifique, publiant 250 000 articles par an dans plus de 2000 journaux (si j’en crois Wikipedia). Poids lourd de l’édition scientifique, sa responsabilité est grande, tant à l’égard de la Science – Elsevier édite par exemple les Compte Rendus de l’Académie des Sciences de notre beau pays- que des scientifiques qui, rappelons-le, travaillent  quasiment gratuitement pour les éditeurs scientifiques du fait du système de revue par les pairs.

Des pratiques douteuses

Cependant, force est de constater que l’attitude d’Elsevier pose des problèmes de façon récurrente. Pour ne citer que trois affaires parmi les plus récentes :

Une stratégie de packages inacceptable

On le voit, Elsevier est donc régulièrement pris les mains dans le pot à confitures. Mais c’est paradoxalement des pratiques tout ce qu’il y a de plus légales et d’éthiques qui posent problème aujourd’hui  à mon sens. Car des événements récents prouvent aujourd’hui qu’Elsevier considère les chercheurs, qui sont à la fois ses clients, ses serviteurs et ses vaches à lait, pour des imbéciles.

Elsevier se livre d’abord de plus en plus à des pratiques plus proches du vendeur de chaînes câblées que de l’éditeur scientifique. Un exemple parmi d’autres : Elsevier vend des “packages” d’abonnements de revues aux universités et se livre actuellement à un saucissonnage tout à fait inacceptable :  il sépare actuellement les revues récentes et trendy du package basique, pour  les inclure dans d’autres packages incluant d’autres revues plus que mineures.

Du coup, l’université voulant se mettre à la page devra acheter quasiment tous les packages pour avoir accès à la totalité des bonnes revues. Et, en période de vaches maigres, certaines universités refusent désormais purement et simplement; sans être dans le secret des Dieux, j’imagine que quelque chose de similaire s’est passé récemment dans le cas de Paris VI qui a résilié il y a quelques jours son contrat avec Elsevier.

Une position  cynique sur le financement de la recherche publique

L’autre événement qui a de quoi faire sortir le scientifique lambda de ses gonds, c’est une tribune dans le Telegraph.  Oh, rien d’inhabituel en ces temps de propagande obsédés par la dette publique, un discours classique de coupe dans les dépenses, soutenant le plan d’une terreur British appelée George Osborne. Sauf que le plan en question prévoit des coupes drastiques dans le secteur éducatif, et spécifiquement universitaire : - 40 % de dépenses dans ce domaine ! Et cette tribune d’entrepreneurs, soutenant ces coupes, est signée …  par Anthony Habgood, le Chairman de Reed Elsevier. Peut-on faire plus imbécile et plus cynique qu’un “entrepreneur” dont le business model repose sur l’expertise et le  travail bénévole de personnes dont l’activité est financée en grande partie sur des fonds publics et qui soutient en parallèle une coupe drastique de ces mêmes dépenses publiques ?

Elsevier, du fait de son poids énorme, se comporte en monopole, se permet de donner des leçons de rigueur à l’État britannique d’un côté tout en pressurisant le secteur universitaire de l’autre. Il se trouve que nous, chercheurs, avons aussi le pouvoir de donner une leçon d’économie à Elsevier. Tout quasi-monopole non naturel étant néfaste pour l’économie, nous rendrions probablement service à la société en général en refusant désormais de travailler avec Elsevier, en refusant de référer les papiers soumis à une revue du groupe Elsevier, en refusant d’y envoyer nos papiers, ce qui in fine, devrait forcer Elsevier à mettre la clé sous la porte (d’une façon ou d’une autre).

En ce qui me concerne, je suis assez choqué par tout cela et désormais, je ferai mon possible pour m’abstenir de référer des papiers pour Elsevier, et je n’y enverrai plus mes papiers. Je privilégierai en priorité les journaux en accès libre et les journaux de sociétés savantes (comme Science ou Physical Review).

>> Photo FlickR CC : Campaign Against Arms Trade, martineno

>> Article initialement publié sur Matières vivantes

Retrouvez tous les articles d’OWNIsciences

]]>
http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/feed/ 6
Elsevier, un éditeur scientifique à boycotter ? http://owni.fr/2010/11/02/elsevier-un-editeur-scientifique-a-boycotter/ http://owni.fr/2010/11/02/elsevier-un-editeur-scientifique-a-boycotter/#comments Tue, 02 Nov 2010 16:03:51 +0000 Roud http://owni.fr/?p=33207 Titre original : Faut-il boycotter Elsevier ?

On a déjà longuement discuté des problèmes liés aux revues scientifiques et des possibilités offertes par l’accès libre. Mais certaines pratiques  récentes du grand éditeur Elsevier posent vraiment la question aujourd’hui d’un boycott pur et simple.

Elsevier est un acteur quasi-incontournable de l’édition scientifique, publiant 250 000 articles par an dans plus de 2000 journaux (si j’en crois Wikipedia). Poids lourd de l’édition scientifique, sa responsabilité est grande, tant à l’égard de la Science – Elsevier édite par exemple les Compte Rendus de l’Académie des Sciences de notre beau pays- que des scientifiques qui, rappelons-le, travaillent  quasiment gratuitement pour les éditeurs scientifiques du fait du système de revue par les pairs.

Des pratiques douteuses

Cependant, force est de constater que l’ attitude d’Elsevier pose des problèmes de façon récurrente. Pour ne citer que trois affaires parmi les plus récentes :

Une stratégie de packages inacceptable

On le voit, Elsevier est donc régulièrement pris les mains dans le pot à confitures. Mais c’est paradoxalement des pratiques tout ce qu’il y a de plus légales et d’éthiques qui posent problème aujourd’hui  à mon sens. Car des événements récents prouvent aujourd’hui qu’Elsevier considère les chercheurs, qui sont à la fois ses clients, ses serviteurs et ses vaches à lait, pour des imbéciles.

Elsevier se livre d’abord de plus en plus à des pratiques plus proches du vendeur de chaînes câblées que de l’éditeur scientifique. Un exemple parmi d’autres : Elsevier vend des “packages” d’abonnements de revues aux universités et se livre actuellement à un saucissonnage tout à fait inacceptable :  il sépare actuellement les revues récentes et trendy du package basique, pour  les inclure dans d’autres packages incluant d’autres revues plus que mineures.

Du coup, l’université voulant se mettre à la page devra acheter quasiment tous les packages pour avoir accès à la totalité des bonnes revues. Et, en période de vaches maigres, certaines universités refusent désormais purement et simplement; sans être dans le secret des Dieux, j’imagine que quelque chose de similaire s’est passé récemment dans le cas de Paris VI qui a résilié il y a quelques jours son contrat avec Elsevier.

Une position  cynique sur le financement de la recherche publique

L’autre événement qui a de quoi faire sortir le scientifique lambda de ses gonds, c’est une tribune dans le Telegraph.  Oh, rien d’inhabituel en ces temps de propagande obsédés par la dette publique, un discours classique de coupe dans les dépenses, soutenant le plan d’une terreur British appelée George Osborne. Sauf que le plan en question prévoit des coupes drastiques dans le secteur éducatif, et spécifiquement universitaire : - 40 % de dépenses dans ce domaine ! Et cette tribune d’entrepreneurs, soutenant ces coupes, est signée …  par Anthony Habgood, le Chairman de Reed Elsevier. Peut-on faire plus imbécile et plus cynique qu’un “entrepreneur” dont le business model repose sur l’expertise et le  travail bénévole de personnes dont l’activité est financée en grande partie sur des fonds publics et qui soutient en parallèle une coupe drastique de ces mêmes dépenses publiques ?

Elsevier, du fait de son poids énorme, se comporte en monopole, se permet de donner des leçons de rigueur à l’État britannique d’un côté tout en pressurisant le secteur universitaire de l’autre. Il se trouve que nous, chercheurs, avons aussi le pouvoir de donner une leçon d’économie à Elsevier. Tout quasi-monopole non naturel étant néfaste pour l’économie, nous rendrions probablement service à la société en général en refusant désormais de travailler avec Elsevier, en refusant de référer les papiers soumis à une revue du groupe Elsevier, en refusant d’y envoyer nos papiers, ce qui in fine, devrait forcer Elsevier à mettre la clé sous la porte (d’une façon ou d’une autre).

En ce qui me concerne, je suis assez choqué par tout cela et désormais, je ferai mon possible pour m’abstenir de référer des papiers pour Elsevier, et je n’y enverrai plus mes papiers. Je privilégierai en priorité les journaux en accès libre et les journaux de sociétés savantes (comme Science ou Physical Review).

>> Photo FlickR CC : Campaign Against Arms Trade, martineno

>> Article initialement publié sur Matières vivantes

]]>
http://owni.fr/2010/11/02/elsevier-un-editeur-scientifique-a-boycotter/feed/ 12
Droit d’auteur sans auteur n’est que ruine de l’art http://owni.fr/2010/10/15/droit-dauteur-sans-auteur-nest-que-ruine-de-lart/ http://owni.fr/2010/10/15/droit-dauteur-sans-auteur-nest-que-ruine-de-lart/#comments Fri, 15 Oct 2010 07:30:55 +0000 Stanislas Jourdan http://owni.fr/?p=27035 Stanislas Jourdan, auteur du blog Tete de Quenelle rebondit à chaud sur une question posée par Kyle Bylin sur Hypebot What rights do you think that musicians should have? How can we create digital culture that respects them? ou en français : A votre avis, quels droits les musiciens devraient-ils avoir ? Comment créer une culture numérique qui les respecte ?

Je ne répondrai pas à l’ensemble de cette vague question (je l’ai déjà fait en partie : Le droit d’auteur a-t-il mal tourné ? ; Droit d’auteur à outrance sur internet et compte bien prolonger la réflexion plus tard). J’aurais plutôt envie dans ce post, de prendre le contrepied de cette question en en posant une autre : que font les auteurs de leurs droits d’auteur ?

De la gestion des droits d’auteurs

Dans la grande majorité des cas, les artistes se privent volontairement de leurs droits. Je m’explique : le modèle de production musicale du XXème siècle est fondamentalement basé sur le principe suivant : un artiste a quelques chansons en stock, va voir une maison de disque, lui fait écouter sa maquette. Le directeur artistique du label , s’il apprécie l’oeuvre, décide de la produire et la grande négociation commence. Et là que se passe-t-il ? L’artiste confie la gestion de ses droits d’auteur (ou plus précisément de ses droits patrimoniaux) au label qui jouit du monopole de l’exploitation économique de l’œuvre, en échange de quoi le label finance la production de l’album, sa commercialisation, la communication. Cela est même pire aux Etats-Unis dans le cadre du copyright puisque l’artiste cède l’ensemble de ses droits ou presque au label.

De même, lorsqu’un auteur souhaite faire fructifier ses œuvres à la radio, il n’a guère que le choix de devenir sociétaire de la SACEM (ou équivalent). Concrètement, cela signifie que l’artiste donne ses droits d’auteurs en tant qu’apport au capital en nature et devient ainsi actionnaire de la SACEM. De ce fait, il refuse donc la jouissance de ses droits d’auteurs, ce qui lui empêche par exemple de diffuser gratuitement ses chansons sur internet (enfin, c’est compliqué quoi) ou de les mettre sous licence creative commons.

Dès lors qu’un tel accord est signé, peut-on continuer à parler de « droit d’auteur » ? Ne serait-il pas plus approprié de parler de « droit des éditeurs » ou bien de « droit des maisons de disques » ou encore « droit de sociétés de gestion collectives » ? Peut-il y avoir de droit d’auteur … sans auteur ?


De la nécessité pour les artistes de reconquérir le droit d’auteur

Il n’y a pas de secret pour un artiste sur internet : il faut créer un lien avec ses fans, créer une communauté, y ajouter une bonne dose d’authenticité et ainsi développer une relation affective avec ses fans qui seront ainsi plus enclins à mettre la main à la poche quand l’occasion se présentera. (c’est en tout cas ce que je ferais à leur place)

Or justement, cette stratégie ne peut fonctionner que si l’artiste a le pouvoir de décision sur la manière dont est commercialisée (ou non) sa création (mais aussi les produits dérivés sous licence etc.). En effet, les fans supportent très mal l’incohérence entre la dimension musicale d’un artiste et l’aspect commercial. Les fans ne comprendront par exemple jamais pourquoi vous avez un super site, peut être même un blog que vous animez vous-même, mais que l’on ne peut pas vous soutenir directement sans donner 70% de notre argent à un tiers. (Un autre exemple d’incohérence manifeste ici).

Voilà pourquoi les artistes devraient selon moi reprendre contrôle sur l’ensemble des activités liées à leur création : du live à leurs activités sur les réseaux sociaux … à la commercialisation de leur musique. Si un artiste préfère vendre sa musique il devrait aussi pouvoir le faire sans qu’une firme vienne y coller des DRM contre sa volonté. Si un musicien veut diffuser sa musique sur youtube, lastfm, ou la donner gratuitement, personne ne devrait pouvoir l’empêcher. Et surtout pas ceux qui prétendent hypocritement vouloir protéger le « droit d’auteur ».

Je ne dis pas que les artistes doivent tout faire tout seul (ce que n’a jamais voulu dire le “do it yourself“!). C’est bien sûr impossible étant donné la palette de compétences requises. Néanmoins il me parait important si ce n’est vital pour un artiste de décider par lui-même de ce qu’il veut faire, puis de se faire aider. Et pour tout cela, la moindre des choses est de ne pas se retirer le droit (d’auteur) de le faire … ;)

Conclusion

L’ironie des controverses autour du droit d’auteur est assez cocasse. D’un coté, l’industrie du disque prétend vouloir défendre le droit d’auteur contre les méchants pirates, alors qu’il ne s’agit bien évidemment que de défendre leurs propres droits à profiter d’une œuvre économiquement. (Parfois au détriment des auteurs justement). Mais de leur coté, les artistes ne sont pas toujours très cohérents non plus. Tout en défendant le droit d’auteur tel un acquis social, la plupart continuent d’accepter de le jeter en pâture aux vautours de l’industrie musicale. Comme s’ils sous-évaluaient en fait l’importance de ce droit. Paradoxal, non ?

A lire ailleurs :

Supprimez le copyright, rendez-nous le droit d’auteur !

Article initialement publié sur le blog Tête de Quenelle.

Crédits photos : FlickR CC ntr23 ; the Mad LOLscientist

]]>
http://owni.fr/2010/10/15/droit-dauteur-sans-auteur-nest-que-ruine-de-lart/feed/ 5
Sur Internet, on n’envisage pas l’anonymat http://owni.fr/2010/05/27/sur-internet-on-n%e2%80%99envisage-pas-l%e2%80%99anonymat/ http://owni.fr/2010/05/27/sur-internet-on-n%e2%80%99envisage-pas-l%e2%80%99anonymat/#comments Thu, 27 May 2010 15:34:18 +0000 Reversus et Vogelsong http://owni.fr/?p=16735

Une autre saillie contre le net. Cette fois-ci contre les blogueurs. L’attaque est portée par J.L. Masson, sénateur mosellan de son état qui souhaite ni plus ni moins, réviser la loi du 21 juin 2004 sur la confiance dans l’économie numérique.

La croisade d’un « allumé de première »

Son objectif : mettre un terme à l’anonymat des blogueurs en obligeant ces derniers à se plier aux mêmes contraintes que les éditeurs de sites professionnels. Nom, prénom, numéro de téléphone, toute cette batterie d’infos devra désormais être visible si cette proposition de loi passe

La charge est rude et on peut légitimement s’interroger sur les raisons d’une telle croisade. J.L Masson souhaiterait-il se faire un nom ? Il est décrit comme un « allumé de première », un franc-tireur manifestement capable de s’engouffrer dans ce genre de combat en solo. Soit, après tout pourquoi pas, il est vrai que depuis 2004 J.L Masson n’appartient plus à l’UMP, et à plusieurs reprises il n’a pas hésité à faire entendre une voix discordante au sein de la majorité. Néanmoins, étant donné le ramdam qu’a provoqué cette proposition de loi, on ne peut que s’étonner du mutisme qui règne au sein des rangs de l’UMP.

Surtout que, volontairement ou non, cette polémique s’inscrit dans un processus plus large de dénigrement systématique du web. Bien que l’on voit mal comment un tel dispositif pourrait être réalisable (héberger son blog à Palo Alto est désormais à la portée de n’importe quel internaute quelque peu débrouillard), des élus de la République continuent de fantasmer sur le contrôle total de la société. Ici le vieil adage : « on a peur de ce que l’on ne connaît pas » prend tout son sens.

Il s’agit ici d’une tentative des gens de pouvoir de conférer une réalité à une menace potentielle. Une menace qui déclenche une lubie (encore une) d’un sénateur incompétent sur le sujet. Récemment, E. Kaspersky s’était prononcé pour la création d’un passeport digital pour lutter contre l’anonymat sur le web, J.L Masson n’est malheureusement pas au même stade de réflexion.

On peut donc s’interroger sur les raisons de cette attaque contre une activité non constituée, versatile, et finalement si peu influente ? Une erreur, sans doute.

Presse/Blog analogie inepte

Au comble de l’ignorance, le député Masson fait l’analogie avec ce qui lui tombe sous la main, c’est-à-dire la presse. Comme si ce modèle de droits et de devoirs pouvait s’appliquer aux blogs. Lorsqu’un journaliste gagne de l’argent avec sa signature (son nom), le blogueur peut, lui, en perdre. Ce que monnaye le journaliste c’est sa plume, son réseau, contre un salaire dans une entreprise qui lui permettra de publier ses articles (modèle théorique parfait). Il en va tout autrement pour le citoyen internaute.

Décrire la réalité crue et ennuyeuse d’un open-space peut lui coûter son poste. Pointer les turpitudes de ses élus pour un électeur de base peut avoir certaines répercussions domestiques. Dans ce cadre, l’anonymat (supposé) du blogueur est la dernière défense face à l’arbitraire des groupes constitués. Si le journaliste, normalement, dispose d’une structure économique et légale pour faire paraître l’information en s’affranchissant des pressions (encore le modèle théorique), le blogueur n’en bénéficie pas. Mais le sénateur J.L. Masson semble l’ignorer.

Parfois, l'anonymat a du bon

Sélection naturelle

Le pleutre se camoufle pour commettre ses méfaits. C’est un peu en ces termes que tenants du « bon sens » s’attaque au problème. C’est encore très mal connaitre l’écosystème du net. Si le cas C.Bruni/B. Biolay fut une dérive de la rumeur, il reste circonscrit, précis. Mais au contraire J.L Masson érige ces micro-exceptions en cas d’école. Au micro de J. Martin de Rue89, il affirme que : «  régulièrement, on a affaire à des gens qui se livrent à des propos diffamatoires, injurieux » sur le web…

Mais c’est très mal connaître la blogosphère qui fonctionne cruellement par sélection naturelle. Diffuser une fausse information une fois peut passer. Ensuite c’est l’éjection. Avec ou sans anonymat. D’autre part, c’est oublier  que la fausse rumeur est relayée par des médias de masse. Qui sans eux serait circonscrite au microcosme. Se pose alors la question de savoir, qu’est-ce qui coince ? La peur de la rumeur diffamatoire, pour la mise en exergue d’informations déplaisante, mais vraie comme le cas Hortefeux ?

L’anonymat, une furtivité

L’anonymat sur internet est une entreprise éprouvante. Il faut du matériel, des connaissances pointues et être méticuleux. Un travail à plein temps. Ce qui est en jeu relève plutôt de la furtivité. La faculté de rester discret et de dire des choses avec l’impression (seulement) qu’une certaine difficulté à être identifié désinhibe. L’expérience montre que les dispositions contre la diffamation existent déjà.

Mais il ne faut pas se méprendre, dans le cas (extrême) de l’atteinte à la sécurité nationale, le débat sur l’anonymat relèvera du folklore. Il est hautement probable qu’il faudra moins d’une demi-heure pour localiser précisément le rédacteur d’un blog « dangereux ».

Et c’est encore mal connaitre cet univers paradoxal fait de discrétion et d’égo démesurés. Garder l’anonymat, tout en voulant être influent. Les blogueurs participent à des évènements politiques, mondains, investissent certaines fois l’Assemblée nationale ou le Sénat. Ils s’érigent en influents, se gargarisent des classements. Aiment être connus. De cet univers nombriliste, certains en ont fait un business. Dès lors, ces marchands du temple n’ont pas mis longtemps à s’élever pour protéger l’anonymat des blogueurs.  À défaut de pouvoir se fédérer, les blogueurs s’en remettent à des boucliers mercantiles.

Finalement J.L Masson répond involontairement à une aspiration inassouvie, la quête d’influence. Un fantasme qui perdure depuis des années auquel cette loi répond de la plus belle manière. La blogosphère se réjouit, si le pouvoir se met à craindre les blogueurs, c’est qu’ils ont donc une influence, une légitimité. Le web ayant pour vocation de devenir tôt ou tard le lieu central du débat public

> Article initialement publié sur Piratage(s) et Reversus

> Photos CC Flickr par JacobDavis

Cet article a fait l’objet d’une mise en page spéciale afin de célébrer la première intégration d’un “arbre de perles” sur la soucoupe >

]]>
http://owni.fr/2010/05/27/sur-internet-on-n%e2%80%99envisage-pas-l%e2%80%99anonymat/feed/ 1
Auteurs-éditeurs: la guerre numérique est-elle déclarée ? http://owni.fr/2010/04/16/auteurs-editeurs-la-guerre-numerique-est-elle-declaree/ http://owni.fr/2010/04/16/auteurs-editeurs-la-guerre-numerique-est-elle-declaree/#comments Fri, 16 Apr 2010 10:35:35 +0000 iPh http://owni.fr/?p=12448

Photo CC Flickr Ricecracker

Lancé initialement par les auteurs de BD, un mouvement plus large des auteurs semble en train de décoller, avec l’Appel du numérique des écrivains et illustrateurs de livres. Comme on pouvait s’en douter, les questions d’argent sont au cœur de la prise de conscience des auteurs. Publication des extraits de la pétition et commentaires par iPh, nouveau venu sur la soucoupe.

La « révolution numérique » du livre se passe ici et maintenant, à marche forcée, et sans les auteurs. (…)
• Comment et sur quoi seront rémunérés les auteurs ? De quoi vont-ils vivre ?

• Quels seront les circuits et systèmes d’exploitation des livres numériques ? Qui seront les vrais commerçants de ce marché numérique qui reste à construire ?

• Comment l’éditeur va-t-il adapter au numérique les usages établis de l’exploitation permanente et suivie qui sont au cœur de son métier : vente active, promotion, disponibilité permanente du « produit » ?

• Pourquoi les auteurs devraient-ils céder leurs droits numériques leur vie durant et même 70 ans après leur mort ?
Au lieu d’ouvrir le débat, le Syndicat National de l’Édition et chaque éditeur essaient d’imposer sa règle et ses conditions.
Mais les auteurs ont maintenant bien compris que si le livre numérique est vendu deux ou trois fois moins cher que son équivalent papier, si la TVA appliquée au livre numérique (19,6 %) est presque quatre fois plus élevée que celle applicable au livre papier (5,5 %), même si leurs éditeurs leur proposent un pourcentage identique pour le livre numérique que pour le livre papier, mécaniquement cela entraîne une baisse très importante de leur rémunération.
Nous pouvons légitimement nous demander si les éditeurs ne nous considèrent pas, ainsi que nos droits d’auteur, comme de simples variables d’ajustement dans l’économie du livre numérique. (…)
Nous voulons que la cession des droits numériques fasse l’objet d’un contrat distinct du contrat d’édition principal.
Nous voulons que la cession des droits numériques soit limitée précisément dans le temps afin d’être réellement adaptable et renégociable, au fur et à mesure, de l’évolution des modes de diffusion numérique.
Nous voulons que toute adaptation numérique des livres soit soumise à la validation des auteurs et que ceux-ci soient cosignataires de toute cession à un tiers des droits numériques. (…)
Gardons nos droits numériques pour faire entendre notre voix.
Premier point : la « révolution numérique » dans le livre se passe surtout… à reculons. Aucun des éléments du « système livre » de la chaîne papier (auteur, éditeur, diffuseur, distributeur, détaillant c’est-à-dire libraire) ne semble pressé d’y plonger. C’est le succès inattendu des liseuses depuis deux ans qui a créé une pression sur un monde n’ayant montré, depuis quinze ans, qu’une relative indifférence (voire une défiance) vis-à-vis d’Internet. De mon point de vue, les auteurs ne sont pas les mieux placés pour donner des leçons aux éditeurs : les deux nagent dans l’immobilisme et, souvent, la méconnaissance de la culture Internet. Combien d’auteurs tiennent un blog ou un site d’échange avec leurs lecteurs ? Combien ont un site dédié à chacun de leur livre ? Combien préfèrent un chat avec lecteurs à une émission de promo sur une télé ou une radio ? Combien se sont enthousiasmés des possibilités nouvelles d’écriture et de partage à l’âge numérique, ou ont simplement réfléchi à leur conception personnelle de la propriété intellectuelle ?
Deuxième point : Internet n’est pas une grande librairie avec un vigile devant chaque livre. Conséquence du point précédent : les auteurs envisageant Internet comme un simple marché, une sorte de grande libraire virtuelle qui va uniquement permettre de nouveaux débouchés à leurs œuvres, se préparent des lendemains qui déchantent. D’abord, contrairement à ce qui se passe dans beaucoup de librairies physiques, ces auteurs vont se retrouver en compétition avec bien plus d’autres œuvres dans la même catégorie que la leur, dont certaines gratuites. Ensuite, sur Internet, les lecteurs ont un comportement actif : ils ne subissent pas le matraquage du système de promotion marketing et médiatique, mais fabriquent la réputation des livres, aussi bien dans les commentaires ouverts des librairies en ligne que sur les réseaux sociaux, le microblogging, les blogs de critique, les forums, etc. Le livre numérique sera un « livre social ». Enfin, la numérisation du livre change ses conditions de production : il y aura de plus en plus d’auto-édition, de micro-édition, de wiki-édition (voir ici) et la première exigence d’un auteur devrait être de réfléchir aussi à ces modes d’écriture et de diffusion, au lieu de délivrer un message uniquement corporatiste axé sur ses revenus à court terme.
• Troisième point : le droit d’auteur est inadapté à l’ère numérique (surtout sa cession à l’éditeur). On l’observe dans la pétition, l’idée de céder ses droits à l’éditeur toute sa vie et soixante-dix ans après sa mort devient absurde dans un système à évolution rapide. Personne ne sait ce qu’il en sera de la diffusion numérique du livre dans dix ans ou dans cinquante ans. Il est impossible de demander à l’auteur numérique de signer un chèque en blanc sur l’avenir. L’éditeur devra plier et accepter des contrats révisables (par exemple tous les cinq ans). Mais les auteurs doivent de leur côté comprendre que l’inadaptation du droit d’auteur est bien plus profonde. C’est toute la propriété intellectuelle littéraire et artistique qui devient problématique à l’âge numérique, car elle a été pensée pour le papier, et selon des conditions d’exclusivité longue (patrimonialité sur près d’un siècle, voire plus) devenues à la fois incompréhensibles pour les lecteurs, intenables dans les technologies numériques, nuisibles pour le bien commun que constitue l’accès à la culture et à la connaissance de son temps. Sur les problèmes du « piratage », les auteurs soucieux de leur image devraient réfléchir à deux fois aux enjeux pratiques et symboliques de cette question sur le Net, avant de jouer les idiots utiles des Hadopi et autres mesurettes du flicage politico-industriel.
• Quatrième point : la baisse de revenu est inévitable dans le système actuel du livre, elle ne peut être conjurée que par un modèle entièrement nouveau. Le problème va au-delà de la TVA ou du prix unique. Sur l’Internet, les contenus sont ubiquitaires, innombrables, souvent gratuits ou peu coûteux. Les normes de consommation culturelle évoluent en conséquence : le comportement de l’acheteur numérique n’est pas celui de l’acheteur physique. Le lecteur n’est pas prêt à payer cher pour un livre numérique, et la tendance ira très probablement à la baisse à mesure que la compétition entre livres coûteux / peu coûteux / gratuits s’accentuera. Les industries de contenus (musique, presse, cinéma) ne préservent leurs revenus qu’en inventant de nouveaux modèles économiques, non centrés exclusivement sur la vente d’un bien – qui risque fort de devenir, à court terme, l’accès provisoire à un contenu (location de livre dans le cloud et non accumulation de fichiers, par exemple pour tous les livres de « divertissement » formant des grosses ventes en poche).
• Cinquième point : « le livre » en toute généralité ne signifie rien, chaque secteur du livre a des revenus, des contraintes et des perspectives différentes à l’ère numérique. La numérisation du livre ne va nullement affecter de la même manière les romans, les guides pratiques, les BD et livres de jeunesse, les livres d’art, les encyclopédies, les travaux universitaires et scientifiques, les essais, les manuels scolaires. Aujourd’hui fondues dans la même chaîne du livre en raison du format final unique (un objet papier), ces écritures sont en réalité très différentes. Par exemple, elles ne procurent pas les mêmes revenus (la meilleure vente essai est très en dessous de la meilleure vente roman ou BD), leurs contenus sont plus ou moins évolutifs, leur transition multimédia a plus ou moins de sens, leur circulation en copie privée (dite piratage) est plus ou moins simple, etc. Ni les auteurs ni les éditeurs n’ont les mêmes préoccupations selon le secteur concerné, qu’il s’agisse des questions économiques relatives aux revenus ou des questions pratiques relative à l’écriture, à sa mise en page, sa mise en ligne et sa mise à jour.
• Sixième point : les éditeurs sont sur la sellette face à de nouveaux concurrents et doivent clarifier leur position. A l’ère numérique, les coûts de production et de diffusion sont considérablement allégés, et les éditeurs doivent affronter de nouveaux concurrents. Aussi bien les fabricants de liseuse (Apple, Sony) que les distributeurs et agrégateurs (Amazon, Google) vont proposer de meilleures conditions aux auteurs (Amazon teste des formules à 70% de revenus sur les ventes, sans céder ses droits). Ils donnent à l’auteur la possibilité de toucher des publics plus nombreux : le tirage moyen d’un livre papier est de 9340 exemplaires (ministère de la Culture 2010), et un grand nombre d’auteurs (romans, essais) doivent se contenter de bien moins, quelques centaines, au mieux quelques milliers d’exemplaires papier perdus dans le réseau physique des libraires. Les éditeurs doivent donc repenser leurs offres aux anciens auteurs du monde papier, mais surtout aux futurs auteurs du monde numérique. La priorité du moment me semble d’obliger ces éditeurs à clarifier leurs positions, et cela autrement que par le rapport de force individuel auquel ils étaient habitués en raison de l’argument-massue : la production-diffusion-promotion du livre papier à l’âge industriel était inaccessible à l’auteur individuel, ce qui sera de moins en moins le cas.
• Conclusion : En attendant que les évolutions concrètes éclaircissent les enjeux secteur par secteur, la protection minimale de tous les auteurs consiste en effet à revendiquer un contrat numérique à part entière (non un simple avenant au contrat papier), avec cession courte des droits à l’éditeur (maximum cinq ans) et négociation sur la part des royalties dans le prix final du livre numérique. Pour cette raison, je soutiens la pétition avec toutes les réserves indiquées ci-dessus.

Billet initialement publié sur Mon iPhone m’a tuer

]]>
http://owni.fr/2010/04/16/auteurs-editeurs-la-guerre-numerique-est-elle-declaree/feed/ 5
Le miroir aux alouettes de l’auto-édition (numérique ?) http://owni.fr/2010/02/24/le-miroir-aux-alouettes-de-l%e2%80%99auto-edition-numerique/ http://owni.fr/2010/02/24/le-miroir-aux-alouettes-de-l%e2%80%99auto-edition-numerique/#comments Wed, 24 Feb 2010 15:26:32 +0000 Jean-Francois Gayrard http://owni.fr/?p=8969 ecrivain

Nous accueillons sur la soucoupe Jean-François Gayrard, écrivain et blogueur français installé à Montréal au Québec. Son blog Numerikbook est consacré à l’actualité de l’édition numérique.

L’auto-édition est à la littérature ce que Kodak a été à la photographie: à trop vouloir démocratiser un art, à trop vouloir le populariser, à trop vouloir le rendre accessible au plus grand nombre, on finit par le désacraliser, on finit par lui enlever toute son essence, toute sa raison d’être.

Depuis toujours l’auto-édition est un concept qui me hérisse le poil sur les bras. Et ça empire avec l’avènement de la numérisation du livre.  Je suis un fervent défenseur de la numérisation du livre. Pas un militant, pas un évangéliste. Non, parce que ce qui me motive avant tout, c’est d’encourager la lecture, quelque soit le support de lecture, papier ou électronique et surtout c’est d’encourager les générations futures à lire, tout en étant bien conscient que ces générations là n’auront pas du tout le même rapport avec le papier que nous connaissons. Pour autant, cela ne veut pas dire qu’elles ne liront pas, bien au contraire.

Revenons à l’auto-édition. Les sites Internet pour publier un livre soi-même, généralement moyennant un prix substantiel, pullulent ces derniers temps. C’est un des avantages de la numérisation; on peut facilement télécharger son manuscrit et le mettre en vente sur une plate-forme. Et là, ça y est, je suis auto-proclamé auteur ! Génial. Un mois, deux mois, trois mois passent et je me rends compte que je n’ai vendu qu’une petite dizaine d’exemplaires, avec un peu de chance. Bienvenu, dans le monde merveilleux de l’auto-édition; un beau miroir aux alouettes, ni plus ni moins.

Citez-moi un auteur célèbre contemporain qui a connu un vrai succès d’édition grâce à l’auto-édition ? Citez-en moi juste un seul ?

Comme me l’expliquait un ami éditeur tout récemment, “ce n’est pas parce que je fais du jogging tous les matins que je suis assuré de gagner le marathon“. Ce n’est pas parce que j’aime le vin qu’il faut absolument que j’achète un vignoble demain, ce n’est parce que je suis un passionné de cinéma que demain, je serai réalisateur, ce n’est pas parce que je suis un amateur de bonne bouffe que demain j’ouvrirai un restaurant gastronomique.

Ce n’est pas parce que j’écris que je serai forcément demain un auteur ou un écrivain. Bien des auteurs, qui se sont auto-proclamés eux-mêmes auteurs, ne comprennent pas pourquoi les maisons d’édition refusent leur manuscrit. Frustrés et surtout convaincus que leur manuscrit est le meilleur au monde – et c’est peut-être le cas – ils se tournent vers l’auto-édition ou de la pseudo auto-édition.  Mais ce n’est pas parce qu’un manuscrit est auto-édité qu’il est forcément diffusé puis lu. Parce que finalement qui décide, en bout de ligne, qu’on est auteur ou qu’on ne l’est pas: c’est le lecteur, celui qui achète ou pas votre livre. Et qui est le plus structuré, le plus organisé, qui possède le savoir-faire pour donner toutes les chances à un manuscrit qu’il soit numérique ou papier de trouver son lectorat? L’éditeur et sa maison d’édition, quelque soit la taille de celle-ci.

L’auto-édition est un miroir aux alouettes, le polaroid de la littérature, le Prozac de l’auteur déprimé de ne pas être publié. Tout le travail éditorial que fait une maison d’édition est précieux et indispensable, sans oublier tout le marketing de mise en marché et la promotion qu’elle va déployer pour donner une chance à un auteur d’être connu.

Pour conclure, je reprendrais les propos de Eric Simard, responsable de la promotion aux Editions Septentrion, parus sur son  blog: “de nos jours, beaucoup de gens écrivent et rêvent d’être publiés. Ce n’est pas une mauvaise chose en soi (il y a pire motivation dans la vie), mais très peu y arriveront. Je ne crois pas ce que ce soit dramatique. Combien ont rêvé d’être astronautes et combien y sont parvenus?

Article initialement publié sur Numerikbook

Photo Carl M. sur Flickr

]]>
http://owni.fr/2010/02/24/le-miroir-aux-alouettes-de-l%e2%80%99auto-edition-numerique/feed/ 6
Hébergeur + publicité = éditeur ? http://owni.fr/2010/02/18/hebergeur-publicite-editeur/ http://owni.fr/2010/02/18/hebergeur-publicite-editeur/#comments Thu, 18 Feb 2010 14:03:21 +0000 Michèle Battisti http://owni.fr/?p=8470 Article initialement paru sous le titre “Hébergeur + publicité = éditeur ? Un arrêt de la Cour de cassation lourd de conséquences”

La Cour de cassation vient de trancher sur des faits datant de 2002. Si l’environnement législatif a changé depuis, une crainte subsiste : c’est de voir la responsabilité d’un hébergeur engagée à l’image de celle d’un éditeur (1) dès lors qu’une publicité payante figure sur la page comportant une contrefaçon.

A l’époque l’hébergeur Tiscali ne disposait pas des données permettant d’identifier la personne qui avait mis en ligne un contenu illicite. La Cour d’appel l’avait condamné pour contrefaçon, après l’avoir requalifié en éditeur, considérant que « les services fournis excédaient les simples fonctions techniques de stockage».

La Cour de cassation a confirmé cette décision le 14 janvier 2010. Elle n’a pas tenu compte des remarques d’un rapport parlementaire qui soulignait qu’un fournisseur d’hébergement était « nécessairement conduit à structurer l’information qu’il stocke sur son ou ses serveurs », « qu’aucun texte n’opère de distinction entre les prestataires de services sur le critère économique » et qu’il est « contraire à la loi de condamner le modèle de la gratuité rémunérée par la publicité ».

Les commentateurs n’ont pas hésité à souligner que le rapporteur de la décision de la Cour de cassation va occuper très prochainement le poste de présidente de la HADOPI.

Tel était la brève que j’avais faite dès la publication de l’arrêt, à la mi-janvier 2010. Le billet Rubin Sfadj m’incite à reprendre certaines de ses remarques. Il attire non seulement notre attention sur le fait que depuis cet arrêt de « la plus haute juridiction de l’ordre judiciaire français », la responsabilité des prestataires techniques de l’Internet monte d’un cran et que ceci n’est pas prévu par la loi, mais que ceux-ci se trouvent désormais face à dilemme irréaliste puisqu’il leur faudrait soit contrôler a priori tous les contenus (ce qui est techniquement impossible), soit renoncer à se faire financer par la publicité (ce qui est économiquement impossible, et les ferait fuir vers de meilleurs cieux).

Il rappelle aussi que cette décision menace la liberté d’expression puisque que dès lors qu’un de ces services est financé par la publicité, il serait incité à retirer des contenus à chaque notification, sans vérifier le bien-fondé des allégations (2). Cette disposition, note-t-il fort justement,  avait pourtant été censurée par le Conseil constitutionnel en 2000 (3).

Alors, certes, l’environnement a beaucoup changé et avec les développements du web 2.0 les prestataires techniques sont devenus des points de mire. Ils occupent une place centrale dans les lois Hadopi, dans la Loppsi 2, ce projet de loi adopté le 16 février 2010 en 1ère lecture par l’Assemblée nationale, mais aussi, comme le rappelle aussi Rubin Sfadj, dans ACTA, projet d’accord international qui pourrait les obliger à fournir les données de connexion de leurs utilisateurs suspectés non plus de terrorisme (4) mais de piratage, sans intervention, ajoute-t-il,  de l’autorité judiciaire (5).

Si l’arrêt Tiscali a des conséquences juridiques, il a visiblement aussi des conséquences économiques et des conséquences pour les libertés. Le web prend visiblement un autre tournant en ce moment. Il convient d’être vigilant.

Notes

(1)  Selon la loi pour la confiance dans l’économie numérique (LCEN), la responsabilité des hébergeurs et des FAI n’est engagée que si, avisés de la présence d’un contenu manifestement illicite, ils ne le retirent pas dans les plus brefs délais, ou s’ils ne répondent pas aux exigences de la décision d’un juge. En revanche, la responsabilité d’un éditeur est engagée pour tous les contenus mis en ligne puisque l’on  considère qu’il lui est possible d’en prendre connaissance préalablement.

(2) A l’image de ce que vient de faire Google aux Etats-Unis, avant de se raviser

(3)  Décision n° 2000-433 DC du 27 juillet 2000  Le Conseil constitutionnel a reproché au législateur d’avoir « omis de préciser les conditions de forme d’une telle saisine » et de » n’avoir pas déterminé les caractéristiques essentielles du comportement fautif de nature à engager la responsabilité pénale des intéressés ».

(4) Conserver les données de connexion des abonnés, une obligation imposée aux FAI  par la loi anti-terroriste.

(5) Les dispositions d’ACTA sont encore secrètes, mais on en connaît les grandes lignes.

Sources

La future présidente de l’Hadopi finit fort, Guiseppe di Martino, Slate.fr, 15 janvier 2010

Cour de cassation : Tiscali, éditeur du contenu qu’il héberge, Marc Rees, Pc-Inpact, 15 janvier 2010

Responsabilité des hébergeurs : un problème à surveiller de près, Rubin Sfadj, ReadWriteWeb, 12 février 2010

Textes

Cass Civ 1, 14 janvier 2010, Telecom Italia (Tiscali) c/ Dargaud Lombard et Lucky Comics. Sur le site Juriscom

Loi n° 29004-575 du 21 juin 2004 pour la confiance dans l’économie numérique et liens vers les décrets d’application. Sur le site Légifrance

> Article initialement publié sur Paralipomènes

> Photo d’illustration jef safi sur Flickr

Sur la question du statut d’éditeur ou d’hébergeur, une décision vient d’être rendue dans l’affaire opposant l’agrégateur Paperblog à la plate-forme Overblog.

]]>
http://owni.fr/2010/02/18/hebergeur-publicite-editeur/feed/ 0
Le lecteur s’impose : de l’avenir pour l’édition numérique… [2] http://owni.fr/2009/10/06/le-lecteur-simpose-de-lavenir-pour-ledition-numerique-2/ http://owni.fr/2009/10/06/le-lecteur-simpose-de-lavenir-pour-ledition-numerique-2/#comments Mon, 05 Oct 2009 22:35:01 +0000 Pierre-Alexandre Xavier http://owni.fr/?p=4250 Ce billet est le deuxième d’une série consacrée aux transformations des métiers du livre. Ce deuxième volet s’intéresse à la montée en puissance du lecteur et au déclin du comptable.

La diffusion massive des outils de communauté(s), ou social media, transforme la nature des rapports que nous entretenons avec l’information et avec le savoir. D’une société de la connaissance relativement verticale, nous passons à une société de l’information très horizontale. D’une méthode de transmission et de diffusion décidée par un centre, nous passons à des méthodes de transmission et de diffusion multiples élaborées par le chevauchement de ces mêmes méthodes et par les usages qu’en font les utilisateurs. Cette transition a parfaitement été identifiée et intégrée par une firme comme Google qui joue sur ces leviers multiples permettant aux utilisateurs de faire triompher leurs désirs.

ecritoiresDans ce nouveau paysage de la dissémination et de l’échange des informations, la place centrale détenue hier par l’économie est très fortement restreinte, mais sans pour autant disparaître. Elle devient progressivement invisible et n’occupe plus la place déterminante de base comme le prouvent l’émergence de projets d’envergure mondiale dont le modèle de rentabilité économique reste encore à déterminer. Certains projets passent même l’essentiel de leurs temps de vie dans cet état de work in progress opérationnel, de version Beta perpétuelle, pour finalement devenir la propriété d’une compagnie ou d’une autre qui dépense sans compter pour ce qu’elle pense être la poule aux œufs d’or. Parmi les cas d’école : MySpace, dont le succès a été énorme, puis son rachat par Rupert Murdoch et puis son déclin rapide face à la montée en puissance d’un autre projet d’envergure : Facebook. L’économie ne règne pas sur le monde numérique, ou du moins pas comme elle le voudrait, comme dans le temps, de manière impériale et univoque.

Tous ces outils de mises en relation entre les individus, qui secondaient hier le téléphone et qui le supplante désormais totalement,
représentent une menace bien réelle pour les groupes financiers qui fondent leur économie sur la propriété culturelle. La fluidité et l’horizontalité des relations qu’ils imposent minent et contreviennent à toutes les règles verticales et hiérarchiques imposées par les méthodes traditionnelles d’exploitation des œuvres culturelles. Cela a été fulgurant et évident pour la musique. C’est également vrai pour le cinéma et la photographie. Pour des arts plus adaptés à une interaction dans l’espace comme la peinture, la sculpture, les spectacles vivants, la danse, le théâtre… les outils communautaires, et plus généralement le Web, offrent une porte d’entrée par cooptations, par relations, par affinités et parfois même par un travail pédagogique de proximité entre les connaisseurs et les curieux. Si la télévision et le divertissement restent les sujets de prédilection dans les échanges sociaux, les arts n’en sont pas absents, loin de là et sont aussi un signe de reconnaissance entre individus d’une même tribu.

Pour la musique, le cinéma et la photographie, les technologies de l’information ont également permis un partage total des ressources,
sans aucune limite physique de support ou d’espace. Cette capacité de partage a été complètement diabolisée par les détenteurs de droits qui l’ont immédiatement assimilée à du vol, à du piratage, tout en admettant qu’il pouvait y avoir des similitudes avec le prêt et l’échange qui préexistaient dans le monde de la distribution traditionnelle d’œuvres culturelles. Dans ces conditions quand est-il du livre ? Ce dernier est-il condamné à devenir également un objet immatériel qui pourra être disséminé dans le flux incessant des échanges numériques qui saturent le Réseau ? La réponse est évidente et il n’est pas besoin de s’interroger sur le support de lecture final pour formuler une conclusion. Le livre numérique sera lui aussi et de manière massive l’objet d’échanges, de partages et donc de piratages. Il l’est déjà aux Etats-unis où les ouvrages techniques et universitaires sont disponibles de manière systématique en version électronique peu de temps après leur parution papier, si ce n’est avant la sortie de cette dernière.

On peut polémiquer encore longtemps sur la nature du support final de lecture du livre numérique.
Ces querelles rejoindront celles des inconditionnels de la photographie argentique contre les adeptes des appareils numériques, ou bien des cinéastes de pellicule contre les utilisateurs de caméras numériques, etc. Ces débats parfois intéressants mais souvent stériles renvoient à des différents encore plus anciens sur d’autres innovations de l’histoire. Que ce soit sur papier (par impression à la demande, impression privée) ou sur un appareil électronique (ordinateur, tablette, netbook, lecteur électronique), cela ne changera rien à la volatilité acquise des livres numériques.

Ce qui change également et de manière radicale, c’est la place de chacun dans le dispositif du livre.
La chaîne de fabrication traditionnelle fortement Taylorisée (découpée en segments performants et les plus rentables possibles) a donné, et donne encore, une place très importante à l’économie et à ses experts. Mais l’irruption des technologies de l’information, un moment apprivoisée par l’industrie du livre, va débarquer les contrôleurs de gestion et les comptables pour rendre la place aux lecteurs. Ce phénomène gagne de l’ampleur à mesure que ces mêmes lecteurs s’engouffrent allègrement dans la brèche créée par les « médias sociaux ». Affranchi de l’engeance du plan média et des canaux traditionnels de diffusion et de partage de l’information, le lecteur tisse ses propres relations avec les œuvres qui lui sont présentées tantôt par affinité, recommandation, ou bouche à oreille électronique. Il/elle tisse également ses propres liens avec d’autres lecteurs dont il/elle partage les goûts et les lectures.

Demain, au cœur de l’économie numérique du livre, le lecteur s’impose comme le pivot de l’ensemble du secteur de l’édition.
Il se manifeste sous la forme de trois « avatars » :
— l’éditeur,
— l’auteur,
— le libraire.
Ces trois types de lecteurs seront les grands vainqueurs de la métamorphose numérique du livre. Dans un paysage technologique permettant la publication à des coûts marginaux et en offrant une personnalisation accrue, les lecteurs disposent de tous les outils nécessaires pour numériser l’œuvre, la conditionner, la diffuser en mode libre ou restreint, lui faire de la publicité localisée, massive ou confidentielle, l’intégrer dans un univers créatif et imaginaire, ou dans un univers technique et référencé. Le lecteur devient roi, et l’univers du livre lui est rendu dans toute sa dimension littéraire.

Mais résistons un instant à l’idéalisme technophile de cette approche visionnaire et revenons à des contingences plus immédiates.
On pourrait croire que les trois formes sont trois fonctions que le lecteur peut occuper tour à tour et devenir ainsi homme-orchestre du livre. Mais c’est oublier que ces formes ne sont pas que des rôles, elles sont aussi des passions et par extension des métiers. Il est probable que nous verrons dans l’économie numérique du livre apparaître des prodiges capables à la fois de produire une littérature de qualité, éditer par goût et avec intelligence la littérature des autres et ajouter à cela une grande capacité à organiser la vente numérique et/ou physique des ouvrages auprès du plus grand nombre. Ces prodiges seront fort heureusement rares. Mais il sera moins rare de rencontrer des auteurs-éditeurs ou des éditeur-libraires, ou même des auteurs-libraires. Pour rester pragmatique disons que l’édition est une affaire de collaboration(s). Car ce qui relient les trois facettes du lecteur, c’est la capacité imaginative et c’est aussi là dessus que s’articule le sens de toute entreprise. Se pose alors la question des moyens dont disposent les lecteurs pour construire cette économie nouvelle ?

Les équipements d’impression à la demande existent et sont développés depuis plus de dix ans par les plus grandes enseignes de la reprographie.
Nombre de prestataires d’impression proposent depuis plusieurs années déjà des services à des tarifs très compétitifs des impressions en petits tirages, voire en tirages uniques. Le Web 2.0 offre une panoplie d’outils intégrés (CMS) pouvant servir aussi bien de plate-forme de vente, de site de divulgation, de blog(s) et/ou de vitrine. Et les médias sociaux ouvrent des possibilités incontestées pour générer du bruit, des effets d’annonce, des communications virales et toutes sortes d’initiatives qu’il est déjà impossible de les consigner toutes. C’est à ces possibilités que s’attaquent aujourd’hui les lecteurs, c’est-à-dire une foule d’éditeurs indépendants, de libraires atypiques, d’auteurs visionnaires et d’excentriques en tous genres… Et les groupes financiers ne seront pas absents de cette recomposition à condition de calibrer autrement leur offre à la fois dans sa nature et dans sa complémentarité avec le travail des lecteurs.

Cette révolution n’ira pas sans résistances. Nous connaissons déjà celle des détenteurs de droits.
J’en ai parlé dans le premier billet de cette série. Et d’autres résistances sont à prévoir. Elles viendront à la fois de la nature conservatrice des institutions publiques en charge de valoriser et de défendre le patrimoine culturel. Elles viendront également des sociétés et syndicats civils ayant pour mission d’agréger les composantes professionnelles du secteur qui ne pourront que se cristalliser sur les méthodes traditionnelles et sur les codes en vigueur.
En même temps qu’ils devront s’approprier les outils et les espaces de travail, les lecteurs devront également convertir les institutions et les associations professionnelles. Par cette conversion à l’économie numérique du livre, il sera possible d’envisager une transformation des dispositifs de subventions, des mécanismes d’aide et des conventions de conservation et  de dépôt. Le plus difficile sera naturellement un chantier âpre concernant les droits de propriété intellectuelle.

Le processus que je décris ici n’est pas de l’ordre de la prospective. Il est déjà à l’œuvre partout. Les réactions françaises tant de la part des maisons d’édition que des institutions sont la preuve manifeste que la transformation a débuté. Mais pour l’instant, la mutation se fait un peu dans la douleur et le bébé a bien l’air de se présenter assez mal. Rien n’est perdu et les agitations et manœuvres guerrières des mastodontes de l’informatique et du Réseau ne peuvent absolument rien contre la barrière naturelle de tous les patrimoines culturels : celle de la langue. Il y a donc encore du temps pour mettre en place les articulations nécessaires à une révolution en douceur et profitable pour tous.

Le livre est une affaire de lecteur(s).
Pendant une courte période (moins d’un siècle), les marchands ont crû pouvoir s’approprier le livre comme objet d’une économie de masse. Les avantages notables et bénéfiques ont été de permettre une éducation et une information de masse. Mais les effets pervers ont été nombreux et indésirables. Avec l’explosion numérique, le livre cesse de nouveau d’être une affaire de comptables et de commerçants pour redevenir une affaire de lecteur(s). Il n’y a rien à déplorer dans ces mutations successives. Elles apportent toutes leur lot de bénéfices. Il faut en revanche, le moment venu, les accepter sans se crisper, ni tenter de s’enchaîner au passé. Comme lors d’un deuil, il faudra lâcher prise et tourner la page.


N.B. : Dans ce billet, j’ai employé très (trop) souvent le masculin pour désigner le lecteur et ses avatars. Cela n’est pas la marque d’un caractère sexiste, mais la triste réalité d’une langue et d’une culture. Je reconnais volontiers le rôle majeur des femmes dans l’univers du livre, dans toutes les formes de la lectrice et dans toutes les langues que j’ai la chance de comprendre. Je compte sur leur bienveillance et leur indulgence.

]]>
http://owni.fr/2009/10/06/le-lecteur-simpose-de-lavenir-pour-ledition-numerique-2/feed/ 1