OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Vers le Libre Accès au Savoir à l’Université http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/ http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/#comments Thu, 30 Dec 2010 14:42:47 +0000 aKa (Framasoft) http://owni.fr/?p=39758 Titre original : Le long chemin du Libre Accès au Savoir à l’Université

La question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever.

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition :

« chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ».

Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inaccessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT).

Mais étonnamment, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la technologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisamment convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

Illustrations CC by-nc : byronv2 et by-nc-sa : Kaptain Kobold, Stuart Bryant

Retrouvez tous les articles d’OWNIsciences.

]]>
http://owni.fr/2010/12/30/vers-le-libre-acces-au-savoir-a-luniversite/feed/ 2
Le long chemin du Libre Accès au Savoir à l’Université http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/ http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/#comments Wed, 29 Dec 2010 14:10:13 +0000 aKa (Framasoft) http://owni.fr/?p=33733 La question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever.

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition :

« chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ».

Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inaccessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT).

Mais étonnamment, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la technologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisamment convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA sur le Framablog

>> Framasoft, qui édite Framablog, a lancé une campagne de dons, afin d’équilibrer son budget.

Illustrations CC by-nc : byronv2 et by-nc-sa : Kaptain Kobold, Stuart Bryant

]]>
http://owni.fr/2010/12/29/le-long-chemin-du-libre-acces-au-savoir-a-luniversite/feed/ 6
la course pour quelle excellence? http://owni.fr/2010/12/17/la-course-pour-quelle-excellence/ http://owni.fr/2010/12/17/la-course-pour-quelle-excellence/#comments Fri, 17 Dec 2010 08:47:57 +0000 Jean-François Méla http://owni.fr/?p=33672 Titre original : Débats autour du concept d’excellence

Ce texte est le support d’un exposé que j’ai fait au séminaire de Jean-Richard Cytermann à l’EHESS, le 18.11.2010. Il synthétise et complète sur certains points plusieurs articles antérieurs.

Aujourd’hui en France, lorsqu’il est question de politique en matière d’enseignement supérieur et de recherche, on n’échappe pas à « l’excellence » : campus d’excellence, pôles d’excellence, initiatives d’excellence, laboratoires d’excellence, équipements d’excellence, chaires d’excellence, prime d’excellence scientifique… Cette épidémie frappe plus largement l’Europe. Ainsi l’Allemagne a lancé une « initiative d’excellence ». La citation suivante extraite du récent document de l’Union européenne intitulé « Europe 2020 Flagship Inititaive – Innovation Union » résume assez bien l’idéologie sous-jacente :

Our education systems at all levels need to be modernized. Excellence must even more become the guiding principle. We need more world-class universities, raise skill levels and attract top talent from abroad.

We need to get more innovation out of our research. Cooperation between the worlds of science and the world of business must be enhanced, obstacles removed and incentives put in place.

On y trouve une double référence : aux classements internationaux d’universités, et à la « stratégie de Lisbonne ». On peut dire que cette politique de l’excellence a véritablement démarré dans les années 2000 avec l’explosion de la mondialisation. Initialement, la stratégie de Lisbonne lancée en 2000 visait à faire de l’Union Européenne « l’économie de la connaissance la plus compétitive et la plus dynamique du monde d’ici 2010, capable d’une croissance économique durable, accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale ». Cette stratégie volontariste apparaît en échec, à strictement parler, mais elle a été réactualisée, et la politique de recherche et développement reste au centre du dispositif.

Qu’il s’agisse des palmarès internationaux ou de la stratégie de Lisbonne, on voit immédiatement l’ambigüité du concept d’excellence : s’agit-il de formation, de recherche, ou d’innovation ? Se place-t-on dans une perspective scientifique, économique, ou démocratique ? L’abus du mot excellence ne vient-il pas conjurer le sentiment de déclin de l’Europe et, pour ce qui nous concerne ici, ne vient-il pas masquer notre incapacité à avoir de « véritables universités » en France ?

Les palmarès internationaux d’universités

L’histoire commence en 2003 lorsqu’un petit groupe de chercheurs de l’université Jiao Tong de Shanghai publie le premier classement mondial des universités. Il existait des palmarès nationaux comme celui de US News and World Report, depuis 25 ans, dont les critères sont beaucoup plus la qualité de l’enseignement et le sort des étudiants que la recherche. Le classement de Shanghai coïncide avec l’irruption de la Chine dans la compétition économique mondiale à un niveau qui menace directement les économies occidentales.

Le fait que ce jugement vient de Chine, futur « maître du monde » dont le développement fascine et effraye quelque peu, a beaucoup contribué au retentissement du classement de Shanghai, tout particulièrement dans notre pays, compte tenu de la place modeste qu’y occupe la France. Ce classement dont les critères et les modalités ont un peu évolué depuis ses débuts, se base cependant avant tout sur la recherche en science et sur des indicateurs quantitatifs comme le nombre de prix Nobel et de médailles Fields, le nombre de professeurs figurant dans la liste des chercheurs les plus cités… C’est un choix délibéré car, pour les auteurs du classement, seules les données de recherche sont suffisamment fiables et internationalement comparables pour pouvoir faire un classement universel.

On pourrait remarquer qu’avec le faible nombre de prix Nobel français, il était de toute façon difficile de figurer en haut du classement. Rappelons que sur les 50 dernières années, sur quelques 350 prix Nobel attribués en sciences, la France en a reçu 15 tandis que les USA en avaient 195 et le Royaume Uni 47. Par ailleurs les universités de langue anglaise sont sur-représentées dans l’index HiCi de Thomson ISI. Ainsi, il y a autant de highly cited researchers dans l’université de Harvard ou celle de Stanford que dans la France entière…  Si ce classement a été ressenti de façon aussi cuisante en France, c’est qu’il mettait en évidence le manque de visibilité internationale des universités françaises et aussi de nos gloires nationales, les grandes écoles, qui apparaissent comme des « têtes d’épingle » à l’international.

Les réactions officielles ont été assez éloignées du concept d’excellence. La ministre et les haut-fonctionnaires ont surtout mis en avant la question de la taille des établissements. Ils ont insisté sur la nécessité de fédérer universités et grandes écoles en de grands ensembles qui seraient visibles de Shanghai. Sans craindre le ridicule de vouloir constituer des ensembles approchant ou dépassant 100.000 étudiants pour espérer égaler des universités américaines comme Harvard (20.000 étudiants), Stanford (15.000) ou le MIT (10.000).

Dans un entretien publié par Le Mensuel de l’Université en 2007, le directeur général des enseignements supérieurs de l’époque déclare : «  l’université de Toulouse III, université scientifique et de santé de haut niveau, est actuellement au fond des classements internationaux ; or si l’on prend en compte l’ensemble de la production des universités toulousaines, ce pôle ainsi constitué se retrouverait certainement dans les 60 premières universités mondiales ». Rien n’est moins sûr. Mais, surtout, il faut s’étonner qu’une université scientifique de 30.000 étudiants, 1500 enseignants chercheurs et 750 chercheurs, ait besoin de se fondre dans un ensemble hétéroclite de 80.000 étudiants pour devenir visible dans un classement international qui privilégie pourtant les sciences et la recherche.

Il eut été préférable de s’interroger sur l’état de notre système d’enseignement supérieur et de recherche, écartelé entre universités, grandes écoles et organismes. La France n’a pas de véritables universités ; celles-ci sont mal positionnées, mal gouvernées, ce n’est pas une question de taille. Et si les universités américaines sont si bien classées, c’est que, favorisées par la langue, elles savent attirer les « vedettes » par les salaires et les conditions de travail.

Après le classement de Shanghai, est apparu en 2004 un autre classement à vocation mondiale publié par le Times Higher Education Supplement (THE). Il s’agissait d’un classement plus « subjectif » principalement fondé sur la réputation (auprès des universitaires, des employeurs) mais aussi sur des indicateurs de qualité de l’enseignement (nombre d’étudiants par professeur) ou de la recherche (nombre de citations par professeur).

Le classement THE fait la part belle à la Grande-Bretagne qui a 29 universités classées dans le top-200, contre 58 pour les USA et 4 établissements français (3 écoles et une seule université !). On voit apparaître ici une loi des palmarès : « on n’est jamais si bien classé que par soi-même ». C’est ainsi que l’Ecole des Mines de Paris n’a pas craint le ridicule de fabriquer, en 2007, un classement qui faisait apparaître 5 grandes écoles françaises (dont l’Ecole des Mines) dans les 10 premiers du classement, à côté de Harvard, de Stanford et du MIT. Le critère adopté était le nombre d’anciens élèves occupant un poste de dirigeant de l’une des 500 premières entreprises mondiales. Mais voilà, après tout, une autre conception de l’excellence ! Sur un registre voisin, on peut lire dans le supplément Education du Monde, daté du 10 novembre 2010, un palmarès établi après enquête auprès de DRH d’entreprises : sur les 10 meilleures universités selon les recruteurs, 8 sont des écoles de commerce ; les deux autres sont Dauphine et Sciences Po !

L’idée est née d’un classement européen qui serait moins défavorable aux universités de l’Union européenne. Une institution allemande, le Center for Higher Education Development (CHE) a proposé une méthode de classement qui se démarquerait des palmarès classiques, où l’on utiliserait différents indicateurs que l’on n’intègrerait pas dans un seul indicateur de rang pour chaque université. Le CHE copilote avec le Center for Higher Education Policy Studies (CHEPS) de Twente (Pays-Bas), un consortium d’institutions européennes (dont, en France, l’OST) qui travaille à produire un tel classement multidimensionnel « U-multirank » dont on a eu récemment le dernier rapport d’avancement .

On pourrait parler aujourd’hui d’une « saison des palmarès » car, à la rentrée, outre la mise en ligne du classement de Shanghai 2010, on a eu publication du classement QS (Quacquarelli Symons) puis du classement THE (Times Higher Education) dont les journaux se sont disputés la primeur, avant d’avoir connaissance du classement du CHE pour les sciences qui est une contribution au projet « U-multirank »(( Voir “De l’excellence en milieu universitaire » in JFM’s Blog. )) .

Les classements déterminent de façon brutale des gagnants et des perdants. C’est un jeu à somme nulle. On stigmatise ceux qui ne sont pas bien classés. On a un cercle vicieux qui tend à renforcer la réputation des institutions déjà réputées et à bloquer les jeunes institutions.

Dans l’ouvrage de Franck et Cook, The winner-take-all society (( Franck R. & Cook P. The winner-take-all-society. The Free Press, New-York (1995). )) , on trouve l’anecdote suivante : une enquête américaine auprès des étudiants plaçait la faculté de Droit de Princeton dans les dix premières facultés de Droit ; le seul problème c’est que Princeton n’a pas de faculté de Droit…

Les classements peuvent être aberrants et destructeurs dans des systèmes universitaires nationaux initialement unifiés. La diversité des institutions est très liée aux sociétés et aux cultures nationales, à leur histoire, aux ressources nationales… Si l’on prend trop exclusivement en considération la recherche, les universités techniques, les écoles d’ingénieurs ou les formations professionnelles (vocational institutions) sont dévalorisées alors qu’elles sont très importantes. Et puis, comment un classement complètement dominé par les pays riches peut-il contribuer à construire des systèmes universitaires de qualité dans les pays émergents ?

On pourrait débattre longtemps de la valeur des différents classements, discuter leurs critères et leurs méthodes . Il existe des observatoires qui suivent de près les classements internationaux, comme l’IREG (International Observatory on Academic Ranking and Excellence) ou le Ranking Forum of Swiss universities. Mais la question est plutôt de savoir quelles conclusions on tire des classements et quelles politiques s’appuient sur eux. La vérité est « qu’à travers les classements et les palmarès, se construisent des catégories d’appréhension du monde » . Les classements sont d’autant plus « efficaces » qu’ils reçoivent l’appui des médias qui cultivent à partir d’eux des jugements globaux. Ainsi on a vu s’installer partout la notion de world class university . La politique universitaire n’est pas réellement conçue à partir des classements, mais ceux-ci sont invoqués pour la justifier, et ceci de façon parfois caricaturale :

A la fin 2009, devant un conseil national de l’UMP, le président Sarkozy déclarait : « Pour l’autonomie des universités qui nous a valu neuf mois d’occupation l’année dernière, nous n’avons pas reculé d’un demi-centimètre. Et pour la première fois depuis vingt-cinq ans, dans le classement des universités de Shanghai, les universités françaises remontent. C’était possible, nous l’avons fait ».

Lors d’une récente conférence de l’OCDE sur l’enseignement supérieur, le président (vice chancellor) de California State University, est allé jusqu’à parler des classements internationaux comme d’une maladie (« a disease »), expliquant qu’ils encouragent des politiques simplistes où les indicateurs deviennent des objectifs. Dans le même registre on pourrait citer la formule de l’anthropologue britannique Marilyn Strathern :

When a measure becomes a target, it ceases to be a good measure.

La course à l’excellence

Le rapport Aghion sur « l’excellence universitaire » , fait à la demande de la ministre de l’Enseignement supérieur et de la recherche, explore la problématique de l’excellence au regard des expériences internationales. Il y est beaucoup question « d’excellence académique » sans que ce concept soit clairement défini. On nous dit : « conscients du risque de décrochage, l’Allemagne, l’Espagne, la France et l’Union européenne ont mis en place des initiatives d’excellence qui présentent des caractéristiques communes : focalisation forte de financements pluriannuels sur l’excellence pour renforcer compétitivité et attractivité ».

Ceci renvoie plutôt à la stratégie de Lisbonne et à « l’excellence économique ». La seconde partie du rapport Aghion met d’ailleurs l’accent sur « les performances universitaires en matière d’insertion professionnelle, de flexibilité et de satisfaction au travail ». On s’éloigne notablement de l’excellence académique en matière de recherche, et on met l’accent sur l’innovation, les sciences dures et la technologie. Quand on voit que les sciences humaines et sociales sont quasiment absentes des critères des différents classements internationaux, on comprend que ces questions ne sont pas de pure forme.

La politique qui en découle se caractérise par la volonté de concentrer les moyens sur un petit nombre de pôles et de projets. Déjà en 2008, Valérie Pécresse déclarait par avance : « Je souhaite que l’ensemble des universités françaises soient regroupées autour de 15 pôles » . Dans la partie du rapport sur le « Grand emprunt » consacrée aux investissements nécessaires « en faveur du développement de la connaissance, du savoir et de l’innovation », le rapport embraye immédiatement sur  « la visibilité à l’étranger de la qualité et du dynamisme de nos meilleurs établissements d’enseignement supérieur et de recherche » :

« Or leur évaluation et l’impact global des travaux de recherche français ne sont pas à la hauteur de nos ambitions, malgré quelques domaines d’excellence. Ainsi, pour critiquables qu’ils soient, les classements et indicateurs internationaux font état de prestations médiocres ».

« Cette position défavorable dans la compétition mondiale s’explique en partie par la faible diversité des modes de financement de nos établissements d’enseignement supérieur, presque exclusivement publics (..). Mais la position défavorable de la France dans la compétition mondiale  reflète également la trop petite taille de nos établissements ».

Ceci conduit, en particulier, à proposer de concentrer un capital de 7,7 milliards d’euros sur « cinq à dix groupements d’établissements d’enseignement supérieur et de recherche sélectionnés par un jury international ». En réalité, il est bien inutile de réunir un tel jury ; on connaît déjà les établissements en question : ce sont ceux qui hébergent la majorité des chercheurs des organismes de recherche et qui reçoivent d’ores et déjà l’essentiel des crédits récurrents et des crédits de l’Agence Nationale de la Recherche !

L’idée centrale est donc qu’il faut réserver l’argent public à un petit nombre de pôles et de projets, qui seront par ailleurs en position de drainer des fonds privés, en complément ou en remplacement de crédits publics. Il est probable, en effet, que les crédits attribués aux pôles et projets d’excellence soient plus que compensés, à l’avenir, par une baisse importante du budget ordinaire de l’enseignement supérieur, comme c’est le cas aujourd’hui en Grande-Bretagne. Sans doute doit-on éviter le saupoudrage des crédits. Mais le saupoudrage est souvent une conséquence de l’insuffisance globale du financement lorsqu’on ne veut rien sacrifier. La question est de savoir s’il est rationnel et juste de sacrifier tout ce qui n’est pas « classé dans l’excellence ». Tout le monde ne peut pas être « excellent » (sinon le mot n’a plus de sens) et que devient-on si l’on n’est pas « excellent » ?

Nous ne discuterons pas ici de la question générale du financement de l’enseignement supérieur qui devrait être accru dans des proportions beaucoup plus importantes que les 11 milliards du « Grand emprunt ». On notera d’ailleurs que cet argent est une dotation en capital qui ne procurera guère que 300 millions annuels supplémentaires. Il est clair que ceci suffira pas à créer des universités à l’anglo-saxonne . Mais la politique « d’excellence » qui se met en place aura des conséquences bien réelles pour les laissés pour compte.

Une politique discutable

Posons-nous d’abord la question : est-ce que la concentration est indispensable à la recherche d’excellence ? Sans doute dans les domaines qui nécessitent de très grands équipements, ceux-ci sont-ils nécessairement concentrés sur quelques campus. Mais il y a beaucoup de recherches qui n’exigent pas de tels moyens. On peut citer l’exemple des mathématiques dont le niveau international n’est pas contesté. La discipline est organisée en un réseau de départements à l’anglo-saxonne, qui innerve la majeure partie du territoire national. On trouve de l’excellence mathématique dans beaucoup d’universités. A quoi servirait-il de la concentrer sur 5 à 10 pôles, sinon à dévitaliser le reste. On peut étendre l’exemple des mathématiques aux sciences humaines et sociales, mais aussi à l’informatique et à bien des domaines de la physique ou de la chimie qui n’exigent pas de très gros équipements.

Voici quelques exemples :

- Le mathématicien franco-vietnamien Ngô Bao Châu qui a reçu la médaille Fiels en 2010 est aujourd’hui à Chicago après un passage à Princeton et Orsay. Mais il a commencé sa carrière post-doctorale comme chercheur au laboratoire de mathématiques de l’université Paris 13 où il a passé 6 ans  de 1998 à 2004, période où sa recherche a fait un pas décisif. Il avait été auparavant moniteur à Paris 13 pendant 3 ans.

- Gérard Ferey, médaille d’or 2010 du CNRS, chimiste spécialiste des solides poreux,  a commencé ses travaux à l’IUT du Mans où il a été en poste de 1967 à 1996 comme assistant, maître-assistant puis professeur, avant de créer l’Institut Lavoisier à l’université de Versailles Saint-Quentin.

- Didier Fassin, sociologue et médecin, qui a obtenu la chaire d’anthropologie sociale dans le prestigieux Institute for advanced studies de Princeton, avait fait sa carrière à l’université Paris 13 comme maître de conférences, puis professeur en même temps que directeur de recherche cumulant à l’EHESS.

Est-ce que la productivité de la recherche sera améliorée en concentrant dans la même université ou le même PRES un brillant département de philosophie et un groupe de physique nucléaire performant ? Si l’on admet qu’il doit y avoir un lien entre enseignement et recherche, est-il souhaitable de transformer la grande majorité des universités en déserts scientifiques ? Ajoutons que dans le système français où les professeurs sont des fonctionnaires recrutés suivant des normes nationales encore relativement homogènes, on trouve de bons éléments ailleurs que dans quelques pôles, et ce serait un gaspillage de ressources humaines que de les marginaliser a priori.

Cette politique de concentration est également contestable du point de vue économique. Cette stratégie de création de « clusters » n’est-elle pas d’ailleurs un peu dépassée à l’époque du web mondial ? N’est-ce pas une démarche fermée destinée à aménager des positions de pouvoir ? D’ailleurs il ne suffit pas d’avoir quelques centres de recherche producteurs de brevets. C’est une vision réductrice de la relation entre les universités et l’économie.

C’est l’ensemble des forces productives qui comptent et la formation de travailleurs ayant une qualification de niveau post-bac est un enjeu considérable pour l’avenir. C’est la reconnaissance de cet enjeu qui a motivé le lancement aux USA en juillet 2009 d’un plan ambitieux de 12 milliards de dollars sur 10 ans en faveur des community colleges. Par ailleurs l’aménagement du territoire suppose d’encourager le transfert technologique à tous les niveaux entre les universités, les centres de recherche et le tissu économique. Cette nécessité semble reconnue puisqu’on parle aujourd’hui de créer des « pôles universitaires de proximité » en complément des pôles d’excellence. Mais outre le caractère vague et assez peu crédible du projet annoncé, cette conception dichotomique avec, d’un côté l’excellence, de l’autre l’utilitaire et le professionnel, renforcera encore la ségrégation dans le « ghetto français ».

Délimiter a priori quelques institutions proclamées « pôles d’excellence » est mauvais pour la démocratie. La concentration élitiste engendre l’exclusion. On notera, en passant, que la démocratisation de l’accès aux études est un paramètre inexistant dans les classements internationaux d’universités. Il faut sans aucun doute admettre une différenciation de nos institutions d’enseignement supérieur, mais il faut maintenir entre elles un maximum de fluidité (en permettant notamment le passage de l’une à l’autre) et donner à chacune ses chances et son importance en fonction de sa situation. N’oublions pas, quand même, que nous sommes, en France, déjà très concentrés et très différenciés, que ce soit pour la recherche par le biais des grands organismes et des agences de moyens , ou pour la formation avec l’existence des grandes écoles. Ajoutons que ces « pôles d’excellence » seront aussi des pôles de l’excellence sociale, moins sensibles aux exigences démocratiques .

Lorsqu’on proclame que les universités doivent répondre plus étroitement aux besoins de l’économie et contribuer plus directement aux processus d’innovation, on a tendance à privilégier les formations scientifiques et techniques au détriment des sciences humaines et sociales . C’est un contresens majeur sur le rôle des universités. Celles-ci ne sont pas des entreprises qui fournissent un produit bien défini, selon un processus de production standardisé. Beaucoup des qualités appréciées dans la « société de la connaissance » (esprit d’entreprise, capacité managériale, leadership, vision, travail en équipe, adaptabilité, application concrète de compétences techniques) ne sont pas des caractéristiques premières, mais dérivent de qualités plus fondamentales qui résultent elles-mêmes d’une formation générale dans un contexte pluridisciplinaire.

Dans la course à l’excellence, les humanités, les sciences humaines et sociales, les arts, ne cessent de perdre du terrain. C’est le cas aux Etats-Unis où, en 2004, 8% des diplômes de bachelor étaient obtenus dans le champ des humanities contre 18% dans les années 1960 . En Grande-Bretagne le nouveau gouvernement conservateur a annoncé des coupes sévères dans le budget de l’enseignement supérieur qui serait réduit de 40% d’ici 2014-15 ; mais la science, la technologie, l’engineering et les mathématiques seraient épargnés ainsi que la recherche.Il faut en conclure que les sciences humaines et sociales seraient durement frappées. Qu’en sera-t-il de la France ?  La philosophe américaine Martha Nusbaum nous met en garde : « Avides de réussite économique, les pays et leurs systèmes éducatifs renoncent imprudemment à des compétences pourtant indispensables à la survie des démocraties » .

Les critères de l’excellence

L’excellence académique s’apprécie sur la base d’indicateurs quantitatifs de performance qui méritent d’être discutés, y compris d’un point de vue interne. Il y a une tendance lourde à gérer les services publics comme des entreprises et à utiliser des « indicateurs de production » comme mesure de la performance, sans que l’on se pose vraiment la question de la pertinence de la transposition de ces techniques du monde de l’entreprise à celui des laboratoires et des universités. Des chercheurs en sciences de gestion, qui n’ont rien de radicaux, ont montré depuis longtemps que les indicateurs de production chiffrés sont particulièrement inadaptés lorsqu’il s’agit d’évaluer une activité complexe.

Dans la LOLF qui régit désormais le budget de l’Etat, les crédits du budget sont présentés par objectifs, chacun assorti d’indicateurs de performance. Pour l’enseignement supérieur et la recherche, les indicateurs de la LOLF sont ceux qu’on retrouve dans beaucoup de classements internationaux : nombre de publications ; indice de citations à deux ans ; nombre de brevets ; participation aux programmes cadre européens ; nombre de chercheurs, d’enseignants et d’étudiants étrangers ; pourcentage de diplômés ; taux d’insertion de sortants…. On peut parler de dérive lorsqu’on voit ces indicateurs budgétaires macroscopiques devenir des indicateurs de qualité pour chaque établissement, pour chaque équipe, voire pour chaque individu, et s’établir comme des normes auxquelles les uns et les autres vont chercher à satisfaire, indépendamment de leurs motivations et de leurs démarches propres.

Pour émarger aux « projets d’excellence », les chercheurs vont passer un temps considérable  à justifier leurs demandes de moyens, car on va exiger d’eux des informations de plus en plus détaillées et de plus en plus quantifiées. Ce qui ne garantit rien car les chercheurs inventent des contre-stratégies qui sapent les systèmes de contrôle mis en place. Par contre les indicateurs influent sur les organisations d’une façon souvent négative.

On peut s’interroger, de manière générale, sur la pertinence des indicateurs numériques de production. Un premier problème est que l’on n’attribue de valeur qu’à ce qui est mesurable. On induit ainsi une grande dépendance vis-à-vis des indicateurs quantitatifs, et l’on marginalise des activités ou des qualités qui sont difficiles à mesurer mais qui peuvent être plus importantes. Par ailleurs, les différents acteurs cherchent avant tout à « être bons sur les indicateurs ».

Quand un système d’indicateurs se met en place, il est rationnel pour les acteurs de développer des stratégies de conformisme. C’est le cas notamment pour la recherche sur projets où la principale qualité de celui qui répond à un appel d’offres doit être de se couler dans les intentions de ceux qui ont lancé le programme. Le postulant ne risque rien à « promettre la Lune » car il y a rarement de véritable évaluation ex-post des objectifs précis du programme, et l’on pourrait dire que les indicateurs utilisés sont des indicateurs de « performance virtuelle ». D’après certaines études , le seul facteur décisif de succès d’une université sur le long terme est la qualité des universitaires et des chercheurs, ainsi que le niveau et la qualification des étudiants, ce qui renvoie à la qualité du recrutement des uns et de la sélection des autres.

La pondération des différents indicateurs est très délicate. Les conséquences que l’on doit en tirer ne sont pas claires. Si l’on en croit certaines études , les indicateurs ne sont pas toujours le moyen de repérer les institutions d’excellence : ainsi, le pourcentage de publications cosignées entre des chercheurs d’institutions « d’excellence » et des chercheurs d’institutions moins prestigieuses aurait doublé depuis la fin des années 90. D’autres études existent sur la « réactivité » aux indicateurs : cette réactivité a pour conséquences une redéfinition du travail et une prolifération des stratégies de jeux (gaming strategies). De façon paradoxale, les mécanismes de financement par l’Etat, associés aux indicateurs de performance déterminent la politique des établissements beaucoup plus que la compétition scientifique internationale. Lorsqu’on invoque celle-ci, c’est d’ailleurs par la médiation des classements qui utilisent eux aussi des indicateurs de performance dont certains relèvent davantage du « marketing » que de la science.

On peut admettre que le budget de l’Etat fasse usage d’indicateurs à un niveau élevé d’agrégation. Mais il est très dangereux d’en faire des normes de pilotage des universités, des départements, des équipes de recherche… Il faut regarder ces indicateurs pour ce qu’ils sont : des éléments de diagnostic, discutables et incertains, souvent biaisés et formatés de façon à justifier des évolutions annoncées (self-fulfilling prophecies).

On peut penser, comme Michèle Lamont dans son livre « How professors think in the curious world of academic judgement »  qu’aucune technique inspirée du management de la qualité ne pourra mieux faire qu’une délibération collective des pairs. Il faut alors se pencher sur la production des jugements dans les communautés académiques disciplinaires. C’est ce que fait Michèle Lamont pour les sciences humaines et sociales. Cette analyse fine fait une grande place aux facteurs psychologiques et aux cultures d’évaluation, de recrutement, de classement, dans ces communautés (et pas seulement aux enjeux de pouvoir).

>> Article initialement publié sur le JFM’s blog

>> Illustrations FlickR CC : Ryan Somma, PhOtOnQuAnTiQuE, Kristian M

]]>
http://owni.fr/2010/12/17/la-course-pour-quelle-excellence/feed/ 4
Les pilotes du chaos, étudiants de l’extrême pour période troublée http://owni.fr/2010/11/10/les-pilotes-du-chaos-etudiants-de-lextreme-pour-periode-troublee/ http://owni.fr/2010/11/10/les-pilotes-du-chaos-etudiants-de-lextreme-pour-periode-troublee/#comments Wed, 10 Nov 2010 12:28:49 +0000 Admin http://owni.fr/?p=34751 À la fois souriants et concentrés, deux jeunes sont penchés devant leurs écrans de Mac, visiblement en plein travail. Sur leur table, un bouquet de fleurs et un petit Bouddha. Derrière, deux autres jeunes, l’air tout aussi épanoui, discutent. Cool, certes, mais en arrière-plan, en guise de décoration, une fresque représentant une rangée de boxeurs déterminés à se battre.

Cette photo sert de couverture au livre retraçant l’histoire de KaosPilots School, une école très spéciale fondée en 1991 à Århus au Danemark par Uffe Elbaek. Elle résume bien le concept de l’école : un mix d’entrepreneuriat, en pleine prise avec la réalité – “naviguer en des temps de turbulence” – et des valeurs que l’on pourrait qualifier d’humanistes, et où tout le cursus s’articule autour de projets réels. À son fronton, l’esprit des lieux est résumé par les mots “amour du jeu, ancrage dans la réalité, sagesse, prise de risques, équilibre, compassion”. “Business as unusual” en trois mots.

Si ce modèle éducationnel prône l’hybridation des valeurs, c’est pour s’adapter au contexte actuel : pour Kaospilot, les trois secteurs traditionnels de la société – services publics, entreprises et ONG – doivent faire évoluer leur modèle.

“Les citoyens veulent que le secteur public offre des services plus efficaces, à la fois au niveau collectif et individuel. Les actionnaires veulent de plus larges dividendes et, dans le même temps, il y a une demande pour des entreprises plus soucieuses de l’environnement et du social. On exige des ONG qu’elles produisent des résultats tout en faisant face à des besoins financiers de plus en plus importants.”

Kaospilot appelle à l’émergence d’un quatrième secteur, panachant les caractéristiques de ces trois-là, prônant l’autofinancement, le marché libre, mais aussi les transferts des éventuels excédents financiers au “bien public”, et mu par l’aspiration à une organisation culturelle ressemblant à celle d’une organisation de bénévoles.

KaosPilots clame qu’elle veut être “the best school for the world”. “For”, et pas “in”, est primordial : la meilleure école pour le monde, entendre “tel qu’il est” et non pas pour former des étudiants spécialistes de disciplines difficilement utilisables une fois franchie la porte de l’université. L’une des matières de l’école est révélatrice. Quand certains partent en stage, les “pilotes” sont envoyés quatre mois, avec quelques centaines d’euros en tout et pour tout en poche, dans une ville « qui bouge » (Shanghai, Durban…). Leur mission : réaliser un projet dans un pays dont ils ne connaissent rien, l’école servant de filet de sécurité en cas de chute.

Au final, il en sort ce que l’on pourrait qualifier des entrepreneurs vertueux :

“Un pilote du chaos est un  leader entreprenant qui navigue à travers le changement pour son profit et celui de la société dans son ensemble. ”

Cela a quelque chose de suspicieux, dans un pays comme la France où la défiance envers l’entreprise est élevée. De façon symptomatique, sur les quelque 600 élèves formés à ce jour, aucun n’est français.

Malgré ces objectifs louables, KaosPilot reste très élitiste. Avec 35 étudiants chaque année, l’école reste un cursus d’excellence comme un autre. Elle demande également d’avoir 21 ans et un minimum de deux ans d’expérience significative (voyage, job…) écrémant encore plus les candidats. Et pour affiner encore le tamis, les aspirants doivent pouvoir répondre oui à une série de questions dont voici un échantillon :

  • Voulez-vous être un leader ?
  • Voulez-vous mener votre propre business ?
  • Partir en expédition et vivre des expériences à l’étranger ?
  • Êtes-vous une personne passionnée, qui se motive elle-même et motive les autres ?
  • Voyez-vous des possibilités plutôt que des problèmes ?
  • Transformez-vous les défis en opportunités ?

Lorsque l’on demande à Christer Windeløv-Lidzélius, le principal de l’école, son opinion sur la question de l’élitisme de son école, il se défausse.

Le modèle KaosPilot est-il adaptable à l’université ?

Je pense, personnellement, que les universités auraient beaucoup à gagner en implémentant des parties de notre programme. Mais ce n’est pas seulement une question de contenus, c’est surtout une question de plate-forme pédagogique, de valeurs. Les résultats de nos collaborations avec les universités sont mitigés. Le modèle est très différent. On adorerait voir d’autre institutions passer autant de temps avec leurs étudiants que nous avec les nôtres.  Ce que, je pense, serait très adaptable dans d’autres écoles reste notre orientation en ateliers – et ainsi de former les étudiants non seulement à la méthodologie et aux théories, mais aussi de résoudre des défis, développer des projets et grandir ensemble, en équipe.

Quel est le profil des étudiants de KaosPilot ?

Nos étudiants ont entre 21 et 37 ans. Ils ont des profils très différents. Certains sont des artistes, des militaires, ils ont pu diriger des PME ou des ONG, étudier à l’université. Certains sont des pompiers, des cuisiniers, des pilotes, des ingénieurs, des enseignants, des designers. Nous ne nous intéressons pas vraiment à l’endroit d’où ils viennent, mais à celui où ils vont !

Le concept est-il élitiste ?

KaosPilot n’est pas élitiste au sens traditionnel du terme. C’est élitiste dans le sens où il y a peu de places et qu’il est difficile d’y rentrer. Nous ne savons pas grand-chose des revenus des parents, mais nous avons des étudiants en provenance de milieux défavorisés comme de milieux très élevés, voire de la noblesse.

Les pilotes du chaos doivent être entreprenants ; ils doivent aussi passer à la caisse. L’école coûte 3.700 euros par an auxquels s’ajoutent 3.350 euros de frais d’inscription. Cela dit, le gouvernement danois donne à chaque étudiant une bourse universelle [en anglais] de 360 euros ainsi que des bourses liées au salaire des parents.

Un projet d'un étudiant à KaosPilot

Le gouvernement français cherche à former des employés modèles adaptés au monde du travail, en allant jusqu’à lier les ressources des universités au taux d’insertion de leurs étudiants. KaosPilot s’inscrit en faux avec ce discours, cherchant à donner aux étudiants les moyens de réaliser leurs projets. Ces nouvelles approches de l’éducation, où le développement personnel prime sur les compétences techniques, font le bonheur et le fonds de commerce de plusieurs gourous.

Aux États-Unis, George Siemens fait l’apologie du « connectivisme » et de l’apprentissage « social ». Dans sa présentation au Tedx de New-York, en juin 2010, il explique que l’éducation du futur devra se réorganiser autour de la notion de connectivité et montrer comment les réseaux se forment, ce qu’ils permettent etc. Cette approche par le réseau correspond aux évolutions économiques du capitalisme actuel où le pouvoir revient à ceux capables d’organiser des réseaux pour former des projets.

Cliquer ici pour voir la vidéo.

Au Royaume-Uni, l’initiative Opening Minds portée par une ONG vieille de trois siècles, aide les professeurs du secondaire à enseigner la citoyenneté, la gestion de l’information, le travail d’équipe et la gestion du temps au même titre que les matières traditionnelles.

Cliquer ici pour voir la vidéo.

La dimension élitiste et relativement fermée de KaosPilot ne doit cependant pas décrédibiliser ces méthodes d’enseignement innovantes comme étant inadaptées pour la majorité des élèves. Des systèmes alternatifs, comme la pédagogie Steiner-Waldorf, mettent l’accent sur le développement des élèves plutôt que sur l’acquisition de savoir brut. Et ça fonctionne pas si mal : les résultats des élèves des écoles Steiner-Waldorf sont au moins aussi bons que ceux des écoles traditionnelles (voir cette étude [anglais, pdf], par exemple).

Photos CC Marie-II, arthit, metz79

]]>
http://owni.fr/2010/11/10/les-pilotes-du-chaos-etudiants-de-lextreme-pour-periode-troublee/feed/ 4
L’Université de New-York supprime des matières http://owni.fr/2010/10/11/luniversite-de-new-york-supprime-des-matieres/ http://owni.fr/2010/10/11/luniversite-de-new-york-supprime-des-matieres/#comments Mon, 11 Oct 2010 16:45:31 +0000 Isabelle Delannoy http://owni.fr/?p=31127 Le week-end dernier, les professeurs et étudiants de l’université de l’État de New York (université publique, la SUNY) appartenant aux départements des langues classiques, de langue et littérature française, italienne, russe et de théâtre ont appris que leurs disciplines allaient être tout simplement supprimées. C’est en fin de semaine, vendredi tard dans l’après-midi (traduisez : quand il n’y a plus personne) et sans prévenir que le président de l’université, George M. Philip, l’a annoncé lors d’une réunion. Certains des professeurs concernés, qui se détendaient tranquillement pendant la pause dominicale l’ont même appris par des amis habitant à Paris ! C’est en effet un étudiant qui a fait fuité la nouvelle ainsi que l’intégralité de la lettre du Président à ses collègues à la télé CBS6.

Motif ? C’est la crise (et là, vous et moi commençons à nous sentir un peu concernés) : l’état de New-York réduit ses budgets et l’Université semble en première ligne : 39 millions de dollars sucrés en 2 ans.

Sombre logique économique…

Alors le Président a finalement décidé de tailler dans le vif et de supprimer ces départements, ne laissant plus en langue étrangère d’origine européenne que l’espagnol. Après tout c’était arrivé avec le département de langue et littérature allemandes en 1992, pour la même raison : restriction budgétaire. Certains professeurs ont bien espéré que cela reviendrait, mais bon…. Ils attendent toujours.

Pourtant, ça peut être utile l’allemand. Pas seulement pour les échanges industriels, simplement pour saisir des choses, comme des trucs culturels. Vous voyez Faust, Goethe tout ça… Pour réaliser la dimension faustienne à laquelle notre civilisation est arrivée, avoir lu Goethe, ça donne des idées. Et quand on est ingénieur par exemple, ou biochimiste, ou encore qu’on vous enseigne la manipulation de l’ADN, avoir lu Faust c’est pas mal. Ca donne du recul… De la même façon, Les littératures, grecques, latines françaises et russes ne sont pas n’importe quelles littératures. Elles ont eu un rôle dans l’histoire et ont contribué à fonder des valeurs et un imaginaire commun à de nombreuses nations.

Créativité et transdisciplinarité

A SUNY, Ce sont bien ces matières transversales qui sont supprimées. Des matières qui ouvrent l’esprit à notre histoire collective, mais aussi à d’autres cultures, à d’autres visions du monde, à d’autres  peuples… La créativité et le recul sur sa propre activité se nichent justement là où on ne les attend pas, dans la rencontre avec l’autre, avec l’inconnu… La créativité se niche dans les liens et les passerelles.

Il y a quelques jours j’écrivais un article sur les indicateurs de la biodiversité au service des entreprises et j’expliquais que l’une de nos limites est justement notre potentiel créatif liée à notre amour du quantitatif, des chiffres, du simplifié. De la même façon, Jean Pierre Dupuy, un des plus grand philosophe actuel pour penser la crise, appelle dans un article publié en 2007,« du bon usage des catastrophes »,  à notre capacité à imaginer à créer des scénarios pour l’avenir afin d’offrir à la collectivité des moyens de se projeter dans l’après catastrophe pour pouvoir la surmonter… Comme il le dit lui-même, quelles matières plus fécondes que littéraires peuvent le mieux nous y projeter ?

Notre potentiel créatif ne se niche plus dans la technique et le dialogue avec ses seuls pairs. Il se développe dans la trans-disciplinarité. Et parce que notre civilisation technique montre ses limites, l’appel aux disciplines littéraires, philosophiques sociales… est urgent et requis.

Une crise… intellectuelle ?

C’est la crise. Alors on taille. Et l’Etat de New York diminue ses budgets pour l’université….

Oui mais affronte-ton n’importe quelle crise ? L’an dernier Henry Kissinger déclarait “Never have so many transformations occurred at the same time in so many different parts of the world” en appelant à réfléchir et construire un nouvel ordre mondial.

Est-ce en rognant les budgets misant sur notre plus grand potentiel, l’intelligence de la nouvelle génération, que nous nous armons pour affronter une telle situation ? Non.

Ce qui se passe dans l’université SUNY est à l’image de ce qui peut nous arriver demain, partout : faire céder les derniers bastions de la possibilité d’une réflexion transdisciplinaire, holistique et global mettant au centre l’homme,  apprenant de son histoire, et de sa diversité. Et continuer la voie sur laquelle nous sommes lancés à pleine vitesse depuis trois siècles, la prépondérance de la  vision techniciste du monde. Et poursuivre droit dans le mur.

Des appels à conserver ces départements menacés de langues classiques, langue et littérature française, italienne, russe et de théâtre vont s’organiser et être lancés. Nous vous tiendrons au courant. Lorsqu’une université d’une telle ampleur que SUNY prend de telles décisions, elle légitime les mêmes décisions pour d’autres universités dans l’avenir, y compris les nôtres. Nous soutiendrons donc de notre côté ces appels.

> Dans l’attente et pour en savoir plus, de nombreuses réactions outre atlantique se font déjà entendre :

Sur des blogs, y compris de professeurs concernés  :

> Article initialement publié sur Eco-Echos et ecolo-info

> Crédits photos CC FlickR par Zephyrance – don’t wake me up. et Feuillu

]]>
http://owni.fr/2010/10/11/luniversite-de-new-york-supprime-des-matieres/feed/ 1
Futurity.org, la voie du futur pour les universités ? http://owni.fr/2010/03/11/futurityorg-la-voie-du-futur-pour-les-universites/ http://owni.fr/2010/03/11/futurityorg-la-voie-du-futur-pour-les-universites/#comments Thu, 11 Mar 2010 09:07:28 +0000 Aude van den Hove http://owni.fr/?p=9696 capture-de28099ecran-2010-03-11-a-095946
Futurity.org , démarré en septembre 2009 par les universités américaines de Duke, Stanford et Rochester, offre la possibilité aux universités de recherche de ne plus être dépendant des médias pour faire connaître les résultats de leurs recherches.
Début mars 2010,  les 20 universités du “Russel Group” anglais, comprenant Cardiff, Leeds, Nottingham, Sheffield, Warwick, King’s College London et University College London, ont rejoint les 46 universités américaines faisant partie de ce réseau. Le Russell Group les a rejoint car d’après Wendy Piatt, directrice générale du groupe,  ils ont été impressionnés par la qualité des articles postés et par ce concept rafraichissant.

Afin de faire circuler leurs articles, futurity.org utilise les réseaux sociaux tels que Facebook ou Twitter, mais aussi Google News. Des applications pour les téléphones portables du type iPhone, Blackberry, etc. sont en cours de développement.

Après avoir un peu surfé sur le site, je trouve que c’est une mine d’or pour avoir de l’information fraîche et nouvelle. Par exemple, un article écrit par Joy Myers le 5 mars 2010 parle de “la chanson du soleil”. Cet article, accompagné d’une vidéo, n’est pas trop compliqué, il est compréhensible pour tout un chacun. Les autres articles que j’ai lu sont aussi comme ça.

Le site regroupe les articles en différentes catégories (Terre & Environnement, Santé & Médecine, Science & Technologie, Société & Culture) et montre les plus récents en premier. De plus, une recherche par université ou par mois de publication est disponible.

Ce concept, assez récent, ne semble pas encore être arrivé en Belgique. Après avoir fait quelques recherches pour trouver un site similaire reprenant les résultats belges, mais je n’ai rien trouvé, est-ce parce qu’il n’y en a pas? Ou peut être n’ai-je pas utilisé les bons outils de recherche…Mais y a-t-il (encore) un intérêt des médias dans la publication des résultats de recherche scientifique des universités? Les universités belges compte-t-elle encore vraiment sur les médias pour faire connaitre leurs résultats.

Je pense qu’un site d’une telle envergure est une des voies du futur de l’information. Facile d’accès et d’utilisation, l’utilisateur/consommateur d’informations trouvera facilement ce qu’il recherche. Il permet de rassembler en un endroit des informations intéressantes et “fiables”… À quand un site belge?

Article de base ici

Billet initialement publié sur le blog d’Aude van den Hove

]]>
http://owni.fr/2010/03/11/futurityorg-la-voie-du-futur-pour-les-universites/feed/ 1
L’internationale hadopienne… http://owni.fr/2010/03/04/l%e2%80%99internationale-hadopienne%e2%80%a6/ http://owni.fr/2010/03/04/l%e2%80%99internationale-hadopienne%e2%80%a6/#comments Thu, 04 Mar 2010 06:57:38 +0000 Stéphane Favereaux http://owni.fr/?p=9384 514221118_cfb9d54f01

Dans un mouvement désormais de plus en plus étendu à l’Europe, de la Suisse à l’Angleterre en passant par la Belgique et la liberticide France, Hadopi n’en finit plus de mettre au monde des rejetons illégitimes visant toujours plus à porter atteintes aux libertés sur le Net. Dernier petit bâtard légaliste en date : la perfide Albion le sera de plus en plus elle qui, dans un mouvement unificateur avec ses voisins européens souhaite filtrer les hotspots…

Le wifi ouvert va vite devoir la fermer… A l’instar du Net en général, si la portée des dispositifs légaux poursuit sa route inexorable, ils lutteront contre la Netopie et l’anarnaute lambda revendiquant ses libertés sur ce réseau mondial, par définition difficilement contrôlable.

Pourtant, à en croire les velléités des législateurs, prendre des prétextes criminels pour légiférer demeure pertinent et nécessaire. Faire taire un espace de libertés, d’expression, où les opinions s’expriment largement apparaît plus que jamais fondamental pour éviter les buzz délétères.

De fait, donc, le Royaume Uni ne s’attaquera pas directement aux Pirates du Web mais plutôt aux abonnés en mettant en place sa version anglaise de la riposte graduée. Ne sachant pas bien où donner de la matraque, les projets de loi préfèrent taper large, tirer dans le tas, au cas où… En balançant des milliers de mails, en coupant de milliers de connexions jour après jour, avec un peu de bol, on finira bien par choper un vilain criminel diffusant deux chansons de Chantal Goya et portant atteinte à la création française, ou anglaise, en l’occurrence.

Le propriétaire de l’accès internet libre, ce fameux hotspot, deviendra donc coupable, lui aussi. Bibliothèques, écoles, universités, entreprises seront donc en première ligne. Il sera coupable de n’avoir pas sécurisé son accès. Mais… le but d’un hotspot libre n’est-il pas justement d’être libre pour permettre aux internautes d’avoir accès au web où que l’on soit ?

Comment réagiront Free et SFR wifi avec leurs propres hotspots, si tant est que la France s’amuse à prendre les mêmes mesures ? Se dénonceront-ils eux-mêmes aux autorités dans une réelle volonté suicidaire de constater que sur leurs Hotspots les téléchargements sont illégaux, et de transmettre à la justice les informations permettant de confondre les pieds nickelés du Web ?  Sécuriseront-ils à outrance ?

3410470754_f7c5a4fb68

De plus, s’attaquer aux abonnés est tellement facile pour une justice qui nulle part ne se donne les moyens d’agir ! Pas de perquisitions, pas de disques durs à fouiller, pas d’interrogatoires. Présumer quasiment coupable est tellement plus simple. Si on devait mettre en taule tous les téléchargeurs d’au moins un fichier illégal, autant construire tout de suite des murs autour du pays, des villes, on ne sait jamais et planter un drapeau Chinois sur l’Elysée ou sur Buckingham, ce serait plus rapide.

J’ai toujours eu envie de n’être coupable de rien et d’être lourdement condamné au motif qu’il n’y a pas de motif. La justice est tellement logique qu’elle en devient anti-démocratique et anticonstitutionnelle dans les faits ! Belle régression vers un régime merveilleusement libre et émancipant les peuples.

Les flics aux carrefours des proxys, aux ronds-points des torrents, ça vous décore agréablement un paysage d’une nation libre. Autant qu’un nain de jardin… avec la même pertinence décorative et la même présence délicieusement rassurante. Le Tonfa virtuel fera peut-être moins mal que la matraque IRL mais elle fera au moins autant si ce n’est plus de dégâts sur les citoyens surveillés.

Pour revenir sur les terres d’Elizabeth 2, le Department for Business Innovation & Skills, le BIS, se demande si tout organisme d’Etat ou privé laissant libre d’accès son hotspot ne deviendrait pas de fait un FAI… ou s’il doit rester simple abonné. S’il est FAI, il lui faut balancer les IP des connectés à son spot, sinon, une bibliothèque pourra se voir couper l’accès au Net, ce qui est somme toute parfait pour empêcher l’accès à l’information, idem dans une école, une université ou une entreprise.

Sans être parano, tout cela s’assimile aussi à une réelle volonté de mettre sous contrôle les échanges d’infos ou simplement l’accès à l’information. Belle démonstration de potentielle censure par destination de la part des démocraties.

Autre tendance de cette loi : ne créer aucune exemption pour ne pas favoriser l’installation de faux hotspot destinés uniquement au téléchargement illégal… ou de l’usage de la paranoïa et de la présomption de culpabilité révèle Zdnet.UK dans un document troublant, inquiétant.

Qui plus est, puisque pour éviter tout problème, il faut faire reculer le Net de 10 ans, il serait envisagé de configurer les firewalls pour interdire l’accès au P2P, aux sites intégrant du Flash, etc. De quoi permettre aux internautes de vivre l’ère délicieuse du Web 1.0…

Pendant ce temps là… en France…

… Hadopi laisse une relative ouverture aux Hotspots. La riposte graduée s’appliquera en dernière mesure mais il sera, au préalable, possible de sécuriser la connexion sous l’égide de dispositifs officiels signés Hadopi…. Cela évitant au final de couper les Hotspots d’entreprises ou d’institution… Pour une fois, la mesure semble pertinente… mais la sécurisation étant floue, et la liste blanche de la commission hadopi autant sélective que restrictive… il va de soi que les possibilités d’accès seront excessivement bornées…

Hadopi montre une fois encore ses limites… Hadopi montre encore une fois qu’elle s’avère inapplicable… faudra-t-il fliquer chaque réseau ouvert pour vérifier ce que chaque internaute y fait ? Le nombre de site consultés, le nombre de connexion aux hotspots par jour, par heure, augmentant constamment, la surveillance devient pratiquement impossible.

Le législateur risque de se voir confronté à cet état de fait très rapidement, y compris sur des réseaux domestiques non sécurisés, ce qui sera un élément à charge de plus contre ce dispositif sécuritaire inique, infondé, inapplicable à ce jour faute de décret d’application.

Résister à cette loi est donc toujours d’actualité. /-)

————————————————————–

Illustration FlickR CC d’arcy norman

]]>
http://owni.fr/2010/03/04/l%e2%80%99internationale-hadopienne%e2%80%a6/feed/ 1