N°18 décembre 2017

Sommaire - N° 18, Décembre 2017

Comptes-rendus d'expériences :

Comptes-rendus d'événements :

Recensions :

Editorial

Comité RESSI

Editorial n°18

Nous avons le plaisir de vous proposer le 18ème numéro de RESSI, revue électronique suisse en science de l’information qui paraît une fois par an.

Lecture numérique, valorisation innovante d’archives audiovisuelles, gestion des données de la recherche, utilisabilité, démocratisation des archives, protection des biens culturels : ce sont quelques-uns des thèmes abordés dans ce numéro, riche en retours d’expériences, dus autant à des jeunes chercheurs qu’à des praticiens, juniors et seniors.

Sous la rubrique « Compte rendu d’expérience », sept contributions.

La première, intitulée eLectures : la lecture numérique grand public à la BCUL, est signée par quatre collaborateurs du site de la Riponne de la Bibliothèque cantonale et universitaire de Lausanne, à savoir Laurent Albenque, directeur adjoint, Charlotte de Beffort, responsable du prêt, Christophe Bezençon, responsable des collections, et Françoise Simonet, responsable des renseignements et de l’accueil. Il s’agit d’un retour d’expérience approfondi sur l’exploitation de la plateforme eLecture à la BCUL depuis 2 ans. Il décrit l’origine du projet, la mise en œuvre, les solutions choisies, l’offre et sa communication, et propose un bilan de son utilisation ainsi que des développements possibles.

Toujours sur la lecture numérique, la deuxième contribution, Livres et presse numériques en bibliothèque de lecture publique : état des lieux de l’expérience menée par les bibliothèques de Carouge, sous la plume d’Yves Martina, directeur des bibliothèques de Carouge, décrit également le contexte et le bilan intermédiaire d’une offre en presse et livres numériques dans un contexte de bibliothèques municipales.

La troisième contribution émane conjointement d’Alain Dufaux, directeur des opérations et du développement au centre Metamedia, à l’EPFL et de Thierry Amsallem, président de la Fondation Claude Nobs. Intitulée Le Montreux Jazz Digital Project : la sauvegarde des archives audiovisuelles du Montreux Jazz Festival, un patrimoine pour l’innovation et la recherche, l’article décrit les différentes activités du projet de sauvegarde, à savoir la numérisation des archives, la gestion de l’archivage et surtout, l’identification et le suivi de -nombreux- projets de recherche et d’innovation associés aux archives du festival de jazz, puis donne quelques perspectives pour l’avenir.

La quatrième contribution est aussi signée par des collaborateurs de l’EPFL, mais de la bibliothèque, cette fois. Rédigée par Eliane Blumer, coordinatrice des données de recherche, bibliothécaire de liaison pour les sciences de la vie, et par Jan Krause, data librarian, l’article Le service de gestion des données de la recherche à la bibliothèque de l’EPFL : historique, services proposés, perspectives décrit l’origine du service, son fonctionnement, son mode d’organisation et donne des exemples précis de ses services de soutien et de formation.

La cinquième contribution, intitulée Archives démocratiques et signée Andreas Kellerhals, directeur des Archives fédérales suisses, est une réflexion originale sur les conditions d’une plus grande participation des citoyens à la constitution des archives (sélection, sauvegarde et description) et à leur accessibilité.

La sixième contribution est due à Nelly Cauliez, conservatrice responsable de l’Unité Régie de la Bibliothèque de Genève. Intitulée Un container mobile pour la sauvegarde des collections sinistrées : la BERCE PBC Ville de Genève, elle décrit le contexte d’acquisition, les caractéristiques et le fonctionnement de ce dispositif essentiel à la protection des biens culturels que constitue la BERCE.

La septième compte rendu d’expérience constitue la synthèse d’un travail de bachelor. Signé Julien Raemy, assistant HES à la HEG-Genève, intitulé Interopérabilité des images : de la nécessité des tests d’utilisabilité, l’article présente les initiatives existantes en termes d’interopérabilité des systèmes de diffusion d’images,-la communauté IIIF et le projet NIE-INE- et détaille les résultats de tests d’utilisabilité de deux systèmes de visionnement d’images, Universal Viewer et Mirador.

Pour la rubrique Compte rendu d’événement, on trouvera trois contributions.

La première, dans la lignée du dernier retour d’expérience, toujours signée par Julien Raemy, intitulée Retour sur la conférence IIIF (International Image Interoperability Framework), 7-9 juin 2017 au Vatican décrit le déroulement de la conférence IIIF, qui a été l’occasion d’échanges entre participants sur la visualisation, la comparaison, la manipulation et l'annotation d'images.

La deuxième est un compte rendu de la conférence Bibliosuisse qui s’est tenue à Bienne le 3 novembre 2017, et qui a réuni plus de 100 personnes membres des associations CLP et BIS, visant à réfléchir aux conditions d’une fusion des deux associations représentatives de la bibliothéconomie et de la documentation en Suisse. Si cette fusion aboutit à une seule association, en 2018, la nouvelle association ainsi créée, Bibliosuisse, deviendra un porte-parole majeur de la fonction documentaire en Suisse. Signée Halo Locher, secrétaire général BIS et CLP, et Katia Röthlin, secrétaire générale adjointe BIS et CLP, intitulée Les fondements de Bibliosuisse : état des discussions elle explicite les grands principes qui devraient gouverner la future association.

La troisième est un retour sur la 4ème école d’été internationale francophone en sciences de l’information et des bibliothèques qui s’est tenue à Montréal en juillet 2017. Intitulée Marketing et public, ou comment repenser l’approche bibliothèques sur l’accueil de leur public et signée par Elise Pelletier, assistante du Master IS (Sciences de l’information) de la HEG-Genève, l’article détaille, aussi bien sur le fond que sur la forme, les différentes interventions sur le nécessaire marketing en bibliothèque, qui ont eu lieu durant la première semaine de cours de l’école d’été.

Finalement, on trouvera le compte rendu de l’ouvrage de Jean-David Sandoz, intitulé Du bon usage des Lumières : le livre numérique libre, sous la plume d’Alain Jacquesson, ancien directeur de la Bibliothèque de Genève, qui résume cet ouvrage, lequel recense les différents outils et formats existants pour la publication de livres électroniques libres.

Nous vous souhaitons une très bonne lecture et remercions vivement les auteurs de cette édition, ainsi que les fidèles réviseurs et ceux et celles qui ont contribué à la mise en ligne de RESSI. Nous vous encourageons à nous soumettre des propositions d’article à tout moment, et à contribuer à faire connaître RESSI à toute personne intéressée.

Le Comité de rédaction

eLectures : la lecture numérique grand public à la BCUL

Laurent Albenque, directeur adjoint

Charlotte de Beffort, responsable du service du prêt

Christophe Bezençon, responsable du service des collections

Françoise Simonet, responsable des renseignements et formation des usagers

Bibliothèque cantonale et universitaire de Lausanne, site Riponne, Pl. de la Riponne 6, 1014 Lausanne

 

eLectures : la lecture numérique grand public à la BCUL

Introduction : l’offre numérique à la BCUL

C’est tomber dans les poncifs que de dire que le numérique occupe de plus en plus de place dans l’offre documentaire d’une bibliothèque telle que la Bibliothèque cantonale et universitaire de Lausanne (BCU Lausanne ou BCUL pour la suite de cet article). Les ressources numériques représentaient, en 2016, 60% de ses dépenses d’acquisitions.

Mais c’est aussi un peu simplificateur de s’arrêter à ce chiffre-là. En effet, l’offre numérique est très majoritairement destinée à la communauté universitaire : 98% des dépenses pour ce type de collections ont été faites pour ce public particulier. Cette disproportion est le résultat de deux phénomènes dont on ne sait pas vraiment s’ils sont, ou non, dépendants l’un de l’autre : l’offre et les conditions d’accès à cette offre d’une part, la manière de « consommer » l’information de l’autre.

Concernant l’offre, la documentation numérique vulgarisée ou grand public francophone reste relativement anecdotique et essentiellement destinée à une vente directe auprès des particuliers [1]. L’offre numérique pour les usagers de bibliothèques est non seulement limitée mais souvent restreinte au territoire français. Cela ne nous empêche pas de fournir l’accès à plus d’une vingtaine de ressources numériques conçues pour le grand public. Le second barrage entre les usagers et ces collections sont les conditions d’accès. Souvent liées à une adresse IP, elles ne peuvent être consultées que sur site physique par le wifi ou par les postes fixes mis à disposition. A ce stade, tous les avantages liés à la mobilité et à la légèreté du numérique s’effondrent. En effet, malgré leur dématérialisation, les documents numériques nécessitent une présence sur place… comme pour les « bons vieux ouvrages de référence poussiéreux ». A ce jour, pour le grand public, nous ne pouvons offrir d’accès à distance que pour notre offre eLectures, objet de cet article, et à Vodeclic, plateforme d’auto-formation informatique. A noter que, grâce au VPN ou aux divers systèmes d’identification qui lui sont destinés, la communauté académique peut accéder à toutes les ressources numériques depuis n’importe quelle connexion internet.

Si on parle de la manière de consommer l’information, il est évident que les pratiques académiques se tournent vers le numérique pour échanger des informations, des données de recherche et leurs résultats, c’est une consommation dans un cadre professionnel qui se veut aussi efficace que possible. Pour la documentation ou la littérature « de loisirs », on remarque que même si les usagers en Suisse semblent largement équipés en terminaux mobiles [2], l’usage de ces derniers ne prend pas le dessus sur les livres papiers (c’est évidemment différent pour la musique, les films et, dans une certaine mesure, pour la presse). Ce n’est en tout cas pas une attente forte de la part de nos usagers. Il y a donc un travail important à réaliser pour faire connaître une offre et donner la possibilité d’un accès facile et intuitif. En clair, le lecteur « grand public » ne va pas se ruer sur cette offre, il va falloir la lui apporter et lui en démontrer les avantages.

Etude sur l’utilisation actuelle et les attentes vis-à-vis de l’offre numérique de la BCUL

Constatant la richesse de l’offre numérique universitaire, la BCUL a fait le choix de proposer de la lecture numérique à distance à l’intention du grand public vaudois. Ce choix s’inscrit dans la suite d’une enquête que le site Riponne de la BCUL avait menée en 2012 auprès de ses usagers et les attentes de ceux-ci relativement à l’offre numérique en bibliothèque.

Deux approches méthodologiques complémentaires avaient alors été mises en place : une enquête en ligne auprès des usagers actifs du site de la Riponne, lancée début septembre 2012, qui a reçu de très bons échos, le taux de participation s’étant élevé à 24%, suivie de 16 entretiens individuels en face-à-face organisés en octobre et novembre.

Les résultats de l’enquête ont montré que :

  • 85% des usagers possédaient un ordinateur portable, 57% un ordinateur de bureau, 47% un Smartphone, 17% une tablette et 7% une liseuse. En cela, ils rejoignaient le taux d’équipement constaté en Suisse (voir plus haut).
  • La plupart des usagers étaient curieux et ouverts à l'idée du numérique tout en restant encore très attachés à la version papier. L'offre numérique était vue comme importante avant tout en tant que complément de l'offre papier.
  • Les ressources numériques étaient perçues comme difficiles à repérer dans l'offre de la BCUL et leur utilisation difficile. Le souhait des répondants était de pouvoir accéder à des personnes de référence pour les renseigner et les aider.
  • L'accès à distance et le téléchargement étaient des conditions indispensables pour une utilisation fréquente et régulière d’une future offre numérique BCUL.

Mise en œuvre du projet

Exploration des solutions existantes

Suite à l’enquête de 2012 sur les ressources numériques grand public, un groupe de travail interne a établi un catalogue de propositions de suites à donner, avec une vingtaine d’actions réparties selon quatre axes : communiquer et accroître la visibilité, accompagner les usagers et les former, améliorer l’accès et réfléchir au développement de l’offre numérique.

C’est ce dernier point qui nous a conduit à étudier l’offre numérique consacrée à l’actualité littéraire.

Le choix – nous étions en 2013, rappelons-le – s’est porté assez rapidement sur la société française Numilog, un des seuls acteurs sur le marché francophone à l’époque proposant une collection numérique ET accessible à distance dans le segment principal qui nous intéressait.

Considérant l’expérience concluante de la Médiathèque Valais avec Numilog, nous avons fait part de notre intérêt à cette société du groupe Hachette. Suite au test de la ressource organisé durant le mois d’octobre 2013, nous avons conclu qu’il serait intéressant de travailler avec Numilog, au moins à titre transitoire. En effet, bien que le catalogue proposé n’ait pas été à la hauteur de nos attentes (principalement en termes d’étendue de l’offre), ni la plateforme suffisamment intuitive à notre appréciation, l’absence d’alternative francophone faisait alors de Numilog un fournisseur quasi-incontournable. Le dossier n’a finalement pas abouti, Numilog nous ayant annoncé début 2014 que, pour des raisons de « géoterritorialité », les éditeurs ne seraient plus en capacité de desservir la Suisse.

Nous avons ensuite cherché à identifier un partenaire commercial suisse romand. Lors d’une rencontre en janvier 2014, nos interlocuteurs de la librairie Payot se sont dits sensibles à notre souhait de travailler avec eux dans le domaine du livre électronique, sans toutefois être en mesure de nous faire une proposition.

Les recherches se sont alors tournées vers une plate-forme québécoise lancée en mars 2012, « pretnumerique.ca ». Une phase de test avait débuté dans plusieurs établissements de lecture publique en France avec le projet français Prêt Numérique en Bibliothèque (PNB). Ce projet apportait le double avantage d’un catalogue plus large avec une importante marge d’accroissement, particulièrement en langue étrangère ; et d’un accès public via une plateforme éprouvée (identique à pretnumerique.ca).

Nous avons donc finalement approché la société Feedbooks, Hadrien Gardeur, son directeur, nous ayant annoncé fin avril 2014 l’ouverture à la Suisse des catalogues d’éditeurs impliqués dans PNB, et un test a été lancé le 23 juillet 2014.

Choix et description de la solution Cantook-PNB-Feedbooks

Avant d’aborder la période de tests et d’implémentation à la BCU Lausanne, revenons quelques instants sur la formule choisie : PNB [3].

Le projet français PNB repose sur le hub de la société Dilicom, par lequel éditeurs, distributeurs, libraires et clients finaux (comme les bibliothèques) sont mis en relation. Ce projet, lancé en 2014, est coordonné par le ministère de la culture français. Pour ce projet, trois acteurs ont été choisis (au niveau national) :

  • Libraire (Feedbooks dans notre cas). Feedbooks possède deux offres distinctes en fonction du public (une offre plus fournie pour les particuliers que pour les bibliothèques)
  • Interface usager (Cantook de la société De Marque dans notre cas). Mise à disposition de l’interface usager permettant :
  • Le prêt de livres numériques par les lecteurs eux-mêmes,
  • La gestion des prêts et la mise en valeur des collections par les professionnels de la BCU Lausanne.
  • Tiers de confiance (Dilicom). Il constitue une garantie pour tous les acteurs : les bibliothèques et les distributeurs doivent avoir un correspondant qui atteste de la situation de leurs achats et de leurs prêts. C’est chez Dilicom que les libraires passent leurs achats, leurs lignes comptables avec les distributeurs et toutes les écritures nécessaires à la bonne fin d’une transaction. Au travers de Dilicom ne circule donc que de l’information. Dilicom comptabilise les achats de livres électroniques et les demandes de prêts.

Le processus est donc le suivant : Feedbooks transmet ses fichiers, les métadonnées associées, à Cantook. Cantook les met à disposition sur sa plateforme pour les rendre accessibles au public et permet le prêt. Les demandes de prêt sont ensuite transmises à Dilicom.

A ce stade, il est important de noter que la bibliothèque n’est jamais dépositaire des fichiers. Ceux-ci transitent directement du distributeur au lecteur. La bibliothèque ne possède pas, même temporairement les livres électroniques, elle ne possède que les métadonnées des titres et des licences qui sont constituées par des droits de prêt.

Implémentation à la BCUL

Les tests ont eu lieu durant l’été 2014, tests beaucoup plus concluants que ceux effectués quelques mois auparavant sur la solution Numilog.

Le contrat avec Feedbooks est alors signé au mois d’octobre, pour un lancement de la plateforme en mai 2015. Ce projet a nécessité la coordination et le travail de plusieurs entités au sein de la bibliothèque : le service des finances, celui des ressources électroniques, les responsables de collections, les services informatique, communication et les services publics. En voici les principales étapes :

Graphique 1 : Calendrier d’implémentation d’eLectures à la BCU Lausanne (2014 - 2015)

L’offre documentaire

Politique des éditeurs français

Ayant forcément constaté, à partir de la fin des années 1990, les ravages d’un passage au numérique non maîtrisé par rapport au chiffre d’affaires de l’industrie musicale mondiale, les éditeurs français sont aujourd’hui moins enthousiastes que leurs homologues anglo-saxons sur le sujet. Si leur prudence peut se comprendre, elle ne fait pas toujours l’affaire des bibliothèques.

Outre la question du piratage, la crainte principale des éditeurs est toujours la même, que le prêt numérique en bibliothèque cannibalise les ventes des livres physiques qui restent au cœur de leur modèle d’affaires. Cette volonté se retrouve dans les conditions d’achat et de prêt faites aux bibliothèques.

Avant tout, il est faux de penser qu’une bibliothèque (ou un particulier) « achète » un livre numérique. Ce que nous achetons, c’est le droit d’accéder à un texte et non pas le texte lui-même. Pour un particulier, ce droit d’accès est censé être sans limite une fois l’ouvrage acheté. Mais il ne peut ni le prêter ni le donner, au contraire de ce qui se fait avec un ouvrage papier. Pour une bibliothèque, les licences sont limitées dans le temps et comportent un nombre total de prêts autorisés par ouvrage acheté : la licence expire lorsque tous les prêts ont été consommés ou, si ce n’est pas le cas, lorsqu’elle arrive au terme de la durée fixée par l’éditeur. L’autre paramètre à prendre en compte dans une décision d’achat est le prix. Contrairement au modèle anglo-saxon, où le prix du livre numérique est significativement plus bas que celui de l’édition papier, les éditeurs français maintiennent un prix du numérique plus élevé que celui de la version papier (+ 30 ou 50%).

Enfin, le gros avantage du livre numérique est la possibilité de prêter simultanément à plusieurs lecteurs le même ouvrage. Techniquement, le nombre de prêts simultanés possibles est bien entendu illimité. Dans les faits, chaque éditeur intègre une limite dans la licence. C’est un avantage proposé par les groupes français comme Madrigall, Editis, La Martinière ou encore Actes Sud. Le prêt simultané n’existe par contre pas chez les éditeurs anglo-saxons.

Outre ces deux conditions de base, de nombreuses licences sont hybrides, Les éditeurs combinent ainsi des conditions différentes en fonction des titres. Par exemple, ils proposent des licences mono-utilisateur pour les nouveautés, multi-utilisateurs pour les titres plus anciens, voire illimitées pour les titres tombés dans le domaine public.

Pour résumer, ces licences sont relativement coûteuses pour les bibliothèques et les laissent face à un double verrou : un nombre limité de prêts sur une durée elle aussi limitée. Heureusement, sous la pression des bibliothèques, certains éditeurs ont fait évoluer leurs conditions dans un sens plus favorable aux besoins. Sans entrer dans les détails, la durée de licence a souvent été allongée pour les titres de fond et le nombre de prêts totaux possibles augmenté pour les nouveautés. Par contre, en parallèle, ces améliorations se sont aussi accompagnées d’une hausse du prix de la licence ou d’une baisse du nombre de prêts simultanés possibles.

Aujourd’hui, les licences proposées ont généralement une durée de 5 à 10 ans, avec un nombre de prêts totaux entre 25 et 60. Le nombre d’emprunts simultanés varie de 5 à 15 avec des exceptions : aucun chez Albin Michel, 50 chez Izneo (groupe Dargaud). Le groupe Hachette se singularise par des conditions plus proches de celles des grands groupes mondiaux dont il fait partie : une licence et un nombre de prêts illimités qui s’accompagnent d’un prix d’achat des nouveautés équivalent à trois fois le prix de la version papier et de l’impossibilité de faire des emprunts simultanés.

Les marges de négociation des bibliothèques sont limitées, hormis le boycott d’éditeurs dont les conditions sembleraient par trop extravagantes. Mais le système fonctionne et répond à un besoin naissant du public. Se posera néanmoins, à terme, la question du poids financier à donner à ces ressources au sein des budgets d’acquisitions et de la pérennité de l’offre. Ce sont là des questions que connaissent déjà les bibliothèques universitaires.

L’offre proposée par la BCUL.

La constitution de notre catalogue a été tributaire de l’offre de notre fournisseur qui, pour les bibliothèques suisses, se limitait à moins de 20'000 titres à la fin 2014, dont plus du quart en anglais. Depuis, l’offre pour la Suisse a rejoint celle de la France et de la Belgique avec plus de 128'000 références disponibles à l’été 2017.

Plusieurs choix guident la constitution de notre catalogue. Un équilibre entre une offre francophone de fiction (53% de nos titres) et une offre documentaire (31%) qui nous permet de répondre à notre vocation de bibliothèque grand public tout autant qu’universitaire. L’inscription à la BCUL étant limitée aux plus de 14 ans, nous avons naturellement exclu les livres jeunesse de nos achats. Enfin, souhaitant nous adresser au public allophone, bien présent dans le canton de Vaud, nous avons constitué un fonds de livres en anglais (fictions et documentaires) qui représente 16% de notre catalogue.

Après une première phase où notre catalogue s’est nourri principalement de l’achat de titres de fond pour constituer la base de notre catalogue, nous avons ensuite mis l’accent sur l’achat régulier de nouveautés. Cet équilibre permet à la fois de répondre à l’appétence bien connue du public pour les nouvelles publications (tout particulièrement pour la rentrée littéraire), tout autant qu’aux demandes plus pointues de certains de nos lecteurs.

Il est évident que la constitution récente de ce catalogue numérique (avec près de 11'000 titres pour eLectures à la BCUL) ne lui permet pas, et de loin, d’atteindre la richesse d’un fonds physique anciennement constitué qui compte plusieurs millions de documents. Plusieurs enseignements peuvent néanmoins être tirés de l’usage qu’en font nos lecteurs.

Les nouveautés de littérature et les policiers s’arrogent la plupart du temps la totalité du hit-parade des prêts. Il est rare qu’un essai s’y glisse. En cela, la lecture numérique suit la même tendance que les prêts physiques. La possibilité d’emprunts simultanés accentue d’ailleurs le poids des titres les plus prêtés dans le total des transactions. A l’opposé, une analyse plus fine montre que beaucoup d’ouvrages de fond sont aussi empruntés, même si ce n’est qu’une seule fois sur deux années d’exploitation d’eLectures. C’est moins visible, à première vue, que pour un titre emprunté plusieurs dizaines de fois sur la même période mais cela contribue tout autant au succès de l’offre.

Les outils statistiques mis à disposition ne nous permettent pas d’aller plus loin sur ce point. Ils restent pour l’instant assez généralistes : nombres de prêts, d’usagers et de connexions, livres les plus empruntés, répartitions des prêts par grandes thématiques. Il nous appartiendra de travailler avec Cantook pour en améliorer la souplesse d’utilisation et surtout les adapter à nos besoins. Une lecture plus fine des usages nous permettra ainsi de mieux adapter nos achats. C’est une volonté qui est d’ailleurs partagée par tous les acteurs, utilisateurs comme fournisseurs.

La fiction représente 70% des prêts, dont 15% de romans policiers et de science-fiction. Les documentaires constituent les 30% restants. Pour ces derniers, les domaines les plus représentés sont les sciences humaines (incluant l’Histoire), les biographies et le tourisme (guides de voyage). Ces chiffres incluent les ouvrages en anglais qui s’élèvent à environ 8% des prêts. On voit donc ici l’importance des collections dans les choix de nos lecteurs, même si les nouveautés et les titres les plus prêtés sortent du lot.

Quelle place pour les éditeurs suisses ?

Dans l’absolu, en tant que bibliothèque cantonale, nous souhaiterions pouvoir proposer à nos usagers du contenu d’auteurs ou d’éditeurs suisses, romands et vaudois afin de les mettre en valeur. En réalité, nous ne pouvons qu’offrir des auteurs suisses publiés en France et dont l’éditeur offre une version numérique. Les éditeurs romands, même les plus importants, semblent encore plus frileux que les Français vis-à-vis de l’édition numérique [4] et donc, si ce pas-là n’est pas encore franchi, celui de le proposer à des bibliothèques pour le prêt n’est pas non plus en ligne de mire.

Nous avons donc pris l’option de proposer ce qui était disponible auprès de notre fournisseur et des éditeurs français avec l’espoir que notre offre prenne de l’ampleur et fasse mieux connaître la lecture numérique dans nos contrées auprès de nos éditeurs. Le temps faisant, l’espoir de voir la littérature suisse mieux représentée sur ces plateformes se réalisera peut-être. Nous aurions alors avec nous l’expérience d’avoir déjà monté ce genre d’offres et un public réceptif et adepte de ces technologies.

Nécessité de faire connaître eLectures pour la faire vivre

Formation des professionnels : un nouveau dynamisme

Lancer une telle offre, pour un public généraliste, sans accompagnement, nous semblait téméraire. Or, pour accompagner, il fallait que les professionnels, et en particulier ceux travaillant dans les services au public, soient au point sur les différentes facettes de la prestation (contenu, fonctionnement de la plateforme et du prêt numérique, connaissance des supports, etc.)

Nous avons donc organisé, dans les mois précédant le lancement de la plateforme, une formation des collaborateurs, basée principalement sur l’expérimentation personnelle.

En 2014, l’offre de livres numériques de loisirs en français était peu développée. En revanche la BCUL a été pionnière dans le test de tablettes et de liseuses, en mettant à disposition des collaborateurs du matériel pour expérimenter. Les collègues étaient donc pour la plupart en possession d’une tablette et à l’aise avec son utilisation. Notre objectif principal était que tous se créent une pratique de lecture numérique, des compétences d’utilisation courante de la plateforme et du téléchargement sur des supports mobiles. Différents ateliers ont été proposés, touchant tous les collaborateurs du site Riponne ainsi que des personnes relais des autres sites de la BCUL. Des présentations ont également été organisées et ont concerné une part importante des collaborateurs des différents sites de la BCUL.

Ces actions ont été l’occasion de mettre en avant de nouvelles compétences, et ont servi de mise à niveau pour l’ensemble du personnel.

Enjeux et constat

Les formations ont permis à tous de se familiariser avec la plateforme et les outils nécessaires à l’emprunt de livres numériques, ce qui a facilité le transfert et donné une plus grande aisance aux collègues des guichets pour renseigner les usagers sur la prestation.

Un petit groupe de bibliothécaires, volontaires, a participé dès le départ aux ateliers et au support en ligne. L’expérience de résolution des problèmes des usagers a permis un approfondissement des connaissances au sein du groupe, et créé un appui à deux niveaux : les questions simples sont gérées par tous et, pour les plus compliquées, les usagers sont redirigés d’abord en interne, puis vers le support de la plateforme en cas de besoin.

Pour être efficace, il est néanmoins indispensable de rester au courant de l’évolution des technologies, en l’occurrence les différentes applications de lecture, les modèles de liseuses, les changements à venir au niveau des DRM. Le rythme n’est pas forcément facile à suivre, surtout si l’on souhaite assurer l’assimilation des informations par tous.

Du côté des bibliothécaires, c’est un constat très majoritairement positif. Ils ont été impliqués dès le départ, et le fait d’être « au front » au guichet a encouragé les uns et les autres à s’approprier la plateforme. Plusieurs se sont pris au jeu et se sont acheté des liseuses.

Plan de communication au lancement

Le lancement de l’offre nous semblait un moment crucial. Notre souhait était de marquer le coup et de créer le « buzz ».

Il fallait bien sûr informer nos usagers de cette nouvelle prestation, mais, offre numérique oblige, et la BCUL étant une bibliothèque cantonale ouverte à tous, il semblait important d’élargir la démarche à la population vaudoise a minima. Forts de ce constat, allait-on viser un lancement « classique », avec une présentation physique dans divers lieux du canton, ou une communication plus digitale ?

En partant du principe que la promotion devait être numérique, nous avons lancé une communication hybride, avec une part digitale importante, grâce au service de communication de la BCUL et d’une agence externe. Le budget de cette campagne n’a pas dépassé les quelques milliers de francs.

De petites vidéos ont ainsi été réalisées avec le message récurrent suivant :

« Jusqu’à l’été, suivez et partagez les aventures de l’homme-bulle eLectures à travers 6 vidéos de 30’’ décalées où les circonstances sont autant d’occasions de profiter de l’offre eLectures », avec pour chacune un slogan en lien avec une spécificité de la prestation:

  • eLectures - en toute légèreté ! à Le stockage important sur un support de 100 et quelques grammes 
  • eLectures vous suit partout à La lecture où que l’on se trouve
  • eLectures, à portée de clic ! à Le téléchargement à distance  
  • eLectures – avec vous tout le temps ! à L’accès 24/24, 7/7
  • eLectures - des livres toujours à la page ! à De nouveaux achats réguliers
  • eLectures - Nouvelle offre, toujours gratuite ! à La gratuité

Les vidéos ont été diffusées à une semaine d’intervalle sur la chaîne YouTube de la BCUL[5], le site web, Twitter et Facebook.

Pour la part classique de la promotion, un logo a été créé, des signets réalisés, et des affiches placardées dans plusieurs villes du canton. Un « homme sandwich » a distribué des signets au centre-ville et à la gare de Lausanne. Plus traditionnel aussi, un stand pour les cafés numériques a été installé à l’entrée du site Riponne, afin de pouvoir présenter l’offre aux lecteurs.

Formation des lecteurs, accompagnement, renseignements

La mise en place d’une offre numérique va de pair avec un accompagnement des utilisateurs, sur place et à distance, nous en étions convaincus dès le départ.

Un dispositif de formation a donc été mis en place, comprenant :

  • L’animation d’ateliers en présentiel,
  • Le support en ligne, par e-mail ou téléphone,
  • La mise à disposition de tutoriels et de FAQ.

Les ateliers de découverte et de prise en main :

Pendant les 6 premiers mois, une plage a été réservée tous les lundis, sur le site Riponne de la BCUL. Les ateliers sont allés de la présentation générale de la plateforme eLectures à un accompagnement pas à pas dans l'emprunt du premier livre numérique (création d'un adobe ID, réactualisation du mot de passe BCUL, installation des logiciels nécessaires…). Ces ateliers étaient également importants pour nous, à ce stade du projet, car ils nous ont permis de cibler quels étaient les points particulièrement problématiques. A partir de 2016, les ateliers ont été maintenus sur une base mensuelle.

Quelques personnes sont venues plusieurs fois, ayant entre-temps acheté une liseuse, ou amenant avec elles leur ordinateur portable pour débloquer un problème. De façon générale, les ateliers sont également l’occasion d’échanges, tant au niveau technique que du contenu de l’offre ou du plaisir de lire.

Un accompagnement sur place complète le support par e-mail ou par téléphone

Parallèlement à l'accompagnement sur place le support se fait également à distance, par e-mail et par téléphone. Les demandes sont parfois standards mais souvent dépendantes de la configuration des équipements personnels des usagers. Les problèmes ne sont pas toujours faciles à déceler mais, avec le temps, l’équipe qui répond aux questions en ligne a pu établir une sorte de catalogue des problèmes les plus fréquents et de leurs solutions.

Dans l’ensemble, nous avons eu très peu de cas pour lesquels nous n'avons pas trouvé de solution, et ceux-ci ont été transmis au support informatique de la plateforme.

L’aide en ligne et les FAQ

Nous n’avons pas créé de documentation propre, car la plateforme propose une aide en ligne [6]et une FAQ, en français et en anglais. Les guides de démarrage, très bien faits, permettent une entrée en matière pas à pas, et sont d’une grande utilité pour ceux qui se lancent. C’est aussi un bon outil vers lequel sont renvoyés les usagers qui prennent contact avec nous.

Constat

La majorité des usagers empruntent le numérique de manière autonome. Et si un obstacle est rencontré, c’est souvent relativement trivial, par exemple un mot de passe expiré, qui peut être réglé par e-mail.

Le support eLectures, que ce soit en présentiel ou à distance touche majoritairement des usagers très attirés par l'idée de lire sur liseuse ou tablette, mais pas (du tout) par les aspects techniques de la chose. Plusieurs nous interpellent régulièrement afin d'obtenir de l'aide. Pour certains, il suffit parfois d'une mise à jour du système d’exploitation ou du logiciel Adobe Digital Edition, ou d'un changement de paramètres de téléchargement des fichiers pour que le moteur se grippe… et que le lecteur se perde.

De nouveaux eLecteurs s’inscrivent chaque mois sur la plateforme. Il faut dès lors s'attendre à poursuivre cette médiation numérique dans le futur. Les solutions ne sont pas toujours évidentes, mais il est gratifiant de voir un lecteur repartir heureux d’avoir réussi à télécharger son livre, ou qui nous signale lors d'un passage à quel point sa tablette ou sa liseuse lui convient.

A noter que nous avons aussi eu une poignée d’usagers qui ont baissé les bras, et déclaré qu’ils préféraient passer du temps à lire un livre plutôt qu’à résoudre des problèmes informatiques.

Au niveau quantitatif

La part des personnes touchées par les ateliers est très minoritaire. Une septantaine d’ateliers ont été organisés depuis le lancement de l’offre, dont la moitié dans les 6 premiers mois.

Elle est en revanche beaucoup plus importante par e-mail. En deux ans, l’équipe qui gère les questions a répondu à plus de 570 messages. Pour l’année 2016, cela correspondait par exemple à 25% des questions d’usagers par e-mail sur l’adresse d’information du site Riponne.

Prêt de liseuses

Le prêt de matériel a tout de suite fait sens afin d’aider à la promotion de la lecture numérique. Le prêt de liseuses a plusieurs atouts. Tout d’abord, il offre une visibilité (non négligeable) à l’offre virtuelle de prêt numérique. De plus, cela valorise les compétences du personnel qui devient référence dans l’utilisation des différents outils.

La mise en place du prêt de liseuses a nécessité en amont :

  • L’achat du matériel (choix des liseuses, définition des conditions de prêt, commande, équipement, …),
  • L’ajout d’information sur le site web et sur eLectures directement pour en faire la promotion,
  • La formation des collaborateurs à l’utilisation de ce matériel (transfert de livres numériques mais aussi réinitialisation de l’appareil au retour de prêt).

Le prêt de liseuses a tout de suite été un succès, l’ensemble du parc a été prêté dès le premier jour et tous les appareils étaient réservés à leur retour.

Face à ce succès, nous avons essayé, 4 mois après le lancement de la plateforme eLectures, le prêt de liseuses pré-chargées. Cette offre était proposée dans une optique de faciliter le prêt de livres numériques, dont la création d’un identifiant Adobe nous paraissait être un frein. Cependant, cette offre n’a pas rencontré son public et n’a pas été reconduite.

Enfin, après deux ans de mise en service et sur les 13 liseuses mises en circulation, une seule liseuse a rencontré un problème et la garantie a couvert les frais de réparation. Aucune autre liseuse, malgré plus d’une trentaine de prêts chacune, n’a subi de dommage.

Investissement des professionnels dans l’animation d’eLectures

Passée la période de lancement d’eLectures et en plus de la promotion régulière qui en est faite auprès du public, il est crucial de faire vivre notre catalogue et de donner envie à nos eLecteurs de revenir sur notre plateforme. La spécificité de l’offre numérique, aussi bien en bibliothèque que pour les libraires en ligne, est le manque de visibilité de l’offre, au-delà des références présentées sur la page d’accueil.

Deux outils assez classiques, bien connus des bibliothécaires, sont ici à notre disposition pour nous aider à mettre en valeur le catalogue. Ainsi, on peut créer des sélections thématiques en s’appuyant sur l’actualité littéraire, l’actualité générale ou simplement nos envies, ou encore écrire des avis, « Bouche à oreille » à la BCUL, sur les titres au catalogue. Les sélections nous permettent ainsi de valoriser notre fonds. Les avis ont un effet plus ponctuel mais plus fort sur les prêts du titre concerné. Dans les deux cas, la recherche par auteur permet de redonner de la visibilité à toute une œuvre. Par la magie du clic, c’est un moyen immédiat de « faire » du prêt, mais aussi de mettre en valeur les compétences des bibliothécaires.

Dans le cadre d’une offre numérique, il est important de renouveler régulièrement ces sélections et ces coups de cœur afin de ne pas lasser l’utilisateur fréquent. Le succès de ce type de promotion est renforcé par une utilisation des médias sociaux. La newsletter BCUL fait ainsi systématiquement mention dans ses rubriques de titres eLectures. La promotion croisée avec les ressources documentaires physiques in situ est évidemment un plus. Enfin, une sélection ou un avis sur des titres eLectures sont réutilisés, quand cela est possible, pour faire la promotion de leur contrepartie physique.

Quel lectorat pour eLectures ?

Le public ciblé

Nos deux objectifs principaux, lorsque nous avons décidé de nous lancer dans une offre numérique, étaient qu’elle soit « grand public » et accessible à distance.

En tant que bibliothèque publique, nous souhaitions développer une offre « pour tous ». Cela n’excluait bien évidemment pas le public de l’université mais il s’agissait d’inclure nos « autres » usagers, principalement actifs sur le site du centre-ville, avec une offre d’actualité et de loisirs, pendant numérique de l’offre physique de la bibliothèque.

A partir de là, on ouvrait la possibilité d’élargir la population actuelle de nos lecteurs, en touchant :

  • Les plus distants, donnant ainsi à la BCUL l’occasion de jouer pleinement sa carte cantonale, en atteignant également les régions plus éloignées de Lausanne,
  • Ceux qui ne peuvent se déplacer physiquement à la BCUL, que ce soit pour des motifs professionnels, de santé ou de disponibilité.

On savait par ailleurs qu’une offre numérique intéresserait potentiellement d’autres types d’usagers, comme par exemple les grands lecteurs ou les pendulaires, qui allaient ainsi alléger leur sac.

Enfin, l’idée était à la fois d’attirer de nouvelles personnes, mais aussi de fidéliser nos lecteurs actuels avec une offre numérique accessible à distance et donc aussi disponible pour ceux qui ont quitté l’université ou disposent de moins de temps ou d’occasion de se déplacer dans une bibliothèque.

Analyse du lectorat deux ans après le lancement de l’offre

En l’état, nous pouvons nous baser uniquement sur les statistiques proposées par la plateforme (nombre de prêts, nombre d’usagers, liste des usagers) et sur quelques données observées soit au niveau des emprunts, soit dans les interactions que nous avons avec certains eLecteurs. Seule une enquête permettrait de fournir des données plus précises, notamment qualitatives, sur ce lectorat d’un service numérique.

Le profil d’usage

Dans son enquête dans les médiathèques en Auvergne-Rhône-Alpes, Mabel Verdi Rachemacher (Verdi Rachemacher, 2017) distingue trois types d’usagers : les convaincus, qui ont eu une expérience de lecture numérique satisfaisante et dont la pratique est stabilisée ; les dubitatifs, qui ont eu une expérience satisfaisante mais préfèrent lire en version imprimée ; et enfin les désenchantés, qui font un bilan négatif de leur expérience.

Dans l’utilisation d’eLectures, nous observons les deux postures extrêmes : des personnes qui s’inscrivent à la prestation, empruntent un ou deux livres et ne reviennent pas. Nous avons également un nombre assez important de grands lecteurs, qui empruntent par lot de 10 livres numériques chaque mois, et ceci depuis leur inscription numérique. Un de nos lecteurs emprunte un nouveau livre chaque jour, et nous a dit le lire dans ses déplacements durant la journée. Dans les usages cycliques, on remarque des lecteurs qui n’empruntent pas de manière régulière, mais intensivement à des périodes données, vraisemblablement avant un départ en vacances.

Sur le plan quantitatif ensuite.

Dans son article du Livres Hebdo paru en février 2017, Véronique Heurtematte (Heurtematte, 2017) donne les informations suivantes : à Montpellier Méditerranée Metropole, l’offre touche 1’000 lecteurs sur les 54’000 que compte le réseau (1,9%). A Grenoble, les prêts concernent 1’300 des 35’000 usagers (3.7%). La BCUL compte elle environ 29'000 lecteurs actifs, dont 1'800 sont inscrits à eLectures. Le ratio (6,2 %) est comparativement bon.

Le profil des usagers eLectures

Il faut mentionner que ces données de profil ne sont pas stockées dans la plateforme, qui n’enregistre que les données nécessaires à la gestion du compte : numéro de carte, mot de passe, adresse e-mail. Comme il faut être inscrit dans le réseau Renouvaud pour emprunter dans eLectures, les données ci-dessous proviennent du SIGB.

Selon le sexe : les inscrits sur la plateforme sont à 58% des femmes. Pour la lecture en général, l’enquête OFS 2014 sur les pratiques culturelles en Suisse (OFS, 2017) et la brochure présentant les premiers résultats de l’enquête (OFS, 2016) notent que les femmes sont plus nombreuses à lire des livres que les hommes, et particulièrement si on parle de la lecture pour les loisirs. En revanche, il semblerait que la parité se retrouve, au niveau Suisse, pour la lecture d’e-books pour les loisirs.

Selon l’âge : comme le montre le graphique ci-dessous, toutes les tranches d’âge sont représentées, avec une prédominance des quadragénaires et quinquagénaires. Assez réjouissante, la présence des trentenaires en troisième position, soit un public moins présent physiquement dans les bibliothèques. A titre de comparaison, les données de l’OFS (2017) montrent que les 30-44 ans sont de plus grands amateurs d’e-books. Pour l’anecdote, le lecteur « jeune depuis le plus longtemps » est né en 1925.

Selon le lieu : Un objectif initial était de toucher tout le canton. Force est de constater que l’utilisation pour l’instant reste bien concentrée sur les agglomérations vaudoises. Cela va dans le sens de l’enquête de l’OFS 2014 citée plus haut qui souligne que la plupart des activités culturelles sont pratiquées plutôt par des citadins et les habitants d’une agglomération.

Comme on peut le lire dans le graphique, la grande majorité des utilisateurs de la plateforme habite dans le district de Lausanne (46% des usagers « vaudois »). Les habitants du canton de Vaud représentent à eux seuls 82% des usagers de eLectures, les 18% restants étant composés d’autres cantons romands (16%), des cantons alémaniques et du Tessin (1%) et de l’étranger.

eLectures, produit de substitution ou gain de nouveaux lecteurs ?

Proposer une offre numérique apparaît pour de nombreuses bibliothèques comme un choix stratégique. La bibliothèque évolue, ses services aussi. Si l’on souhaite rester en phase, les bibliothèques doivent s’adapter. On est également dans une démarche de diversification des prestations offertes et des publics.

Il reste néanmoins très difficile de définir de manière précise si une telle offre est, au niveau du lectorat, plutôt un produit de substitution ou une opportunité d’attirer un nouveau lectorat et de renouveler les publics. C’est sans aucun doute un peu des deux.

Dans une bibliothèque comme la nôtre, le nombre de lecteurs actifs (c’est-à-dire qui emprunte physiquement au moins un document dans le cours d’une année civile) est stable. Cela signifie un équilibre entre ceux qui cessent d’emprunter, et les nouveaux lecteurs qui s’inscrivent. C’est un processus normal, surtout dans le cadre d’une bibliothèque qui touche des apprenants (gymnasiens, étudiants à l’UNIL) qui sont mobiles une fois leur formation terminée.

Même si le nombre de prêts effectués sur la plateforme eLectures est tout à fait satisfaisant, on ne peut pas dire qu’il y ait une percée au niveau des statistiques d’emprunts. On ne peut pas non plus lire dans les statistiques de prêts de documents physiques s’il y a substitution ou non. Il y a de toute façon une limite à ce que qu’un individu peut lire en un mois, même en étant un grand lecteur. Ce que l’on peut constater, c’est qu’une partie du public d’eLectures emprunte également des documents physiques sur nos sites. Certains se sont mis au numérique quand ils ont vu par exemple que le Prix Goncourt 2016 était disponible tout de suite en numérique et sans file d’attente...

A-t-on gagné des nouveaux lecteurs grâce à eLectures ? Oui clairement. Ce n’est pas chiffrable car certains sont venus s’inscrire sur place sans mentionner qu’ils s’intéressaient à eLectures. Cependant de nombreuses personnes nous ont contactés, parfois de loin, en nous disant s’inscrire pour le numérique uniquement.

Relations avec les fournisseurs

Fonctionnement quotidien de la plateforme et réponses du support technique

Les relations avec notre fournisseur se limitent surtout au support qu’il offre en cas de problèmes. Les acquisitions et les renouvellements d’abonnement (à la plateforme) sont des processus bien rodés qui se déroulent efficacement. En revanche, le support technique (c’est-à-dire, en cas de problème avec un appareil ou à l’ouverture d’un fichier), constitue le principal point faible de notre fournisseur et ce pour trois raisons principales.

La première, et la plus importante, est l’absence d’un interlocuteur clair et identifié. Dès lors, en cas de problème, nous envoyons, telle une bouteille à la mer, un e-mail à une adresse générique qui fait preuve de bien peu de réactivité. Le fournisseur répond à ce problème que la messagerie est bien relevée, qu’ils traitent la question, sans nécessairement répondre à l’interlocuteur qui l’a soulevé. La solution consiste donc à tester régulièrement pour savoir si oui ou non le problème est résolu.

La seconde raison est le manque de communication de notre fournisseur envers ses clients. Par exemple, lorsqu’un éditeur décide, pour les nouveaux titres, de réduire le nombre de prêts simultanés de ses documents nous n’en sommes pas informés. Cette problématique est réelle pour les acquéreurs qui découvrent alors qu’il faut acheter davantage d’« exemplaires » pour pallier le changement de pratique de l’éditeur mais rendre cela transparent pour l’usager ; la volonté étant de conserver un niveau de service équivalent.

La troisième raison est que les problématiques remontées ne concernent en général pas directement l’offre ou sa mise à disposition sur la plateforme. Pour preuve, les deux problèmes principaux rencontrés en 2017 ne relevaient pas de Cantook Station. Le premier problème est apparu avec la mise à jour 10.3.1 du système d’exploitation iOS d’Apple. En effet, le code comportait une erreur qui empêchait l’ouverture des fichiers avec les applications de lecture Bluefire Reader et Aldiko sur iOS (iPhone et iPad). Le second qui consistait en un message d’erreur incompréhensible à l’ouverture des livres résultait du fait que certains distributeurs de livres numériques transmettaient des fichiers qui contenaient des erreurs de validité au niveau du verrou numérique.

A la décharge de notre fournisseur, la qualité du support est aussi en lien avec sa position. En effet, celui-ci est toujours « entre deux feux » : il distribue des documents qu’il n’a pas générés (donc il n’a pas la main sur leur qualité) et les met à disposition sur des appareils qu’il ne développe pas (iPad, liseuses…). Là encore, il est tributaire des développements de ces sociétés.

Avantages et inconvénients de l’externalisation pour la BCUL

Le choix d’un service hébergé en local ou dans le cloud est d’ordre institutionnel. Il y a des avantages et des inconvénients aux deux solutions mais ce n’est pas le propos de l’article. Ainsi, nous vous proposons de détailler ici les avantages et inconvénients de la solution choisie, c’est-à-dire celle de l’hébergement à distance.

Tout d’abord, nous avons accès à un catalogue déjà constitué, dont l’ensemble des négociations avait été effectué par le diffuseur. Cette offre initiale évolue constamment, que ce soit avec l’intégration de nouveaux éditeurs ou par l’enrichissement d’une collection déjà existante. Ce dernier est le fruit du travail direct de notre distributeur, travail de négociation et de médiation pour lequel nous ne sommes pas qualifiés. La délégation de la négociation trouve toutefois ses limites et notamment pour de petits éditeurs locaux, peu représentatifs du besoin de l’ensemble des clients et pourtant tellement précieux pour les usagers des bibliothèques locales.

La souscription à une plateforme externe permet aussi de bénéficier du travail de tous les clients précédents et notamment des demandes d’amélioration qu’ils ont effectuées. Un des gros points forts de l’offre mise à disposition est l’aide, extrêmement complète et très bien structurée qui nous permet de minimiser les explications par e-mail avec nos lecteurs en renvoyant vers celle-ci.

Les autres clients sont donc un atout pour faire évoluer ce type d’offre car les besoins sont sensiblement les mêmes (contrairement à un SIGB par exemple où chaque bibliothèque a ses exigences particulières). En revanche, dès que l’on souhaite des développements spécifiques (ex. ajout de statistiques), le fait d’avoir un besoin « hors norme » par rapport aux autres clients est une réelle faiblesse et les chances de voir le développement aboutir sont minces.

Enfin, la BCUL aurait aimé pouvoir mettre à disposition ses livres numériques dans son catalogue de « livres papiers » et permettre ainsi aux lecteurs de découvrir cette offre. Malheureusement, et malgré l’utilisation de protocoles standards par les deux outils, cela reste, pour l’instant, une volonté non aboutie. Nous allons travailler avec nos fournisseurs, ExLibris et Cantook, afin de pouvoir offrir cette amélioration à nos lecteurs.

Perspectives d’avenir

Pérenniser notre fonction de médiation

La médiation autour de l’offre de livres numériques est indispensable, d’une part parce que ceux-ci sont peu, voire pas visibles dans l’espace physique de la bibliothèque (et difficiles à rendre visibles) et, d’autre part, parce que l’aspect technique peut rebuter certains usagers peu à l’aise avec ces questions, mais pour qui le numérique apporte des avantages certains (ex. grossissement des caractères, pour ne citer qu’un aspect).

La plupart des bibliothèques le remarquent : le numérique ne fonctionne pas tout seul. Florent Dufaux fait le même constat (Dufaux, 2016) pour l’expérience de Labo-Cités à Genève.

En présentiel, aux guichets du site Riponne, on observe déjà un déplacement du type de questions posées par les usagers : de plus en plus sont en lien avec les équipements techniques (wifi, impression, internet, bureautique). Ainsi, si on propose une offre comprenant une part technique importante on doit l’accompagner et avoir des bibliothécaires prêts à y répondre et cela même si la foire aux questions (FAQ) est bien construite. Une partie du lectorat numérique est autonome ou le devient, mais, on l’a vu, ce n’est pas le cas de tous. Chaque mois de nouveaux lecteurs découvrent eLectures. Nous continuerons donc de proposer cette fonction de médiation sur la durée.

S’adresser à toute la population vaudoise

Une telle offre numérique est une formidable opportunité pour notre institution de se rapprocher de son public  principal : l’ensemble de la population vaudoise. Alors que les institutions culturelles vaudoises sont encore concentrées dans l’agglomération lausannoise, eLectures est un médium qui permet de faire connaître la BCU Lausanne dans tout le Canton en proposant un offre accessible à l’ensemble de ses habitants. Le bouche-à-oreille prenant le relais, dans un second temps, de la promotion institutionnelle.

Pour l’équipe en charge de ce projet, on peut avancer qu’eLectures sera une vraie réussite lorsque, en plus d’une utilisation importante et régulière, les proportions d’usagers provenant des différents districts du Canton seront équilibrées.

Continuer à promouvoir eLectures

Un service de ce type-là doit rester vivant. La réalité des licences des livres numériques implique une vie active de cette « collection ». Alors que les collections physiques de la BCU Lausanne ont un taux de rotation annuel de 7% [7], il est évidemment ni intéressant ni rentable financièrement qu’un tel taux se retrouve sur une plateforme de prêt de livres numériques. Actuellement, le fonds eLectures est à plus de 100% de taux de rotation (chiffres de juillet 2016 à juin 2017).

Mais cela n’est possible que si la promotion d’eLectures se fait de manière continuelle à travers la communication institutionnelle ou une mise en valeur par l’intégration de ces documents dans notre outil de découverte public. Actuellement, cette solution n’a pas pu être mise en place à la BCU Lausanne mais ce travail de moissonnage de nos livres électroniques est en cours avec De Marque (via le protocole OPDS). La mise à disposition de l’offre eLectures via l’interface publique procure une visibilité sans égale et augmentera le public touché par celle-ci. 

La promotion passe également par l’animation de la plateforme avec des sélections régulières liées à l’actualité de la BCU Lausanne ou du monde ou par la rédaction de nos « Bouche-à-oreille », coups de cœur des bibliothécaires imprimés traditionnellement sur des signets, qui se voient ici offrir une nouvelle vie numérique.

Bref, la promotion d’eLectures doit être envisagée comme un continuum, année après année, et surtout, budget après budget.

Utilisation des réseaux sociaux

Qui dit numérique, dit réseaux sociaux, la BCUL est présente sur différentes plateformes mais principalement Twitter et Facebook [8]. Etant donné que la charge de faire vivre ces comptes est répartie sur une multitude de collaborateurs, nous avons facilement la possibilité de promouvoir une sélection de documents, un titre en particulier faisant écho à l’actualité ou de donner des informations pratiques sur le service. Il est cependant difficile d’évaluer l’impact de ce mode de communication sur les emprunts de e-books. Cela dit nous partons du principe que plus le nom du service circule, plus il y a de chance que l’effet « bouche à oreille » atteigne son public.

Nous savons par contre que des pics d’emprunts suivent de quelques heures l’envoi de la newsletter institutionnelle à tous nos usagers actifs. Cette dernière contient systématiquement au moins deux « avis du bibliothécaire » sur des documents de nos collections avec un lien, via notre blog, vers eLectures si nous en proposons une version numérique. Si on considère qu’entre juin 2015 et mai 2017, nous mesurions en moyenne 37 prêts par jour, cet indicateur pouvait monter à 60 ou 70 dans les jours qui suivaient l’envoi d’une newsletter.

Comme on l’a déjà souligné lorsque nous traitions de la médiation, un service numérique de ce type ne peut pas vivre tout seul et il est difficile de le rendre visible aux usagers. Les tentatives de promotion dans nos locaux par différents moyens aident à faire connaître l’offre mais il y a toujours une étape difficile à franchir : celle de convertir un usager potentiel se trouvant dans la bibliothèque en usager actif sur le net. La présence sur les réseaux sociaux est donc importante pour créer des liens vers la plateforme, la faire connaître et continuer d’attirer un public distant.

Conclusion

Après 27 mois d’exploitation, le bilan de l’expérience eLectures est plus que positif pour la BCUL, ses lecteurs et ses collaborateurs. En premier lieu, cette offre a trouvé son public avec 1'800 inscrits sur les 29’000 usagers actifs de la BCUL. Notre premier défi est, bien entendu, de continuer à la faire connaître auprès de notre public mais aussi d’en faire un outil permettant à la BCUL d’attirer de nouveaux lecteurs.

En second lieu, eLectures a été l’occasion, pour une partie des collaborateurs de l’institution, de se confronter aux nouvelles technologies de l’information à travers un projet concret au service de nos lecteurs. Des collaborateurs toujours plus compétents, capables de répondre aux questions variées et pointues des usagers, contribuent à changer l’image encore trop traditionnelle des bibliothèques auprès du grand public. C’est aussi un moyen, en répondant à ses nouveaux comportements, de garder ce public en bibliothèque. Enfin, le lancement de ce type d’offre numérique est aussi l’occasion d’attirer l’attention des médias, presse écrite et radio, et, là encore, de démontrer le dynamisme de nos institutions et de faire connaître la richesse d’une offre documentaire et de services qui est encore loin d’être connue de tous.

Bibliographie

CHARTIER, Mathieu (2017). Les ventes de livres numériques en baisse. Les Numériques, 02.05.2017, http://www.lesnumeriques.com/liseuse/ventes-livres-numeriques-en-baisse-n62603.html (consulté le 22.06.2017)

DUFAUX, Florent (2016). Labo-Cité : pourquoi une bibliothèque sans livres ?. Ressi. 2016.
http://www.ressi.ch/num17/article_124 (consulté le 14.08.2017)

GLAUS, Christoph (2016). Trois Suisses sur quatre ont adopté le smartphone. Comparis.ch. 2016. https://fr.comparis.ch/comparis/press/medienmitteilungen/artikel/2016/telecom/smartphone-studie-2016/smartphone-verbreitungsstudie-2016.aspx (consulté le 22.06.2017)

HEURTEMATTE, Véronique (2016). Prêt numérique, épisode 2, le réveil de la force. Livres Hebdo no 1071, 05.02.2016.
http://www.livreshebdo.fr/article/pret-numerique-episode-2-le-reveil-de-la-force (consulté le 10.08.2017)

OFFICE FÉDÉRAL DE LA STATISTIQUE (2017). Equipement TIC. 2017. https://www.bfs.admin.ch/bfs/fr/home/statistiques/culture-medias-societe-information-sport/societe-information/indicateurs-generaux/menages-population/equipement-tic.html (consulté le 22.06.2017)

OFFICE FÉDÉRAL DE LA STATISTIQUE (2016). Pratiques culturelles et de loisirs en Suisse : premiers résultats de l’enquête 2014. 2016. https://www.bfs.admin.ch/bfsstatic/dam/assets/349945/master (consulté le 04.09.2017)

OFFICE FÉDÉRAL DE LA STATISTIQUE (2017). Pratiques culturelles en Suisse 2014: livres, ebooks, bandes dessinées et bibliothèques. 2017. https://www.bfs.admin.ch/bfsstatic/dam/assets/3243673/master (consulté le 11.09.2017)

RESEAU CAREL. Le PNB tel qu’on le parle. https://www.reseaucarel.org/page/le-pnb-tel-qu-le-parle-0 (consulté le 04.09.2017)

ROSSELET ; Marion (2017). Edition vaudoise : arrêt sur image, panorama général et enquête statistique sur l’activité éditoriale dans le canton de Vaud en 2015-2016. Ville de Lausanne et Etat de Vaud, août 2017. http://www.vd.ch/fileadmin/user_upload/themes/culture/aides_creation/fichiers_pdf/EtudeVD_MRosseletDEF_-_v.pit.pdf (consulté le 07.09.2017)

VERDI RADEMACHER, Mabel (2017). Le numérique et le lecteur, retour du nomade : une enquête dans les médiathèques en Auvergne-Rhône-Alpes. 2017.
http://www.enssib.fr/presses/catalogue/le-numerique-et-le-lecteur-retour-du-nomade (consulté le 10.08.2017)


Notes

[1] 2,5% du chiffre d’affaire global de l’industrie du livre en France. A un niveau plus global, les ventes de e-books semblent baisser y compris dans le monde anglophone. (Chartier, 2017)

[2] En 2014, presque 80% des ménages suisses possèdent au moins un ordinateur portable et 78% des 15-74 ans (2016) un smartphone. (OFS, 2017 et Glaus, 2016)

[3] Pour plus de détails sur le projet PNB, vous pouvez consulter le document rédigé par le réseau Carel (RESEAU CAREL, non daté)

[4] Le rapport de Marion Rosselet (Rosselet 2017) l’indique en tout cas pour les éditeurs vaudois en ne recensant que 12% de leurs catalogues en version numérique.

[5] https://www.youtube.com/playlist?list=PLRvUETy0qVh5SNtO-5RLr2T0gP12q0dcv

[6] http://bcu-lausanne.cantookstation.eu/aide

[7] Ce chiffre inclut également les ouvrages du dépôt légal et des collections précieuses qui ne s’empruntent pas.

[8] https://twitter.com/BCULausanne et https://www.facebook.com/BCULausanne

Livres et presse numériques en bibliothèque de lecture publique : état de lieux de l’expérience menée par les bibliothèques de Carouge

Yves Martina, directeur des bibliothèques de Carouge

Livres et presse numériques en bibliothèque de lecture publique : état de lieux de l’expérience menée par les bibliothèques de Carouge

Avec Lancy, Meyrin, Onex et Vernier, la Ville de Carouge (22'000 habitants) est l’une des cinq grandes communes suburbaines du canton, en périphérie de la Ville de Genève. Hormis Onex, ces communes possèdent toutes une ou plusieurs bibliothèques, indépendantes du réseau des Bibliothèques municipales de la Ville de Genève.

Ouverte en 1857, la Bibliothèque de Carouge s’est développée au fil des ans et des déménagements. Elle s’est informatisée en 1998 et fonctionne en réseau depuis 2009, date de l’ouverture de sa première « bibliothèque-relais ».

Les bibliothèques de Carouge [1] dépendent du SACC (Service des affaires culturelles et de la communication) et comptent 14,75 postes à plein temps pour 20 collaborateurs, dont 12 bibliothécaires et agents en information documentaire. Elles proposent à leurs usagers quelque 70'000 documents et génèrent plus de 215'000 prêts annuels.

Préambule

Les bibliothèques de Carouge ont introduit le multimédia dans leurs collections en 2009 et le numérique en 2012.

L’offre multimédia étant « tardive » (seul un petit fonds de CD musique existait avant 2009 et l’ère des cassettes VHS a été totalement ignorée), l’objectif était de ne pas manquer le virage du numérique. Au niveau politique, il a été plus facile de convaincre certains décideurs d’enrichir les collections des bibliothèques par des documents numériques que par des supports multimédias, soupçonnés de véhiculer des contenus trop axés sur le divertissement.

En 2012, l’offre numérique à l’intention des bibliothèques publiques est réduite. En Suisse romande, le Valais, qui fait ici office de pionnier, dispose d’un fonds alimenté par le fournisseur français Numilog [2]. Dans sa mise à disposition des documents, celui-ci présente l’inconvénient de demander un accès à l’intégralité du fichier des usagers de la bibliothèque et pas seulement à ceux intéressés par l’emprunt de livres numériques. La protection des données individuelles étant un problème sensible, les autorités politiques carougeoises ont renoncé à travailler avec Numilog (sans avoir préalablement testé la solution proposée par ce fournisseur) et ont souhaité la recherche d’une alternative. Une gageure sachant, qu’en 2012, Numilog est le seul fournisseur du marché francophone.

Les premiers pas

Pour sa première approche numérique, les bibliothèques de Carouge font l’acquisition de cinq liseuses (Sony et Kindle) et deux tablettes (iPad et Asus) dans lesquelles sont proposés des contenus différents, articulés autour d’un choix de documentaires et de romans (5 à 8 documentaires et 10 à 20 romans par support) à l’intention d’un public adulte.

Le choix a donc préalablement été fait par des bibliothécaires, sur la base d’ouvrages libres de droits proposés par des éditeurs qui, eux-mêmes, testaient une mise à disposition de titres issus de leur catalogue au format numérique. Les liseuses et les tablettes ont été mises gratuitement à disposition des usagers, mais une caution leur était demandée et restituée au retour du support. Ce qui était à la fois contraignant et inconfortable, tant du point administratif que pour l’usager. 

Cette expérience a été suivie par une cinquantaine d’usagers, entre juin 2012 et septembre 2013 :

  • 97% des usagers l’ont fait dans le but de découvrir le fonctionnement du support.
  • 3% des usagers possédaient déjà une liseuse et se sont intéressés aux contenus proposés.

Après chaque emprunt, les usagers ont été sondés et invités à faire part de leurs remarques et suggestions pour façonner l’avenir du numérique dans leurs bibliothèques. Il en est ressorti que :

  • 93% des usagers ont été séduit par le support et ont relevé les avantages suivants : capacité de stockage, faible encombrement et confort de lecture, notamment dans les transports publics.
  • 100% des usagers indiquent que la liseuse est pour eux une alternative (selon les opportunités de lecture) et non un remplacement du livre traditionnel.
  • 100% des usagers souhaitent avoir accès aux téléchargements de leur choix : ils ne reconduiraient pas l’expérience au travers de liseuses avec des contenus préétablis.
  • 98% des usagers préfèrent disposer de leur propre liseuse et ne jugent pas pertinent d’en emprunter une en bibliothèque.

En conséquence de qui précède, dès novembre 2013, les bibliothèques de Carouge retirent les liseuses de leur offre et les projets en lien avec le numérique sont gelés, faute de trouver une alternative au fournisseur Numilog.

Le projet PNB : les éditeurs français font (enfin !) un effort envers les bibliothèques

En France, une offre numérique destinée aux bibliothèques publiques s’élabore et le projet PNB (Prêt numérique en bibliothèque) est présenté lors du congrès de l’IFLA 2014 à Lyon. Il s’agit d’une avancée significative qui fait intervenir l’ensemble des acteurs concernés : éditeurs, libraires, auteurs et bibliothèques. En 2015, le fournisseur Dilicom [3] est en mesure de proposer un premier catalogue de titres, accessible bien sûr en France, mais aussi aux bibliothèques suisses. La plateforme d’achat est assurée par la librairie de livres numériques Feedbooks[4].

Certes, ce catalogue à l’intention des bibliothèques est nettement moins riche que celui destiné au volet commercial, donc à l’achat de titres par des particuliers. Néanmoins, les bibliothèques y trouvent un intérêt : les prêts peuvent être simultanés (généralement entre 5 et 10 prêts) et la durée de vie d’un livre numérique se situe en moyenne à 5 ans et/ou à 50 prêts. La durée de l’emprunt est, quant à elle, de 4 semaines.

Cette opportunité va permettre aux bibliothèques de Carouge de rouvrir leur dossier numérique et de lancer deux offres à l’automne 2015. Elles sont rendues possibles par les améliorations de leur portail documentaire[5], qui donne désormais accès à des ressources externes :

  • Livres numériques, via le fournisseur Dilicom : 1’020 titres sont proposés au catalogue [6] par téléchargement (750 romans « adultes », 150 documentaires « adultes » et 120 romans « jeunes »).  Nombre d’emprunts sur l’année (3 mois) : 375.
  • Presse numérique, via le fournisseur LeKiosk [7] : 750 titres sont proposés à la consultation en ligne [8] (720 titres « adultes » et 30 titres « jeunes »). Nombre de consultations sur l’année (3 mois) : 300.

En 2016, l’offre est enrichie et les fonds numériques portés à :

  • 1’595 livres numériques (1’165 romans « adultes », 265 documentaires « adultes » et 165 romans « jeunes »). Nombre d’emprunts sur l’année : 375.
  • 900 revues numériques (865 titres « adultes » et 35 titres « jeunes »). Nombre de consultations en ligne sur l’année : 390.

Il faut noter que, durant l’exercice 2016, de nombreux éditeurs modifient leurs conditions de prêt et abandonnent la simultanéité des emprunts : un seul prêt à la fois est moins intéressant et se rapproche trop du système en vigueur pour les livres traditionnels alors que le format numérique est justement intéressant s’il permet plus de souplesse à ce niveau.

En 2017, les bibliothèques de Carouge continuent à développer leur catalogue et la tendance suivante se dessine :

  • 1'850 à 1’900 livres numériques au catalogue (75% fiction « adultes », 12% documentaires « adultes », 9% fiction « jeunes » et 4% bandes dessinées « adultes ». 

Le nombre d’emprunts devrait approcher les 500 unités.

  • 1’000 revues numériques proposées à la consultation (94% de titres « adultes » et 6% de titres « jeunes »).

Le nombre de consultations ne sera connu qu’en fin d’année (ce nombre est calculé directement par le fournisseur au terme de l’exercice et il n’y a pas, à ce stade, de données intermédiaires).

S’agissant des livres numériques, ce sont quelque 150 usagers distincts qui profitent de l’offre mise en place par les bibliothèques de Carouge, ce qui représente à peine plus de 3% des usagers actifs. Force est donc de constater qu’on se situe très nettement dans la marge, s’agissant du succès de la prestation.

Du côté des adultes, c’est vers la fiction que se portent sans surprise 95% des emprunts. Du côté des jeunes, seule la fiction est proposée au téléchargement.

S’agissant des revues numériques, les données récapitulatives se limitent pour l’instant au nombre de magazines consultés. Quelques sondages ont toutefois permis de dégager des préférences : actualité, féminin, bien-être et développement personnel, décoration d’intérieur sont les sujets qui génèrent le plus de consultations.

Quelles perspectives pour les deux années à venir ?

S’agissant des livres numériques :

  • Disposer d’un fonds de 2'500 à 2’800 titres d’ici à 2020 (le fonds numérique représenterait alors 3% des collections).
  • Améliorer l’outil de recherche et de présentation des ouvrages en 2019. En effet, dans sa prestation, le fournisseur Dilicom propose une notice bibliographique et des critères de recherche qui sont limités. Par importation de données fournies par d’autres fournisseurs, il sera possible de disposer de descriptifs et d’éléments de recherche plus proche de ce qui se fait pour les livres traditionnels (par exemple : indexation matière plus riche et plus rigoureuse s’agissant des genres littéraires, rebonds vers des ouvrages et des thématiques apparentés).
  • En 2019, lancer une campagne de promotion des livres numériques et assurer leur visibilité en parallèle aux livres traditionnels, c’est-à-dire aussi dans le corps même des bibliothèques.

S’agissant des revues numériques :

  • Maintenir la prestation en 2019 et 2020 au niveau des années précédentes, sachant que la marge de manœuvre sur le choix des magazines proposés est réduite puisqu’elle appartient à 95% au fournisseur.
  • En 2019, adapter aux magazines numériques tout ou partie de la campagne de promotion qui sera mise en place pour les livres numériques.

Conclusion

Au moment d’adopter le projet PNB et de se lancer dans la mise en place d’une offre de livres numériques, les bibliothèques de Carouge disposaient de deux options :

  • Rejoindre la plateforme suisse proposée par Bibliomedia [9] et bénéficier de la prestation et de la collection élaborée par cette institution, à savoir le partage des titres entre plusieurs bibliothèques.
  • Disposer de son propre fonds et le gérer en propre, comme il est fait pour les livres traditionnels et le multimédia.

C’est cette deuxième option qui a été retenue parce qu’au moment du choix, l’offre e-Bibliomedia [10] n’était pas encore en place, bien que les deux organismes aient avancé en parallèle dès que Dilicom a ouvert son catalogue à la Suisse. D’autres critères sont certainement intervenus dans le choix du « cavalier seul », mais ils ne correspondaient pas une critique de la démarche proposée par Bibliomedia.

La « confidentialité » qui entoure la prestation numérique proposée par les bibliothèques de Carouge est-elle un point négatif ? On se permettra ici une réponse nuancée :

  • Oui, parce que l’effort d’acquisition, notamment sur le plan financier, devrait se traduire par un succès plus probant.
  • Non, parce qu’il faut se donner le temps nécessaire avant d’évaluer cette nouvelle prestation. Dès le début, il a été fixé un délai de 5 ans avant de tirer un bilan significatif. L’offre doit se faire connaître et les usagers l’apprivoiser, ce d’autant que la lecture sur un support électronique ne fait pas encore partie des mœurs usuelles des usagers des bibliothèques, notamment en Suisse. À noter aussi qu’aucune promotion du livre numérique n’a encore été faite de manière significative et que les usagers sont généralement amenés à découvrir par eux-mêmes (et parfois même par hasard) l’existence des documents numériques.

Le numérique n’est donc pas remis en cause et, à ce stade, l’objectif de base demeure : offrir aux usagers des bibliothèques de Carouge, par le biais du numérique, un complément et une alternative attractive aux supports traditionnels (livres et presse papier) ! Et, s’agissant des livres numériques, disposer d’un catalogue de 5'000 titres d’ici à 2025.


Notes

[1] bibliotheques-carouge.ch

[2] numilog.com

[3]dillicom.net

[4] fr.feedbooks.com (le volet dédié aux bibliothèques est accessible à l’adresse collectivites.feedbooks.com)

[5] Il s’agit de la solution nommée Syracuse, proposée par le fournisseur français Archimed (archimed.fr)

[6] Il s’agit bien ici du nombre des titres proposés par les bibliothèques de Carouge à leurs usagers et non de l’offre globale du fournisseur

[7]lekiosk.com ; le nombre de titres proposés par LeKiosk est variable (il dépend de l’offre éditoriale et des contrats passés avec les éditeurs) ; l’acheteur-bibliothèque peut façonner l’offre qu’il propose à ses usagers en biffant certains titres ou certains bouquets de titres

[8] Il s’agit bien ici du nombre des titres proposés par les bibliothèques de Carouge à leurs usagers et non de l’offre globale du fournisseur

[9] Fondation active dans le développement des bibliothèques de lecture publique et de la promotion de la lecture (bibliomedia.ch)

[10] e-Bibliomedia est une plateforme qui permet aux bibliothèques de lecture publique d’emprunter des ouvrages numériques, sans avoir elles-mêmes à en faire directement l’acquisition

Le Montreux Jazz digital project

Alain Dufaux, Directeur des opérations et du développement, Centre Metamedia, EPFL

Le Montreux Jazz Digital Project

La sauvegarde des archives audiovisuelles du Montreux Jazz Festival, un patrimoine pour l’innovation et la recherche

Introduction

Ella Fitzgerald, Nina Simone, B.B. King, Miles Davis, James Brown, Marvin Gaye, Joe Cocker ou encore Gary Moore, Phil Collins, David Bowie et Prince, tous ont joué au Montreux Jazz Festival, chaleureusement accueillis par son créateur Claude Nobs, un montreusien visionnaire, passionné de musique et de technologie. Enregistrés dès les débuts en 1967, en audio et vidéo et toujours avec les technologies de pointe du monde broadcast, les artistes de passage au festival ont participé à la création de l’une des plus importantes collections de musique du 20e siècle, inscrite en 2013 au registre de la « Mémoire du Monde » de l’UNESCO.

“It’s the most important testimonial to the history of music, covering jazz, blues and rock” déclare le producteur Quincy Jones en 2009 depuis son studio de New-York, lors de la présentation du projet de numérisation des 14'000 bandes concernées. 5’000 heures de concerts « live » du Montreux Jazz Festival vont être numérisées, préservées pour les générations futures, et appelées à devenir une matière première idéale pour le développement de la recherche dans les domaines de l’acoustique, du traitement audio/vidéo, de la musicologie, des neurosciences, de l’interaction media-utilisateurs, mais touchant également au domaine de la sociologie et plus largement aux humanités digitales.

Le Montreux Jazz Festival

Le Montreux Jazz Festival débute en 1967 à Montreux, lorsque l’office du tourisme donne mission à Claude Nobs de réfléchir à l’organisation d’un événement dont l’objectif est de  développer la renommée de la ville dans le monde entier. Proche des milieux broadcast présents à Montreux chaque année à l’occasion du Symposium TV, Claude Nobs décide de créer un festival de jazz, et d’en enregistrer les concerts en audio mais aussi en vidéo, ce qui est très rare à l’époque. La vision consiste à diffuser ces enregistrements sur les canaux de télévision et de radio, mais aussi sur support disque. Le succès sera retentissant. Montreux devient rapidement connu dans le monde entier pour son festival.

Claude Nobs, cuisinier de formation, possède l’art de recevoir les artistes comme des amis, les invitant à passer quelques jours dans son chalet de Caux pour apprécier le décor, les montagnes et la vue reposante sur la Riviera. Dans une ambiance chaleureuse et souvent festive, les musiciens se rencontrent et se retrouvent en vacances, il n’est pas rare de voir les jam sessions s’improviser dans le jardin, il arrive même aux musiciens d’oublier l’heure du concert à Montreux ! Claude et son festival deviennent ainsi un passage obligé, très apprécié et réputé dans le monde de la musique.

Le festival sera régulièrement ponctué d’évènements marquants, qui contribueront à en augmenter la notoriété. En particulier, un concert improvisé du pianiste Les McCann et du saxophoniste Eddie Harris donne lieu en 1969 à un 33 tours « Live at Montreux », qui restera numéro 1 dans les clubs de jazz durant plusieurs mois aux Etats-Unis. Par ailleurs, lors du concert de Frank Zappa organisé par Claude Nobs en décembre 1971, le Casino est détruit par le feu suite à l’envoi d’une fusée qui enflamme le plafond de bambou. Les membres du groupe Deep Purple sont présents dans la salle et écrivent pour Claude leur titre phare « Smoke On The Water », qui devient ensuite un succès mondial.

Aujourd’hui, la diffusion des concerts « Live at Montreux » sur les plateformes de streaming a atteint le demi milliard de vues ou d’écoutes.

Les archives audiovisuelles du festival

La collection des enregistrements se présente sous plusieurs formes:

  • Une archive video
  • Une archive audio, incluant des multipistes

Formats de bandes Vidéo

Période

De

A

Philips VCR

1973

1977

2-inch

1968

1980

1-inch

1970

1988

U-matic

1971

1990

Betacam SP

1983

1992

D-2

1991

1996

1-inch HD

1991

1993

Betacam Digital

1993

2002

D-5

2001

2002

HDCAM

1997

2016

XDCAM

2009

2012

Broadcast files

2013

2017

Formats de bandes Audio

Période

De

A

1/4-inch (stereo)

1967

1980

2-inch multi-tracks

1973

1990

U-matic audio (stereo)

1979

1988

DAT (stereo)

1987

1996

1-inch (multi-tracks)

1987

1987

1/2-inch (multi-tracks)

1989

2000

Multi-track Sessions

2001

2017

  • Numérisation : les tâches de lecture de bandes et de conversion des signaux analogiques en signaux numériques sont confiées à des tiers, spécialistes possédant les compétences et les équipements nécessaires à l’obtention du résultat le plus fidèle possible pour une grande variété de types de supports et dans un laps de temps raisonnable. Sony Dax puis Vectracom et les Studios D.E.S. à Paris sont mandatés dans ce but, alors que le Centre Metamedia prendra exceptionnellement en charge le traitement des bandes HDCAM, et des disques optiques XDCAM. 
  • Gestion de l’archivage: Le Centre Metamedia est responsable de la gestion générale du projet, ainsi que des tâches opérationnelles liées au suivi de la numérisation et à l’archivage : inventaires, contrôle de qualité, indexation des contenus, stockage des fichiers, création d’une base de données réunissant les métadonnées, modélisation des droits de diffusion, gestion du parc IT, développement d’outils pour le transfert des fichiers médias et leur mise à disposition pour les laboratoires et partenaires, ingestion des médias associés aux nouvelles éditions du festival, design et développement de plateformes pour la navigation dans les archives, numérisation d’un important fonds photo, recueil et enregistrement de témoignages et compilation d’anecdotes récoltées auprès de personnalités proches du festival, communication et documentation de l’intégralité du projet.
  • Définition et suivi des projets de recherche et d’innovation associés à l’archive : Le Centre Metamedia propose, spécifie, et assure le suivi et la mise en valeur des travaux de recherche effectués dans les laboratoires. Plus de 50 chercheurs et ingénieurs sont impliqués à fin 2017 dans une quinzaine de laboratoires ou start-up partenaires, dont l’EPFL+ECAL Lab qui lancera la série de « Montreux Jazz Heritage Lab », plateformes immersives pour la découverte des archives à l’EPFL, et prochainement à l’extérieur en mode nomade.
  • Format numérique de référence, non-compressé: Codec v210, 4:2:2, 10bits, conteneurs AVI (+WAV pour pistes audio), audio non-compressé à 96khz/24bits, ou en natif si support numérique.
  • Format Broadcast: Codec IMX50, 4:2:2, 10bits, conteneur MXF OP-1a, audio non-compressé, 48khz/24bits
  • Format numérique de référence, non-compressé: Codec v210, 4:2:2, 10bits, conteneur MOV, audio non-compressé à 48khz/24bits
  • Format Broadcast:
  • Jusqu’en 2012 : Codec IMX50, 4:2:2, 10bits, conteneur MXF OP-1a, audio non-compressé, 48khz/24bits
  • 2013-2014 : Codec DNxHD à 120 Mbits/s
  • 2015-2017 : Codec AVC-Intra à 100 Mbits/s
  • Audio Mono ou Stéréo: 96khz/24bits, conteneur BWF, ou en natif si support numérique.
  • Audio Multipistes: session Pro-Tools, 96khz/24bits, conteneurs BWF ou en natif si support numérique.

Le festival est enregistré en audio dès la première année, alors que les premiers enregistrements vidéo datent de l’année suivante (1968). L’archive audio, dont certains éléments sont en format mono tout au début, se distingue par une qualité sonore bien supérieure à celle que permettent les pistes son des supports vidéo. En 1973, les supports multipistes font leur apparition à Montreux, permettant de stocker 16 instruments en parallèle. Plus tard, ce nombre s’élèvera à 24, 32, 48, puis 96, il est aujourd’hui infini sur fichier informatique.

Dès le milieu des années 70, le festival exploite le Mountain Studio du nouveau Casino de Montreux, qui appartient au groupe Queen. Le signal des micros de scène associés aux divers instruments est acheminé sur la console du studio, où son ingénieur du son, David Richards, réalise le mix des concerts en live! Il ajoute un style rock et pop au mix des concerts de jazz, ce qui créé un son particulier, le « Son de Montreux », caractéristique des enregistrements de l’archive. Dès 1993, le festival se tient dans le nouvel auditorium Stravinski, et des camions de production (dont le fameux « Voyageur ») prennent le relais du Mountain Studio. Les enregistrements de la collection ne sont donc pas captés en salle, et même si un son d’ambiance y est ajouté, les mix réalisés ne sont pas affectés par l’acoustique et les réglages effectués pour la salle.

La Télévision Suisse Romande (TSR) se charge de la production dès les débuts du festival, et stocke les enregistrements dans ses studios de Genève (pour la vidéo) ou à Lausanne (pour l’audio). Les équipements et supports d’enregistrement évolueront avec les technologies des différentes époques. Claude Nobs organise souvent des acquisitions parallèles dans le but d’évaluer et promouvoir de nouvelles technologies naissantes. Ce sera le cas en 1991 notamment avec un prototype de vidéo Haute Définition (HD Vidéo) venu du Japon, en 1994 avec la diffusion d’extraits musicaux sur le premier site web du festival, ou encore en 2002, avec un tout premier format de disques durs (Mackie) pour l’audio multipistes. Dans de tels cas, les formats anciens sont encore utilisés durant plusieurs années par sécurité, la présence parallèle de formats standard définition (SD) et haute définition (HD) est observée par exemple tout au long des années 90.

Au final, une grande partie des concerts de l’archive vidéo sont disponibles sur deux, voir trois formats parallèles, ce qui amène le nombre d’heures d’enregistrements à 11'000, soit plus du double du nombre d’heures de concerts (5000 heures de concerts). Le nombre d’heures d’enregistrements audio, lui, atteint plus de 6000 heures, formats stéréo et multipistes confondus. Il n’est ainsi pas rare de trouver une dizaine de bandes pour un unique concert d’une heure et demie, avec une bande 2" vidéo (concert incomplet), deux bandes 1" vidéo (couvrant la totalité du concert mais avec interruption en milieu de concert), trois parties sur format U-matic vidéo, deux sur format ¼ " audio, et deux bandes ½ " multipistes. Parfois, une copie des supports master a été réalisée une vingtaine d’années après le concert, ce qui ajoute des éléments non-originaux à la collection, mais dont la qualité est aujourd’hui supérieure à celle des bandes d’origine.

Jusqu’à aujourd’hui, ce sont 18 types de formats de bandes différents qui ont été utilisés pour l’enregistrement des concerts, tout au long des 50 ans du festival. Les signaux enregistrés sont analogiques durant une grande partie de cette période, puis deviennent progressivement numériques avec l’apparition des formats U-matic audio pour le son (en 1980 déjà), et Digital D-2 pour la vidéo (dès 1991). En 2017, pour la première fois, l’enregistrement vidéo ne se fait plus sur bande, mais dans un format de fichier numérique broadcast. L’utilisation des différents formats se distribue de la manière suivante au cours des années:

En 1988, Claude Nobs constate la disparition de quelques enregistrements d’origine, dont les bandes ont été réutilisées à d’autres fins par la Télévision suisse romande (pour qui les moyens financiers font défaut à l’époque). Il décide de racheter ces bandes et construit à côté de son chalet un local dédié aux archives, dont les propriétés atmosphériques garantiront l’excellente tenue des bandes durant les 30 ans qui suivent.

En 2013, suite au décès de Claude Nobs, son partenaire Thierry Amsallem crée la Fondation Claude Nobs. D’intérêt public, l’objectif de la fondation est d’assurer la sauvegarde de la collection, et de la mettre à disposition du plus grand nombre dans un but d’éducation et de recherche, ceci dans le respect des droits d’auteur. Parallèlement, c’est avec le support de musiciens tels que Herbie Hancock et Quincy Jones, ainsi que de personnalités américaines proches du jazz, qu’il inscrit la collection au registre de la Mémoire du Monde de l’UNESCO.

Le Montreux Jazz Digital Project

En 2007, Patrick Aebischer, président de l’EPFL, rencontre Claude Nobs et Thierry Amsallem à l’occasion d’une visite au chalet « Le Picotin » à Caux. La discussion met en évidence l’absence de copie de la collection, dont certaines bandes prennent de l’âge (40 ans). Patrick Aebischer perçoit l’intérêt que représente une telle collection pour le développement de projets de recherche et d’innovation à la croisée des domaines technologiques et culturels, notamment sur le plan musical et de l’audiovisuel. A l’aube du développement des humanités digitales, les deux visionnaires imaginent un projet dont les objectifs viseraient à numériser ce patrimoine unique et à en assurer la sauvegarde à long terme, tout en l’enrichissant grâce aux compétences des chercheurs de l’école, pour qui cette base de données du monde réel représente une valeur inestimable en termes de motivation et valorisation de leurs travaux. Dans la mesure où les droits d’auteur le permettent, un espace dédié aux archives est également prévu sur le site de l’EPFL, pour y montrer la collection numérisée ainsi que le résultat des projets d’innovation associés.

Le concept du Montreux Jazz Digital Project est né, il nécessite ensuite quelques années de maturation afin d’en trouver les bonnes formules opérationnelles et le mode de financement. Après deux tentatives impliquant un laboratoire de recherche puis un partenariat avec une start-up, c’est finalement la création en 2010, d’un centre de compétences interdisciplinaires, le Centre Metamedia, qui permet de lancer les opérations de manière conséquente et pérenne, ceci en relation avec le support de la manufacture horlogère Audemars-Piguet, principal sponsor. Par la suite, plusieurs autres partenaires soutiendront également le projet, à l’image de la Fondation Ernst Göhner, La Loterie Romande, Logitech, les entreprises Amplidata et HGST, ainsi que de nombreux donateurs privés tels que Thierry Lombard.

Le Montreux Jazz Digital Project s’établit comme partenariat entre l’EPFL et l’entreprise Montreux Sounds SA, lancée en 1973 en marge du festival pour en assurer le traitement des archives et la production de disques. A l’EPFL, le Centre Metamedia est rattaché à la Vice-Présidence pour l’Innovation et la Valorisation. Il se construit petit à petit en 2011, constitué d’un directeur opérationnel, d’un project manager, d’un développeur pour la création d’une base de données (métadonnées), et d’une spécialiste audio/vidéo en charge du contrôle de qualité des fichiers numérisés. Du côté de Montreux Sounds un ingénieur du son et un spécialiste IT / édition vidéo complètent l’équipe. Outre les aspects liés à l’inventaire des bandes, ils assurent le lien avec les entreprises externes qui effectuent les opérations de numérisation des bandes. Au fil des années l’équipe s’étoffera, d’abord en 2013/14 avec l’arrivée d’une spécialiste en documentation et d’un second développeur, puis en 2016 avec une archiviste spécialisée en audiovisuel, une architecte EPFL pour la conception des plateformes de valorisation, ainsi qu’une musicologue. De nombreux étudiants seront impliqués également, pour des travaux de contrôle de qualité et d’indexation des contenus, ou alors pour des tâches opérationnelles liées soit à l’acquisition des bandes vidéo HDCAM, soit à la numérisation de l’important fonds photo appartenant à Georges Braunschweig. Pour ce dernier, deux étudiants en archivistique prendront en main la conception et l’exploitation d’un banc de numérisation photo, 60'000 négatifs noir/blanc ou diapositives y seront traités entre 2014 et 2017.

Les activités du projet s’organisent selon trois piliers :

Les sections suivantes décrivent ces différents axes de travail dans le détail.

Numérisation

La numérisation s’effectue en donnant la priorité aux formats les plus sensibles, soit les bandes 2", et U-matic pour la vidéo. Elle démarre un peu avant la création du Centre Metamedia, sous la direction de Montreux Sounds SA, qui en définit les conditions, et les critères de qualité. Il est décidé de numériser tous les contenus au format non-compressé dans le but de pouvoir en tout temps générer les futurs sous-formats à partir de la référence la plus fidèle. Un second format de qualité broadcast est également créé.

Vidéo Standard Définition, PAL 576i, 50fps, display ratio 4:3/16:9 letterbox ou anamorphic :

Vidéo Haute Définition, 1080i, 50/59.94 fps, display ratio 16:9

Audio :

Chaque format de bande fait l’objet d’une étude détaillée afin de déterminer quels sont les équipements et paramètres les plus adéquats pour la conversion analogique/numérique. La majorité des bandes seront lues sans problèmes, quelques supports seront rejetés, ils sont actuellement mis de côté pour un éventuel traitement ultérieur.

A noter qu’un banc complet pour l’acquisition des bandes HDCAM est mis en service à l’EPFL en 2015 grâce aux compétences des ingénieurs du Centre Metamedia. A la cadence de 8 bandes lues chaque jour sur deux chaînes de traitement parallèles, il permettra à l’équipe de faire l’expérience de la gestion complète d’une acquisition de données audiovisuelles (en l’occurrence de type HD vidéo au format non-compressé à 1.5 Gbit/s), incluant leur contrôle et ingestion dans l’archive avec écriture des supports numériques, import des métadonnées, indexation et transcodages. Plusieurs opérateurs seront formés dans ce but.

Gestion de l’archivage

Base de Données

Une base de données est conçue dans le but de rassembler et relier toutes les métadonnées liées à l’archive et à ses différentes composantes. Cette base relationnelle, utilisant MySQL, regroupe les principaux éléments d’information liés aux concerts, tels que date, nom du concert (sur le programme du festival), liste des morceaux, nom des musiciens et instruments associés, compositeurs, réalisateurs ou ingénieurs du son (parfois). Les informations liées aux supports d’enregistrements originaux et numérisés (référencées par code-barres dans les deux cas) sont inclues, de même que les données concernant la qualité des médias numérisés (niveaux, défauts éventuels, troncatures, etc.) ou les données saisies lors de travaux d’indexation ou de nettoyage des informations. Au total 128 tables réunissent plus d’un millier de champs d’information différents. Les champs renseignent sur la collection mais sont utiles également à l’exploitation de l’archive par l’équipe (localisation des bandes et dates d’entrées/sorties des locaux, statut du clean-up des données, banc de numérisation utilisé chez nos partenaires, opérateurs et dates de contrôle de qualité, etc.).

La base de données est mise en place dans un écosystème logiciel basé sur le langage Scala créé à l’EPFL. Cet écosystème englobe plusieurs modules développés in-house, en particulier des interfaces basées sur le web pour la navigation dans les métadonnées, un environnement optimisé pour le transfert de fichiers vers ou à partir du stockage des médias, des APIs destinées à la communication avec les plateformes de visualisation des archives, ou encore des outils d’export configurable de données (aux formats JSON ou XML). Une librairie logicielle de scripts pour le transcodage est également mise au point, de manière à générer les sous-formats nécessaires aux plateformes de valorisation diverses, incluant notamment l’incrustation automatisée de certaines métadonnées.

Indexation

En 2013, un grand projet d’indexation des concerts est mis en place, avec la participation de plus de 60 étudiants de l’EPFL. Ce projet consiste à segmenter les fichiers concerts en différents évènements : intro, song, applause, speech, comeback, instruments tuning, silence, credits, no signal, test pattern, to check, unrelated. Il permet également de signaler la présence de possibles coupures de morceau ou problèmes audio/vidéo, et un champ de commentaire libre est mis à la disposition des opérateurs pour renseigner la base de données à propos d’éventuelles particularités observées durant le concert. Une vérification des métadonnées associées aux titres des morceaux et à leurs réelles présences et positions dans le concert est effectuée à cette occasion, ce qui permet de réaliser un premier nettoyage des informations de la base de données (originalement fournies par le Montreux Jazz Festival). Les time-codes précis des débuts et fin de morceaux sont attribués selon un ensemble de règles auxquelles les étudiants sont astreints. Un groupe d’étudiants vérificateurs est impliqué dans une deuxième phase du travail, constitué de personnes expérimentées et travaillant de longue date sur l’indexation. En présence de plusieurs parties de concerts se recouvrant (enregistrement d’un concert sur plusieurs bandes), la démarche inclut la localisation précise du time-code de début de la seconde partie sur l’onde audio de la première, ce qui permettra plus tard de juxtaposer les deux parties.

Ce projet d’indexation s’est avéré conséquent et primordial, il représente les fondements de la mise à disposition de la collection sur les plateformes de valorisation. Il durera 3 ans dans sa première étape majeure, pour le traitement de la presque-totalité de l’archive vidéo (ou alors des enregistrements audio si la vidéo est inexistante). Il se poursuit encore aujourd’hui lors des nouvelles éditions du festival, ainsi que pour les cas difficiles qui devraient prochainement être confiés à des spécialistes.

Dans une nouvelle opération lancée en 2016, il est également affecté à chaque concert un genre musical ainsi que des sous-genres, selon une architecture soigneusement conçue. De plus, une modélisation des contrats liant les artistes et le festival est intégrée à la base de données, elle permet l’attribution automatique des droits de diffusion associés à chacun des 46’000 morceaux de la collection, en fonction des différents types de publics ou environnements dans lesquels ils sont diffusés, ceci en tenant compte des évolutions temporelles ou échéances des termes de contrats.

Stockage et Contrôle de Qualité

Chaque fichier obtenu après numérisation est sauvegardé sur deux jeux de bandes LTO (Linear Tape-Open). Le format est LTO4 en début de projet, puis devient LTO6 plus tard. Les deux jeux sont acheminés séparément sur deux sites de stockage, à Montreux et à l’EPFL. Une empreinte numérique de chaque fichier est extraite et stockée en base de données dans le but de pouvoir vérifier son évolution future et détecter d’éventuelles corruptions. Les fichiers au format broadcast sont traités de la même façon, c’est eux qui feront l’objet d’un contrôle de qualité, au cours duquel chaque fichier est examiné durant 15 minutes par une personne formée spécialement (contrôle non complet, mais visant avant tout à détecter des erreurs de numérisation systématiques). Les éventuels problèmes sont répertoriés dans la base de données, une numérisation est à refaire si les spécifications ne sont pas satisfaites. Les éventuels défauts présents sur l’enregistrement d’origine sont signalés s’ils sont détectés au cours de cette opération.

Dès 2012, le format broadcast est inscrit sur un système de stockage supplémentaire à base de disques durs. La rencontre avec la jeune start-up belge Amplidata débouche sur un partenariat, qui permet l’installation à l’EPFL d’un nouveau type de stockage redondant et sécurisé, AmpliStor, de type object-storage. La taille de ce système est de 1 PB (petabyte), il sera complété en 2013 d’un second système de même taille, puis d’un troisième en 2014 amenant la taille totale à 2.5 PB. Ce système permettra l’accès immédiat à tous les médias de l’archive numérisée et facilitera beaucoup le travail de l’équipe du Centre Metamedia, en particulier pour les travaux d’indexation.

Live Archiving et Première Plateforme de Valorisation sur iPad

En 2013 et 2014, l’acquisition live de la réalisation HD produite par la télévision est effectuée pour les trois salles du festival par l’équipe du Centre Metamedia. Une fibre optique à haut débit (10 Gbit/s) est installée entre le Centre des Congrès de Montreux (2M2C) et l’AmpliStor à l’EPFL, et les fichiers non-compressés y sont transférés et archivés immédiatement après le concert. L’expérience permet de générer immédiatement les sous-formats de fichiers nécessaires aux plateformes de valorisation, qui peuvent ainsi présenter les concerts au public du festival le soir suivant le concert (après indexation et validation des droits de diffusion). Cette expérience rencontre un grand succès auprès du public du festival, qui découvre pour la première fois l’archive au « Chalet d’en-bas », un espace consacré à Claude Nobs, son archive et ses collections.

En 2015, Amplidata est rachetée par HGST, une sous-compagnie du géant du disque dur Western Digital. Très intéressée par le concept de Live Archiving, cette entreprise décide de poursuivre le sponsoring, en remplaçant les AmpliStor par un système Active Archive de dernier cri, constitué de trois unités distribuées, d’une capacité de 4.7 PB chacune. L’une des unités est placée dans le data center du 2M2C à Montreux, alors que les deux autres sont installées dans deux data centers de l’EPFL séparés de plusieurs centaines de mètres. Les trois unités, dénommées Ella, Marvin, et Prince, sont réunies par fibre optique, et permettent de stocker jusqu’à 6.8 PB de données. Elles permettent aujourd’hui de stocker l’intégralité de la collection numérisée, et constituent une troisième copie complète de l’archive. Depuis 2016, les fichiers médias de type broadcast peuvent y être archivés le soir même des concerts, et une interface d’accès optimisée a été développée pour l’accès rapide aux fichiers.

Numérisation de photos

En 2013, un important fonds de photos est mis à la disposition du Montreux Jazz Digital Project par le photographe Georges Braunschweig, dont les prises de vue au festival couvrent presque la totalité des 50 éditions. Deux étudiants en information documentaire de la Haute Ecole de Gestion de Genève (HEG) sont engagés pour mettre en place un banc de numérisation organisé autour d’un appareil de type Reflex numérique, procéder à l’identification des contenus avec le photographe, puis à la capture de chacun des 60'000 négatifs et/ou dias. Cette tâche durera 3 ans, et verra également naître une collaboration avec le laboratoire d’humanités digitales de l’université de Bâle pour la création du banc et plus tard le traitement d’un lot de négatifs couleur.

Issues de la collection de Georges Braunschweig ou provenant du Montreux Jazz Festival, plusieurs dizaines de milliers d’images d’origine numérique seront jointes à cette opération, toutes les images étant importées dans la base de données, et associées aux concerts qu’elles illustrent en vue de leur intégration aux plateformes de valorisation de l’archive audiovisuelle. Un projet en collaboration avec l’entreprise bernoise Specialisterne, sera lancé à titre expérimental en 2016 pour l’identification du contenu détaillé de chaque photo. Ce projet sera réalisé par des personnes autistes, dont les propriétés de concentration sont étonnantes et particulièrement adaptées à ce type de travaux. Seule une partie de la collection a pu être traitée jusqu’à aujourd’hui.

Anecdotes et Témoignages

En marge des projets technologiques liés aux enregistrements, deux premières actions visant à ajouter une touche à caractère historique et sociologique à ce projet ont été lancées au Centre Metamedia. Ainsi, près de 800 anecdotes tirées de la presse ont été rassemblées et importées dans la base de données pour utilisation future, certaines d’entre elles apparaissent actuellement sur la plateforme de valorisation Montreux Jazz Heritage Lab II.

Dans un second volet, et en collaboration avec l’équipe du Prof. François Vallotton, spécialiste en histoire de l’audiovisuel à l’Université de Lausanne (UNIL), la récolte de témoignages est organisée auprès de personnalités ayant touché de près ou de loin au Montreux Jazz festival, à sa création, à ses débuts, à ses aspects techniques, etc. Un grand projet est en préparation pour le futur, dans le but d’étudier l’impact social qu’a eu, et que produit toujours le festival sur la population de la région, de la Suisse, et du monde de la musique.

Valorisation et mise à disposition publique

Si les laboratoires de l’EPFL ont un certain droit à utiliser l’archive en raison de l’exception aux droits d’auteur pour l’éducation et la recherche, il n’en va pas de même pour le grand public. Les enregistrements peuvent être montrés toutefois dans certaines situations particulières, lorsque les contrats le permettent au titre de promotion du festival. C’est le cas sur le site du festival durant l’événement, ou alors dans les Montreux Jazz Café, pour certaines sélections. C’est dans ce but que le Centre Metamedia a créé une application iPad inaugurée en 2013 au sein du festival, puis améliorée et étoffée chaque année. Son implémentation et sa couche graphique ont été réalisées par l’entreprise Brozermo. Les médias y sont rendus accessibles via streaming à partir des serveurs de l’EPFL, l’interface est sécurisée. Le public peut y consulter une partie des enregistrements en navigant dans les différentes années du festival, ou en effectuant des recherches par artiste, titre, ou genre musical.

A fin 2016, le Montreux Jazz Café at EPFL a été inauguré sur le campus de l’école. Intégré au nouveau bâtiment Artlab consacré aux humanités digitales, il permet d’y accueillir le public pour plusieurs types d’expériences de découverte des archives. La collection y est mise en valeur par les technologies que les chercheurs de l’école ont développées dans ce but. A côté des postes iPad équipés de projecteurs sonores, deux cabines proposent une navigation individuelle (ou à deux) sur une interface Web sécurisée, permettant d’approfondir la recherche dans les métadonnées via un moteur de recherche basé sur Elasticsearch. Ces cabines sont destinées à intégrer de plus en plus de fonctionnalités, et une interface participative permettant de commenter les contenus et expériences est actuellement en préparation. En 2018, un tel poste sera mis à la disposition des étudiants des écoles de jazz (EJMA) et de musique (HEMU) de Lausanne, un autre pourrait être installé au Musée National Suisse dans le cadre d’une exposition consacrée au Montreux Jazz Festival et à Claude Nobs début 2018.

Projets d’Innovation

Montreux Jazz Heritage Lab

L’un des projets phares, organisé sous la forme d’une collaboration entre plusieurs laboratoires de l’EPFL, vise à proposer au public une expérience inédite pour la découverte des concerts du festival, ceci à la fois en terme de design, d’interaction avec les médias, et d’immersion dans l’ambiance du concert. Dans le cadre de l’EPFL+ECAL Lab, laboratoire au carrefour entre design et technologie, plusieurs équipes se lancent dans le design puis la construction de trois générations de Montreux Jazz Heritage Lab.

La première version, Le Cocon, est imaginé en 2011 en collaboration avec le laboratoire d’architecture Atelier de La Conception de L’espace (ALICE), qui propose un environnement boisé dans lequel 2-4 personnes peuvent prendre place confortablement pour visualiser les concerts (des années 2009 et 2010 uniquement) sur un grand écran incurvé et rapproché. Le design sonore, spatialisé, est confié au groupe Acoustique de l’EPFL, à la startup Illusonic issue du Laboratoire de Communications Audiovisuelles, et à l’entreprise yverdonoise Relec qui fournira des haut-parleurs PSI-Audio de haute qualité. La participation du Laboratoire de Traitement de Signal (LTS2), qui développe une mesure de similarités entre morceaux basée sur le signal audio, permet de proposer une interface tactile de navigation par genre et artistes proches. En 2012, Claude Nobs découvre le Cocon lors de son inauguration dans les locaux de l’EPFL+ECAL Lab et déclare « Je n’ai jamais vu mes concerts comme ça ».

Le Montreux Jazz Heritage Lab II est développé en 2015 et 2016 pour le Montreux Jazz Café de l’EPFL, dans le but de pouvoir y accueillir une vingtaine de personnes dans un espace de 7m x 7m. Le concept prévoit un grand écran incurvé ainsi que des miroirs latéraux qui répliquent l’image vidéo à plusieurs reprises sur les côtés de la salle, agrandissant ainsi l’espace visuellement. Des LEDs diffusent les métadonnées depuis l’arrière des miroirs (sans tain), et reproduisent les couleurs présentes sur l’écran, ajoutant ainsi au sentiment d’immersion. Plusieurs domaines de compétences sont nécessaires dans la réalisation de ce projet; parmi les multiples partenaires impliqués, signalons la présence d’acousticiens en 3D audio pour le développement d’un système Ambisonics d’ordre 3, qui permet de reproduire l’acoustique des salles du festival et augmenter ainsi le sentiment de largeur sonore (parfois à l’aide de remix 3D faisant intervenir l’archive multipiste). Une nouvelle interface tactile dont le design est basé sur l’axe temporel des 50 ans du festival propose une sélection par année, soirée, artiste, puis titre du morceau. La recherche par concert et genre est possible également. Le fonctionnement est celui d’un jukebox, dont les morceaux choisis sont diffusés sur les écrans du Montreux Jazz Café. Le Centre Metamedia exporte les métadonnées, assigne les droits de diffusion de chaque morceau, et fournit les fichiers média associés après transcodage dans un sous-format prévu pour la qualité grand écran (codec H264 à débit variable, 4:2:0, 8bits).

Le Montreux Jazz Heritage Lab Nomad est actuellement en construction à l’EPFL+ECAL Lab, il sera démontable et déplaçable facilement dans le but de le présenter lors d’évènements. Un prototype en a été montré en été 2017 au chalet Le Picotin, la version finale devrait être présentée au public du Montreux Jazz Festival durant l’édition 2018.

Sound Dots

Développés en 2012 pour le premier prototype, puis évoluant vers deux générations ultérieures plus performantes, les « SounD Dots » sont des diffuseurs sonores directionnels imaginés par deux post-doctorants du laboratoire d’acoustique de l’EPFL, puis plus tard produits et commercialisés par la start-up Hidacs qu’ils créeront. Conçu pour la diffusion de musique, accrochés au plafond et dominant une table basse où est présentée l’application iPad de navigation dans l’archive, ils sont présentés à Montreux durant plusieurs éditions du festival, puis intégrés au Montreux Jazz Café at EPFL en 2016. Dans une atmosphère telle que celle d’un café, ils permettent de proposer plusieurs spots adjacents pour la découverte de contenus audiovisuels, dont les composantes sonores ne se mélangent pas et ne dérangent donc pas les autres groupes. Le concept permet de préserver les relations sociales au sein des groupes d’utilisateurs, puisqu’aucun casque d’écoute n’est nécessaire. Ce projet financé par le Centre Metamedia en 2012 est un bon exemple de transfert technologique résultant des interactions avec les archives du Montreux Jazz Festival.

Reconstruction du Casino Kursaal

En 2014, le Centre Metamedia est présent au Montreux Jazz Festival pour y présenter les archives au public du Chalet-d’en-bas. Il y propose une expérience permettant de revivre un concert dans l’ambiance du Casino Kursaal de Montreux, détruit en 1971 par le feu. Développé dans le cadre d’un projet avec le Laboratoire de Communications Audiovisuelles (LCAV), ce travail consiste à modéliser précisément l’acoustique de la salle de concert, afin d’en connaître la réponse en chaque point. Le modèle est basé sur une estimation des paramètres géométriques et acoustiques de la salle (absorption des sols et parois notamment), qui sont en partie déduits des photos et vidéos de l’archive. Un rendu visuel de la salle de concert (et de son fameux sablier!) est créé par l’Atelier Feuerroth en Allemagne. Au Chalet-d’en-bas, l’expérience présente une vidéo aux visiteurs bien installés dans des fauteuils. La caméra avance depuis le fond de la salle de concert jusque sur la scène, où elle passe à quelques centimètres du batteur. Durant ce déplacement, l’acoustique perçue par les visiteurs évolue parallèlement et rend compte des déplacements de la caméra. Lorsque celle-ci passe près du batteur, les technologies 3D audio assistées des multipistes de l’archive permettent de restituer le son de la batterie à quelques centimètres des oreilles des visiteurs. L’expérience, quelque peu émotionnelle, rencontre un énorme succès. Suite à ce projet, une modélisation des salles actuelles du festival sera imaginée pour le Montreux Jazz Heritage Lab II.

Remix the Archive

Une mise en valeur des archives multipistes est tentée dès 2015 dans le cadre d’un partenariat avec l’entreprise Future Instruments présente sur le parc de l’innovation de l’EPFL. L’idée consiste à développer une interface tactile pour le mixage des différents instruments d’un concert. Chaque instrument (ou groupe d’instruments) est représenté par une bulle, dont le déplacement sur un écran en modifie le volume. Dans une seconde version, le système est associé à une infrastructure sonore de type 3D audio / Ambisonics, et les instruments peuvent être déplacés et mixés dans l’espace de la salle. Destiné avant tout à l’éducation d’un public amateur de musique, le système a également été présenté à des DJs, équipé d’une fonctionnalité de synchronisation permettant de mixer des boucles audio issues de librairies tierces.

Enregistrement des Concerts en Réalité Virtuelle

En 2016, un partenariat avec l’entreprise PRG en Allemagne permet d’enregistrer une vingtaine de concerts du Montreux Jazz Festival en réalité virtuelle. Une récente caméra OZO de Nokia est placée au centre de la scène et capture les images 360 degrés. Parallèlement, un microphone placé au niveau de la caméra, et dont les signaux binauraux seront mélangés aux multipistes du concert lors du post-traitement, permet d’associer le rendu audio 3D à la visualisation spatiale, ce qui est significatif pour la véracité de l’immersion. Lors de la découverte du concert à l’aide de lunettes de réalité virtuelle, un mouvement de la tête provoque ainsi la redistribution des composantes audio dans le casque d’écoute, et l’acoustique perçue suit ainsi le mouvement. L’expérience sera très prochainement proposée aux visiteurs du Montreux Jazz Café at EPFL.

Analyse et Visualisation des données de concerts

Le Laboratoire de Traitement de Signal (LTS2) de l’EPFL travaille en étroite collaboration avec le Centre Metamedia depuis les débuts du Montreux Jazz Digital Project. En 2012 par exemple, le développement du projet Genezik permet la création de « balades musicales », playlists dont les morceaux se succèdent de manière cohérente, dans un style proche et avec des transitions douces. C’est l’analyse et l’extraction de paramètres caractéristiques à partir du signal audio qui permet d’établir les similarités entre les morceaux d’une collection musicale. L’application Genezik sera proposée sur iPhone et MAC en 2014, l’outil intégrera également les fonctionnalités de recommandation. A noter qu’un détecteur d’applaudissement sera développé à cette occasion, les applaudissements des enregistrements live devant être éliminés avant analyse pour éviter les confusions.

En 2016 et 2017, Kirell Benzi, post-doctorant du laboratoire, étudie la problématique de la visualisation de données Big Data, et y ajoute une touche esthétique. Plusieurs visualisations sont développées à partir des métadonnées de l’archive du festival, permettant en particulier de représenter les liens entre artistes (carte des artistes ayant joué ensemble), l’évolution des genres à travers les années, la distribution géographique des artistes sur la planète, etc. Ces visualisations sont à l’étude actuellement, plusieurs projets d’étudiants vont être lancés prochainement et une collaboration avec la nouvelle start-up Kirelion est envisagée. Le développement de versions animées des visualisations pourrait représenter dans le futur un nouveau moyen pour le public d’entrer dans l’archive et d’y naviguer, par exemple en débutant par un instrument particulier, ou alors par un artiste, parcourant ensuite les concerts d’autres artistes avec qui il était en relation à Montreux.

Futurs projets 

La liste de projets d’innovation et recherche est encore longue, en particulier si nous évoquons les perspectives futures. Citons par exemple le projet de détection et correction de défauts sur les vidéos SD de la collection (en particulier lignes et « dropouts ») lancé en 2012 dans le MultiMedia Signal Processing Group (MMSPG). Ce projet pourrait être développé plus avant dans le futur, peut-être en collaboration avec un projet d’augmentation de la qualité des anciennes vidéo vers les nouveaux formats (HD, 4K, HDR), projet actuellement en démarrage au laboratoire Image And Visual Representation Lab (IVRL).

A noter également les projets de type « machine learning », qui vont participer notamment à un enrichissement important de la base de données des métadonnées de l’archive. En audio un premier projet avait été lancé en 2013 dans un second Laboratoire de Traitement de Signal (LTS5) de l’EPFL pour tenter de modéliser certains instruments (en exploitant notamment la référence que représentent les multipistes!). Ce projet avait abouti à un démonstrateur permettant d’isoler ou supprimer un instrument présent sur un enregistrement stéréo. La méthode donnait des résultats encourageants pour traiter les instruments à vent, dont la structure harmonique et les propriétés statistiques restent simples (peu de flancs d’attaques).

Un autre sujet intéressant en lien avec ce projet de modélisation des instruments consiste à tenter de détecter les solos présents dans les archives, pour la basse, la batterie, la guitare, le saxophone et bien d’autres instruments. Un premier essai a été réalisé en 2015 par un étudiant de l’Idiap Research Institute à Martigny. Une indexation par time-code des différents solos serait souhaitable pour la recherche dans la base de données, en particulier pour les besoins des musicologues.

Dans le même sens, mentionnons le projet « Google du Montreux Jazz » lancé en 2016, qui vise à identifier et localiser les objets clés dans la vidéo des concerts, instruments bien sûr, mais aussi visages des musiciens, spots, ou logos. Cette collaboration avec le Laboratoire IVRL a pour but d’extraire de belles images, pour en créer des vignettes à caractère esthétique pouvant être associées à chaque morceau de l’archive. Une interface a été développée pour permettre la création semi-automatique de mosaïques d’images représentatives des différents morceaux.

Perspectives et Conclusions

De beaux projets sont en construction pour le futur, notamment en collaboration avec le nouveau professeur en musicologie digitale et cognitive, qui est entré en fonction tout récemment à l’EPFL, et dont les analyses à caractère musicologique de l’archive du festival vont débuter. Du côté éducatif, un cours MOOC (Massive Open Online Course) est en préparation au Centre Metamedia, en collaboration étroite avec le Montreux Jazz Festival et la MOOC Factory de l’EPFL, et d’autres liens apparaissent avec des professeurs issus des écoles de musique de la région (HEM-GE, UNIL, HEMU, EJMA, UNIGE). Des collaborations académiques sont également en discussion avec le Berklee College of Music à Boston (pour la remasterisation des archives), ou avec l’IRCAM et l’INRIA en France, des institutions qui travaillent déjà sur certains projets faisant intervenir des extraits d’archives.

Du côté de l’innovation à long-terme dans le domaine archivistique, un récent partenariat avec l’entreprise Twist Bioscience ouvre des perspectives prometteuses en vue du stockage de données sur ADN. Deux morceaux emblématiques de l’archive de Montreux viennent d’être encodés, stockés, puis extraits et décodés sans erreur à partir de l’ADN, pour être joués en public lors du forum tenu à l’EPFL le 29 septembre 2017, organisé par la Fondation ArtTech. C’est « Smoke On The Water » du groupe de rock Deep Purple, ainsi que « Tutu » du trompettiste de jazz Miles Davis qui ont été traités avec succès, une compilation des meilleurs concerts du festival pourrait être considérée dans le futur, à l’occasion d’une action plus importante. Le stockage sur ADN est perçu comme une solution robuste et fiable à très long terme, à envisager de manière parallèle aux technologies en cours actuellement.

L’enveloppe globale du Montreux Jazz Digital Project s’élève jusqu’à aujourd’hui à 15 millions de francs suisses, y compris les donations sous formes matérielles. Le défi à relever réside maintenant dans la préservation à long terme du travail réalisé jusqu’à aujourd’hui, au niveau technique bien sûr (la documentation et la mise en conformité vis-à-vis des normes OAIS sont en cours), mais plus particulièrement au niveau de son financement.

Le Montreux Jazz Digital Project est un grand succès à la fois pour l’EPFL et la Fondation Claude Nobs qui a repris en 2016 la suite du partenariat établi initialement avec Montreux Sounds SA. Le projet est également précieux pour le grand public et la société, il participe aussi à la notoriété du Montreux Jazz Festival et renforce son image de pionnier dans l’avance technologique. Des perspectives magnifiques s’ouvrent autour de cette collection numérisée, à la fois dans l’innovation, mais également dans l’éducation et la recherche, autour de thématiques technologiques, musicologiques, sociologiques ou historiques. 

Espace de découverte des archives et des projets d’innovation associés, dans l’enceinte du Montreux Jazz Festival durant son édition 2014

 

Crédit: Alain Herzog, EPFL, 2014

Service de gestion des données de recherche à la Bibliothèque de l’EPFL : historique, services et perspectives

Eliane Blumer, Coordinatrice données de recherche, Bibliothécaire de liaison pour les Sciences de la Vie

Jan Krause, data librarian

Service de gestion des données de recherche à la Bibliothèque de l’EPFL : historique, services et perspectives

Introduction

Tout service réussi répond à un besoin. Dans ce cas, le besoin est double, d’une part celui des chercheurs et d’autre part celui de l’institution. En effet, au cours des dernières années, les principaux bailleurs de fonds ont mis en place des exigences plus poussées en matière de gestion de données. En parallèle, les éditeurs ont également élevé leurs critères en ce sens. De plus, la complexité et la quantité des données ne cessant d’augmenter, certains chercheurs ressentent le besoin d’être épaulés par leur organisation.  Par ailleurs, depuis le début de l’année la nouvelle direction de l’EPFL a mis un point fort sur l’ouverture de la science et sa reproductibilité (open science), ce qui inclut une meilleure gestion ainsi qu’une ouverture plus large des données de la recherche.

Pour répondre à ces besoins croissants,  le service de  gestion des données de la recherche de la Bibliothèque de l’EPFL a mené deux projets en parallèle : la création de son offre de service et une participation très active au projet national Data Life-Cycle Management (DLCM). Chacun nourrissant l’autre et permettant le développement de compétences. Cet article décrit l’historique de la mise en place du service de gestion des données de recherche à la Bibliothèque de l’EPFL. Il s’arrête sur les services offerts à ce jour et se termine sur les perspectives d’évolution.

Historique de la mise en place du service

L’implication des bibliothèques universitaires dans la gestion des  données de la recherche se situe dans la continuité de leurs missions. En effet, les données sont désormais considérées comme des éléments de publications scientifiques à part entière dans le cadre de la dissémination de la recherche. Le partage des données de recherche devient donc crucial. Il s’agit d’une extension des compétences en matière de métadonnées, de licences, de dépôts institutionnels, notamment. Pour cette raison, entre 2012 et 2013, le dossier « Données de la recherche » a été intégré dans les axes stratégiques de travail au sein de la Bibliothèque, qui a su anticiper les besoins institutionnels. Le travail a démarré d’un côté avec un état des lieux des services offerts dans d’autres institutions internationales, et de l’autre avec la mise en place de collaborations liés aux données de la recherche au sein de l’institution. En pratique, la gestion des données de recherche a été insérée dans le cahier des charges de deux personnes entre fin 2013 et début 2014, ce qui représentait une charge de 0.4 ETP au total.

Tout au long de 2014, le projet de mise en place des services de support pour les chercheurs en matière de gestion de données a été poursuivi, et une première action de sensibilisation a été réalisée avec la conférence « Open Research Data – The Future of Science ». Ce fut l’occasion de se réunir avec les chercheurs et les autres acteurs impliqués au sein de l’institution (le Research Office, le service informatique), et d’échanger avec d’autres acteurs concernés en Suisse (professionnels de l’information, etc.).

Cette même année, la Bibliothèque s’est focalisée sur la mise sur pied du projet national Data Life-Cycle Management (DLCM)[1]. Nous avons été particulièrement actifs dans la soumission commune de la proposition de projet auprès du fond swissuniversities P-2 Information Scientifique. Celle-ci a permis d’obtenir un fond de cinq millions au total destiné à répondre au niveau national aux besoins les plus imminents des chercheurs en matière de gestion de données, incluant le planification, la gestion active, la préservation ainsi que le training et consulting. Dans ce contexte, la Bibliothèque de l’EPFL s’est engagée activement en tant que responsable d’un axe de travail, ce qui lui a permis d’augmenter ses forces de travail d’1.0 ETP via des fonds mixtes. De manière générale, la Bibliothèque de l’EPFL a bénéficié du projet DLCM qui a joué le rôle de moteur national pour les institutions participantes.

En 2015, le service se formalise. La Présidence de l’EPFL approuve en janvier un projet de service d’accompagnement des chercheurs pour la rédaction des Data Management Plans (DMP) en phase pilote pour six mois. L’objectif du service était de soutenir les chercheurs qui devaient répondre aux requêtes en matière de gestion de données de la recherche de la Commission Européenne dans le cadre de l’Open Data Pilot du programme de financement Horizon 2020. Le projet a été ensuite confirmé et stabilisé après le pilote. C’est également dans ce contexte et au cours de cette année que les effectifs ont pu être augmentés de 0.8 ETP.

Une page web a été également insérée dans le site de la Bibliothèque, mettant en évidence les différents services impliqués dans la gestion des données à l’EPFL. De plus, un article présentant les enjeux de la bonne gestion des données ainsi que le service est publié dans le journal institutionnel[2]

Côté sensibilisation, la Bibliothèque a de nouveau organisé un événement, étalé sur quatre dates autour la thématique de l’Open Science, cette fois-ci avec une orientation plus pratique, avec entre autres des workshops sur [3]  et la fouille de textes et de données (data and text mining).

Côté formation, une première offre a été mise en place, avec l’intention de couvrir les besoins institutionnels. Une formation généraliste d’une journée (« Optimizing Research Data Management »), accessible via le Service de Formation du Personnel et destinée à l’ensemble de l’EPFL avec un fort accent sur la recherche a été créée.

Dès 2016, un module de gestion des données de recherche dans la formation en compétences informationnelles à destination des doctorants a été initié ; il se focalise sur la publication de jeux de données. Des formations ciblées pour des groupes de recherches sont aussi offertes à la demande. Dans ces cas, une étude des besoins du laboratoire est effectuée au préalable, d’une part via un sondage auprès des membres du groupe et d’autre part en se basant sur une enquête plus approfondie auprès d’une ou deux personnes choisies. Finalement, des propositions d’améliorations sont faites et discutées avec l’ensemble du groupe pendant une demi-journée ou une journée entière. Le but étant de prendre des décisions débouchant sur des actions concrètes.

Sur le plan de la sensibilisation, la Bibliothèque de l’EPFL a notamment agi via la co-organisation de la conférence opendata.ch à Lausanne, en prenant en charge la partie dédiée aux données de recherche, les autres partenaires se focalisant sur les aspects gouvernementaux et commerciaux de l’open data.

Sur le plan pratique, pour renforcer les actions de support pour les chercheurs dans la rédaction des DMPs, la Bibliothèque a créé en 2016, en collaboration avec l’Ecole Polytechnique Fédérale de Zürich (ETHZ), une Data Management Checklist ainsi qu’un premier modèle de Data Management Plan (en partenariat aussi avec le Digital Curation Centre). Ce modèle répond au lancement du Open Data Pilot d’Horizon 2020[4], le programme européen de financement de la recherche et de l’innovation. Le pilote portait sur neuf domaines scientifiques[5] et comprenait la nouvelle exigence de fournir un DMP.  Plus précisément, ce type de plan consiste à répondre à un ensemble de questions spécifiques, telles qu’illustrées dans le tableau 1 ci-dessous. En d’autre termes, il s’agit d’un document définissant pas à pas la gestion des données, depuis leur création jusqu’à leur archivage. Étant donné que Horizon2020 est l’un des deux bailleurs de fonds les plus importants pour l’EPFL, il est évident que ceci a demandé une forte implication du service pour répondre au besoin des chercheurs. Il était également important de remplir ces exigences pour la direction et de maintenir le niveau de financement obtenu.

Par ailleurs, le projet DLCM ayant été accepté, une partie importante des forces de travail s’est orientée sur ce projet. Notamment, sur la réflexion autour du portail DLCM, ainsi qu’un travail préliminaire sur le projet de préservation à long terme. Ceci a permis à l’équipe de la Bibliothèque de renforcer son réseau et ses compétences

En 2017, Martin Vetterli a été nommé président de l’EPFL. Dès son entrée en fonction, celui-ci a fait remonter l’Open Science au premier plan des préoccupations stratégiques de l’institution. En particulier, la direction a apporté son soutien à la démarche de la Bibliothèque et de son service de gestion des données de recherche. Des actions pragmatiques ont été entreprises en étroite collaboration avec la Bibliothèque tel qu’un hackathon basé sur l’ouverture de données de l’EPFL[6] ou encore une école d’automne pour les doctorants, Open Science in Practice,  a été mise en place.  La bibliothèque s’y est fortement impliquée, notamment en proposant les modules sur le DMP, la publication et la préservation de données. De plus, la formation interne déjà en place sur le data management planning a vu sa demande augmenter et a été donnée quatre fois.

Ce fut également le moment opportun pour lancer le nouveau site web http://researchdata.epfl.ch , déjà en préparation. Celui-ci comporte les sections suivantes : Planification et financement, Travailler avec les données, et Publication et préservation. Les informations-clés concernant le support et les formations y sont disponibles.

Toujours en 2017, le  Fond national suisse de la recherche scientifique (FNS) exige des DMP dès la soumission des projets, et ceux-ci sont devenus une part importante du service. De façon similaire, Horizon2020 a étendu son Open Data Pilot à l’ensemble des disciplines, rendant le DMP systématiquement obligatoire. En réponse à ceci,  [7] à été élaboré, toujours en collaboration avec l’ETHZ.

Ce n’est pas uniquement l’accroissement des forces de travail qui a permis de monter ce service, mais également la collaboration avec d’autres services et institutions ainsi que l’organisation d’un bon nombre d’événements clés internes et externes à l’EPFL sur plusieurs années.

Figure 1 – Evolution des forces de travail de l’équipe, financement EPFL et DLCM confondus.

Les services à ce jour

Globalement, les services en matière de données de la recherche offerts par la Bibliothèque peuvent être divisés en deux catégories : le soutien et les formations.

Soutien 

Le soutien se décline en plusieurs variantes.

Le plus fréquemment, il s’agit d’assister les unités de recherche à rédiger un DMP. Il s’agit souvent de répondre à l’exigence d’un bailleur de fonds, particulièrement le FNS ou Horizon2020. Moins fréquemment, les groupes désirent travailler sur un DMP dans le simple but d’améliorer leur pratique.

Dans d’autres cas, notre apport consiste à amener une expertise spécifique quant à une problématique précise. Il peut par exemple s’agir de choisir un dépôt pour la publication de données, ou une licence appropriée, ou encore un renseignement quant à la politique d’un éditeur en matière de partage de données.

Afin d’optimiser le support, nous avons créé différents guides. Parmi les plus utilisés, il y a le [8], élaboré en collaboration avec la bibliothèque de l’ETHZ. Ce document propose des recommandations ainsi que des exemples de réponses pour chaque question du bailleur de fonds (voir tableau 1).

Tableau 1 - Questions à développer pour le Data Management Plan du Fonds national suisse de la recherche scientifique

1 Data collection and documentation

1.1 What data will you collect, observe, generate or reuse?

1.2 How will the data be collected, observed or generated?

1.3 What documentation and metadata will you provide with the data?

2 Ethics, legal and security issues

2.1 How will ethical issues be addressed and handled?

2.2 How will data access and security be managed?

2.3 How will you handle copyright and Intellectual Property Rights issues?

3 Data storage and preservation

3.1 How will your data be stored and backed-up during the research?

3.2 What is your data preservation plan?

4 Data sharing and reuse

4.1 How and where will the data be shared?

4.2 Are there any necessary limitations to protect sensitive data?

4.3 I will choose digital repositories that are conform to the FAIR Data Principles.

4.4 I will choose digital repositories maintained by a non-profit organization.


Par exemple, concernant la question sur le copyright et la propriété intellectuelle, la recommandation suivante est proposée :

« Attaching a clear license to a publicly accessible data set allows other to know what can legally be done with its content. When copyright is applicable, Creative Commons licenses are recommended. However, Creative Commons licenses are not recommended for software.

Amongst all Creative Commons licenses, CC0 "no copyright reserved” is recommended for scientific data, as it allows other researchers to build new knowledge on top of a data set without restriction. It specifically allows aggregation of several data sets for secondary analysis. Several data repositories impose the CC0 license to facilitate reuse of their content.

In order to enable a data set to get cited, and therefore get recognition for its release, it is recommended to attach a CC-BY “Attribution” license to the record, usually a description of the dataset (metadata). To get recognition, data sets can be cited directly. However, to increase their visibility and reusability, it is recommended to describe them in a separated document licensed under CC BY “Attribution”, such as a data paper or on the institutional repository.

When the data has the potential to be used as such for commercial purposes, and that you intend to do so, the license CC BY-NC allows you to keep the exclusive commercial use.

Reuse of third-party data may be restricted. If authorised, the data must be shared according to the third party’s original requirement or license.

If you need guidance in the publication and license choice, you can check the suggested “Data publication decision tree” 

Pour ce même point, trois exemples sont aussi donnés :

Example 1:

The research is not expected to lead to patents. IPR issues will be dealt with in line with the institutional policy. As the data is not subjected to a contract and will not be patented, it will be released as open data under Creative Commons CC0 license.

Example 2:

This project is being carried out in collaboration with an industrial partner. The intellectual property rights are set out in the collaboration agreement. The intellectual property generated from this project will be fully exploited with help from the institutional Technology Transfer Office. The aim is to patent the final procedure and then publish the work in a research journal and to publish the supporting data under an open Creative Commons Attribution (CC BY) license.

Example 3:

Data is suitable for sharing. They are observational data (hence unique) and could be used for other analyses or for comparison for climate change effects among many things. Reuse opportunities are vast. For this reason, we aim to allow the widest reuse of our data and will release them under Creative Commons CC0.

De plus, d’autres documents ont été élaborés et mis à disposition sur le site web, dont :

  • Modèle pour Horizon 2020
  • Formats de fichier recommandés pour la préservation à long terme
  • Arbre de décision pour choisir une stratégie de publication des données

Un cas type de demande d’assistance pour la rédaction d’un DMP

Souvent, les demandes de soutien débutent par un mail reçu sur la boîte email researchdata@epfl.ch Prenons l’exemple fictif d’un message avec pièce jointe envoyé par une chercheuse en Sciences de la Vie constitué du modèle DMP FNS pré-rempli ainsi que de plusieurs questions. Imaginons que, dans le DMP, la nature des données produites ainsi que les droits de partage (embargo, données sensibles etc.) ne sont pas détaillés.  Comme il y a beaucoup de points à couvrir dans ce cas, nous contactons la personne en lui proposant un entretien afin de discuter de vive voix de ses questions. Dans des cas plus simples, nous répondons directement par email ou par téléphone.

Le rendez-vous fixé, deux collègues de l’équipe données de recherche ainsi que le/la bibliothécaire de liaison de la discipline concernée se réunissent pour préparer ensemble le retour. L’équipe se rend compte que d’autres parties du DMP ont été traitées de façon superficielle ou manquent. C’est souvent concernant la préservation à long-terme, les métadonnées, les formats de préservation et les licences.

Lors de la réunion, les questions de la chercheuse sont traitées, puis, l’ensemble du document est passé en revue et des suggestions d’amélioration sont faites. En sciences de la vie, lorsque le projet est réalisé avec des partenaires industriels, les droits doivent être discutés avec tous les acteurs impliqués. On insiste également sur le fait que les données personnelles ou sensibles, sont soumises à des exigences légales, et en fonction de la situation, nous renvoyons la chercheuse vers le Human Research Ethics Committee's (HREC)[9]. Pour la gestion des données actives, nous renseignons sur les différents outils appropriés, et, le cas échéant nous renvoyons vers le service informatique concerné (stockage, cahier de laboratoire électronique, gestion des versions, etc.). En ce qui concerne les métadonnées, nous proposons des standards appropriés, en soulignant l’importance de décrire les jeux de données de façon à ce qu’ils soient FAIR[10], comme l’exigent la plupart des bailleurs de fonds. Pour la partie préservation à long-terme, nous rappelons que l’EPFL ne propose pas (encore) de solution interne. Dans le cas présent, une fois les données anonymisées, elles pourront être publiées gratuitement sur Zenodo.org [11]. Nous profitons de l’occasion pour discuter un peu plus en détails de l’initiative du FNS, ainsi que du budget disponible pour la gestion des données du projet.

A la suite de la réunion, nous renvoyons un message contenant tous les documents et informations utiles en pièce jointe.

Le soutien tel que décrit ci-dessus s’est avéré pertinent et apprécié. Cependant, au sein d’une institution forte de milliers de chercheurs organisés en environ 353 groupes de recherche, il n’est pas possible de revoir en détail le data management plan de chaque projet. C’est une des raisons pour lesquelles il est important de former les collaborateurs concernés.

Formation

  • Présentation : court exposé non-interactif d’une thématique visant un public spécifique.
  • Atelier court : d’une durée de deux heures, souvent combiné avec une pause sandwich à midi, visant généralement les chercheurs.
  • Atelier d’une demi-journée : souvent utilisé pour la formation sur  mesure d’un groupe de recherche, ou un module pour l’école doctorale.
  • Atelier d’une journée et plus : visant généralement un public hétérogène : personnel EPFL en général, une école doctorale, bibliothécaires spécialistes.

La Bibliothèque propose une gamme de formations, tant à l’interne qu’à l’externe. La priorité est évidemment de servir l’institution, néanmoins, l’équipe « données de recherche », s’efforce de répondre aux sollicitations externes dans la mesure de ses forces. En effet, les interventions externes constituent une occasion précieuse de s’enrichir et d’échanger.

Nos formations prennent différentes formes, en fonction du contexte. Voici la panoplie que nous utilisons :

Un cas type : la formation destinée au personnel EPFL

Description

Savoir gérer et organiser ses données de recherche devient l’une des conditions sine qua non pour garantir la qualité, la pérennité ainsi que la reproductibilité de ses données dans la durée. De plus, de nombreux bailleurs de fonds exigent aujourd’hui de savoir préparer un plan de gestion des données pour obtenir un financement. Ce cours d’introduction vous permettra d’acquérir les connaissances et ressources indispensables pour améliorer et optimiser l’organisation ainsi que le partage de vos données de recherche pour le long terme.

Objectifs

  • Acquérir les connaissances de bases et découvrir les ressources à votre disposition pour mieux gérer vos données.
  • Se sensibiliser aux bonnes pratiques en matière de gestion des données de la recherche tout au long du cycle de vie.
  • Saisir les bénéfices d’une telle pratique et savoir répondre aux nouvelles exigences des bailleurs de fond dans ce domaine.
  • S’approprier les outils à votre disposition pour optimiser la gestion de vos données au quotidien et à long terme.
  • Connaître les étapes et outils pour optimiser la préparation d’un plan de gestion des données.
  • Partager votre expérience avec vos collègues.

Parcours de formation :

  • Définitions et cycle de vie des données de recherche.
  • Avantages d’une meilleure gestion et positions des bailleurs de fonds.
  • Présentation théorique des bonnes pratiques pour organiser et partager ses données de recherche.
  • Mise en pratique de solutions en fonction des disciplines des participants à cette formation.
  • Conseils personnalisés et partages d’expériences.

Public cible

Tout collaborateur souhaitant acquérir de nouvelles compétences pour une meilleure gestion de ses données de recherche. Cette formation est un prérequis pour suivre le cours pratique qui porte sur l’utilisation du logiciel de cahier de laboratoire électronique.

Autres informations

Cette formation offrira des bases théoriques et pratiques. Tout au long de la journée, des exemples concrets seront discutés et mis en pratique selon les besoins précis des participants. Chaque participant aura l’opportunité de pratiquer sur un ordinateur mis à sa disposition et pourra explorer les ressources et solutions disponibles pertinentes dans le cadre son domaine de recherche.

Conclusion

En résumé, la Bibliothèque a su anticiper les évolutions de la recherche scientifique et les nouveaux besoins des chercheurs afin de mettre en place un service adapté. Il a été nécessaire de rassembler plusieurs facteurs pour y parvenir. Tout d’abord, comme l’ensemble des compétences requises pour un tel service n’était pas centralisé à la bibliothèque, il a été essentiel d’établir des collaborations internes et externes. Cela a été l’occasion de devenir une plateforme centralisant les demandes. Ensuite, le contexte politique a été favorable. Premièrement, au niveau institutionnel, avec une volonté claire de soutenir l’Open Science. Deuxièmement, le contexte politique suisse et international a permis de s’engager dans le projet DLCM et de répondre au besoin des chercheurs, lié principalement aux exigences des bailleurs de fond FNS et Horizon2020.

Dans ce domaine en évolution perpétuelle, il est nécessaire de continuer d’innover. Pour commencer, les activités liées à la gestion des données de recherche de la Bibliothèque s’inscrivent dans une stratégie plus large, et qui est actuellement en train d’être approfondie. De plus, si l’on se restreint plus strictement au sujet de cet article, divers développements sont prévus. Pour commencer, les services et outils mis en place continueront d’être améliorés, notamment une nouvelle version du modèle de DMP pour le FNS est prévue. Par ailleurs, des nouveautés sont prévues, citons par exemple la mise en place d’un dépôt institutionnel pour les données, d’un cours crédité pour les doctorants, ou encore d’un service de data stewards travaillant en étroite collaboration avec les laboratoires.

Remerciements

Nous tenons à remercier chaleureusement tous nos collègues de l’équipe des données de recherche et au-delà, qui ont pris le temps de relire et améliorer cet article. Merci en particulier à Lorenza Salvatori d’avoir complété cet historique.


Notes

[1] Accepté en août 2015, DLCM vise à développer ses services en partant des besoins de la communauté. D'entrée de jeu, 49 chercheurs spécialisés dans des disciplines variées ont été interviewés à travers la Suisse. Concrètement, le projet rassemble les forces de l'EPFL, de la HEG / HES - SO, de l'UNIL, de l'UNIBAS, de l'UNIZH, de l'ETHZ, de l'UNIGE et de SWITCH. Pour répondre aux besoins identifiés dans ces interviews, cinq groupes de tâches, appelés tracks , ont été mis en place »  Krause & Blumer, Hors-Texte 110, Novembre 2016, p. 27sq. Les cinq tracks sont : Lignes directrices et politiques ; Données actives de recherche ; Préservation à long terme ; Conseil, formation et enseignement ; Diffusion. Plus d’information : https://dlcm.ch

[2] « Les données de recherche: une mine d’or à domestiquer et valoriser » Flash No. 04, mai 2015. https://mediacom.epfl.ch/files/content/sites/mediacom/files/Flash/Flash%2004-2015.pdf

[3] Voir : http://jupyter.org

[4] Voir : https://ec.europa.eu/programmes/horizon2020/

[5] Voir : http://www2.unavarra.es/gesadj/servicioBiblioteca/piloto_de_datos/4.%20p...

[6] Voir : http://datajamdays.org/

[7] Voir : https://researchdata.epfl.ch/files/content/sites/researchdata/files/doc/EPFL_SNSF_DMP_Template.docx

[8] Voir : https://researchdata.epfl.ch/files/content/sites/researchdata/files/doc/EPFL_SNSF_DMP_Template.docx

[9] Voir : https://research-office.epfl.ch/research-ethics/research-ethics-assessment/epfl-human-research-ethics-committee/hrec

[10] Les données FAIR, signifient: Findable, Accessible, Interoperable and Reusable. Voir: https://www.force11.org/group/fairgroup/fairprinciples

[11] Dépôt de données de recherche. Voir: https://zenodo.org

Les archives démocratiques

Andreas Kellerhals, Directeur des Archives fédérales suisses 

Aude Thalmann, traductrice

Les archives démocratiques

En Europe, les archives sont des archives de démocraties. Sont-elles pour autant des institutions démocratiques ? Doivent-elles ou peuvent-elles être démocratiques ? Aujourd’hui, les archives sont aussi des archives de la société de l’information. Sont-elles pour autant numériques ? La démocratie numérique constitue-t-elle l’accès au paradis de l’information ? Répondre spontanément à ces questions par l’affirmative semble difficile. Pour ce qui est de la thématique principale – les archives démocratiques – la réponse dépend dans une large mesure de ce que l’on entend par démocratique, des attributs que l’on associe à la démocratie. Comme le montrent (malheureusement) de nombreux exemples d’États de non-droit et de dictatures, les archives ne sont en soi ni démocratiques ni des institutions de la démocratie.

S’interroger sur la nature démocratique et numérique des archives ne vise pas à analyser des aspects techniques ou organisationnels. Il s’agit plutôt d’examiner les conditions de production et d’utilisation de l’information qui se cachent derrière les notions de cyberdémocratie, d’administration 4.0, des sciences participatives et d’autres néologismes du même ordre [1]. Nous allons apporter un éclairage sur ce point à partir de l’exemple des Archives fédérales suisses.

Il y va notamment de la possibilité de s’approprier le passé pour construire son identité, des débats sur ce passé et de leurs conséquences pour le présent et pour l’avenir. Une société pluraliste se doit de créer les conditions nécessaires à l’établissement d’une vision pluraliste de l’histoire[2]. Une politique de mémoire orientée est une politique qui réduit la démocratie. Pour construire la mémoire collective, l’archivage doit renforcer ce pluralisme en intégrant aussi des traces alternatives d’actions et de décisions[3]. En d’autres termes, il s’agit d’éviter que « les archives […] soient créées, exploitées et utilisées comme des institutions de l’infatuation, de la vengeance, de l’indignation et du ressentiment  », que l’archivage soit utilisé « cryptodémocratiquement » essentiellement pour consolider le monopole de l’information, comme complément indispensable du monopole du pouvoir[4].

Pour ce qui est du caractère démocratique des archives, la formulation de Jacques Derrida me semble constituer – compte tenu des différentes définitions de la démocratie et de la diversité des États qui se disent démocratiques – un bon point de départ[5] : « Nul pouvoir politique sans contrôle de l’archive, sinon de la mémoire. La démocratisation effective se mesure toujours à ce critère essentiel : la participation et l’accès à l’archive, à sa constitution et à son interprétation. »[6]

Au-delà du lien de dépendance entre pouvoir politique et contrôle sur les archives ou sur la mémoire, deux aspects clés du travail en archivistique sont abordés ici : l’évaluation et la sauvegarde des informations d’une part, l’organisation de l’accès et l’accessibilité des informations d’autre part.

Accès aux archives selon la loi

Commençons, en parcourant le cycle de vie des informations à l’envers, par la question de l’accès aux archives. Un éclairage peut être apporté d’un point de vue juridique / théorique (accès) et d’un point de vue pratique (accessibilité). Le cadre légal est fixé par la loi fédérale sur l’archivage (LAr) du 16 juin 1998 (RS 152.1)[7]. Historiquement, cette loi s’inscrit dans la tradition de la première loi sur l’archivage, fondatrice des archives nationales françaises, à savoir la loi du 7 messidor an II (25 juin 1794) concernant l’organisation des archives établies auprès de la représentation nationale, dont l’art. 37 définit le libre accès aux archives : « Tout citoyen pourra demander dans tous les dépôts, aux jours et aux heures qui seront fixés, communication des pièces qu'ils renferment : elle leur sera donnée sans frais et sans déplacement, et avec les précautions convenables de surveillance. »[8] Ce principe, révolutionnaire à l’époque et qui tombe sous le sens aujourd’hui, est repris à l’art. 9 de la LAr (Principe de la libre consultation et délai de protection) : « Les archives de la Confédération peuvent être consultées librement et gratuitement par le public après l’expiration d’un délai de protection de 30 ans ».

Les Archives fédérales suisses, qui ont succédé aux Archives centrales de la République helvétique, ont ainsi créé un point de rattachement à l’époque de la Révolution. La LAr s’éloigne toutefois du principe d’accès énoncé encore dans l’ancien règlement relatif aux archives fédérales, selon lequel « les documents […] sont accessibles au public après l’expiration d’un délai de 35 ans, à la condition toutefois que des intérêts publics ou privés importants ou dignes d’être protégés ne soient pas mis en péril ». Des autorisations dérogeant au délai général de 35 ans pouvaient néanmoins être accordées « à des fins scientifiques »[9]. Dans la nouvelle loi, les restrictions d’accès sont reléguées au second plan et les conditions particulières pour le champ des sciences supprimées. Ce changement est à mettre au compte de la nouvelle place occupée par le droit d’archivage dans la systématique du droit : la LAr ne régit plus simplement la documentation, elle est devenue une composante essentielle de l’ordre juridique fondamental, de la liberté d’information et d’opinion[10]. Avec cette nouvelle base légale, les scientifiques se retrouvent au même niveau que les autres citoyens[11].

Si ce cadre légal donne une définition abstraite de l’accès aux archives, l’accessibilité pratique demeure dépendante des prestations fournies par les archives. L’art. 10 de l’ordonnance relative à la loi sur l’archivage (OLAr) précise ce que comprend le droit de consulter les archives : la consultation des instruments de recherche, la consultation des documents et leur reproduction, ainsi que la reproduction et l'exploitation des informations recueillies, sous réserve des dispositions relatives à la protection de la personnalité, en particulier de celles de la protection des données[12].

Les conditions légales de l’accès démocratique aux archives sont donc posées au niveau fédéral. La première étape consiste à concevoir un accès légalement démocratique aux archives, la seconde à le mettre en œuvre démocratiquement. Mais il convient tout d’abord de s’interroger sur ce à quoi précisément l’accès est accordé.

Constitution des archives : sélection, sauvegarde, description

Les archives auxquelles l’accès est accordé sont le fruit d’un processus de sélection comportant plusieurs étapes. L’administration n’enregistre pas tout ce qui a été pensé, débattu, décidé et communiqué dans le cadre de ses activités. À cela s’ajoute que seule une partie des informations susceptibles d’être archivées le sont effectivement[13]. La description des documents réellement versés aux archives restreint un peu plus les documents pertinents pour les utilisateurs. Les deux premières étapes de sélection – depuis longtemps objet d’une structuration active (mot d’ordre : gestion électronique des affaires) – sont irréversibles, tandis que la dernière, non moins importante, permet des rectifications.

La première étape de sélection, qui implique la participation des Archives fédérales, est l’évaluation. Comment faire pour qu’elle s’organise selon des principes démocratiques ? En matière d’évaluation, la LAr prévoit une coopération entre les Archives fédérales et les unités administratives qui produisent les informations. Chaque partie procède selon des critères d’appréciation différents. Les unités administratives évaluent la valeur archivistique des documents en fonction de critères juridiques et administratifs. S’appuyant sur des considérations historiques et sociales, les Archives fédérales placent quant à elles la constitution des archives dans une perspective à long terme. En cas de désaccord, les services administratifs ne doivent détruire aucun document qui mérite d’être archivé selon les Archives fédérales, tandis que ces dernières sont tenues d’archiver tous les documents proposés par les services administratifs[14].

Dans le cadre de l’administration numérique, ces décisions sont des décisions prospectives. Avant la création des documents, une pertinence potentielle est présumée en fonction de la catégorie d’affaires considérée (affaires avec atteinte aux droits fondamentaux, assorties de conséquences profondes ou irréversibles / difficilement réparables), ce qui permet d’optimiser les processus de sauvegarde après une évaluation positive. Si l’on dispose, fondamentalement, d’un temps suffisant pour corriger les évaluations, il est aussi possible d’éviter le versement aux archives (p. ex. si des données sensibles ont été enregistrées dans des dossiers qui n’étaient pas destinés à l’archivage). L’évaluation – même prospective – reste donc une décision délicate « qui a des conséquences finales »[15].

Démocratiser l’évaluation reviendrait en somme à étendre la participation des services qui produisent les informations et de ceux qui les archivent aux utilisateurs des informations. Si cela peut paraître simple, les problèmes suivants se posent :

  • Il ne peut y avoir évaluation que si les services producteurs accordent l’accès à leur système de classement et de gestion des documents. Si cela ne pose pas de problème aux Archives fédérales en interne, il n’est pas certain qu’une telle transparence soit appliquée vis-à-vis de tiers.
  • Les Archives fédérales ne peuvent se soustraire à leur responsabilité décisionnelle. La décision finale ne peut pas être prise en fonction de critères et d’intérêts variables ; le patrimoine archivistique doit afficher une cohérence à long terme.
  • Enfin, la question de la légitimité de la participation se pose. Qui peut participer ? Tous ceux qui le souhaitent ou seulement ceux ayant une qualification particulière ? Qui a une légitimité démocratique ? Les citoyennes et les citoyens ou toutes les personnes concernées ?

Répondre à ces questions ne pose pas de difficulté majeure. Ces aspects doivent être considérés sérieusement si l’on entend démocratiser l’évaluation de la valeur archivistique des documents. Le 10 novembre 2017, les Archives fédérales ont fait un premier pas dans ce sens en proposant un atelier sur le thème de la construction des routes nationales – un sujet certes non sensible, mais qui suscite beaucoup d’intérêt. L’atelier réunira, outre une délégation des Archives fédérales, des représentants d’autres archives (archives cantonales notamment), les utilisateurs intéressés (fédérations de transports, spécialistes de la construction routière, historiennes et historiens des transports) et les producteurs d’informations. Le sujet est intéressant non seulement parce que les intéressés sont nombreux et que les transports sont aujourd’hui au centre de nombreux débats, mais aussi parce qu’en 2008 les compétences en matière de construction routière ont été redéfinies et les attributions de l’Office fédéral des routes (OFROU) élargies[16]. Les archives cantonales détenaient auparavant dans ce domaine de nombreux documents qui n’étaient pas centralisés. Des conditions presque idéales pour la constitution coopérative et la structuration participative des archives. L’enjeu est donc de se concerter pour définir ce qui doit être conservé et entrer dans un inventaire des infrastructures routières historiques. L’objectif est de fournir plus de renseignements que la Table de Peutinger qui répertorie les principales routes et villes de l’Empire romain, sans pour autant tomber dans l’exagération et conserver chaque plan détaillé à l’échelle 1:10.

La constitution démocratique des archives implique donc bien plus qu’une simple publication des décisions d’évaluation : elle passe par une véritable participation, qui doit se substituer à la pratique actuelle des commentaires a posteriori. Mais qui dit participation ne dit pas nécessairement codétermination. Il ne s’agit pas de démocratiser entièrement la compétence en matière d’évaluation, même si l’on vise une amélioration de la qualité de la sélection[17].

Pour une sélection de qualité, il importe que les informations appropriées atterrissent dans les bons dossiers et que toutes les étapes essentielles des activités documentées soient disponibles sous une forme figée et donc archivable. Autrefois, les conversations téléphoniques étaient source d’informations peu ou non documentées. Le relais a été pris aujourd’hui par les SMS, les tweets et les autres communications éphémères via les réseaux sociaux. Malheureusement, les informations transmises via ces canaux parviennent trop rarement jusqu’aux archives et il y a suffisamment de raisons de penser que cela ne changera pas de sitôt. Une situation que les Archives fédérales cherchent à faire évoluer avec la gestion numérique des affaires, la création d’un écosystème informationnel permettant de conserver les traces documentaires voulues sans que cela implique de difficultés et contraintes particulières pour les acteurs. Grâce à la consolidation d’une gestion consciencieuse des affaires, à l’évaluation prospective et à la meilleure vue d’ensemble des informations à traiter, il est désormais possible d’avoir une idée de l’étendue des documents versés aux archives, d’identifier les lacunes et d’y remédier avant qu’il ne soit trop tard. Cela induit une amélioration non seulement théorique (évaluation), mais aussi pratique (versement des documents) de la constitution des archives.

Aux Archives fédérales, il n’y a pas que l’évaluation prospective qui s’effectue à partir des systèmes de classement (anciennement : cadres de classement). C’est aussi le cas pour l’activité de description. Les temps de la classification, de la description, du référencement et de l’inventorisation en interne sont révolus. Nous avions accusé un trop grand retard dans ces tâches d’une part, les coûts étaient trop élevés pour un accès qui n’offrait pas la meilleure efficacité d’autre part. Les bordereaux de versement et les séries des plans / cadres de classement sont aujourd’hui les principaux éléments d’orientation. Les instruments de recherche reflètent leur structure et leur terminologie (coexistence de plusieurs jargons techniques), ce qui a une incidence sur l’accessibilité pratique des archives.

Accessibilité des archives

La consultation libre des instruments de recherche est une condition essentielle de l’accès aux archives. Compte tenu du régime de protection des archives en vigueur, c’est aussi une condition sine qua non pour les demandes d’accès aux archives soumises au délai de protection[18].

La qualité de l’accessibilité dépend par ailleurs de la qualité des instruments de recherche et des outils de consultation. Les instruments de recherche ne permettent que partiellement une exploitation ciblée et efficace des archives. Ainsi, la logique de la provenance – malgré tous les avantages méthodologiques qu’elle présente – n’est pas une logique évidente, elle engendre souvent un certain hermétisme. Les inventaires les plus détaillés laissent rarement entrevoir toute la richesse des documents archivés qui seraient disponibles pour des utilisations non intentionnelles : en saisissant « Raubkunst » / « art spolié » / « looted art » dans la base de données des Archives fédérales, on obtient 44 occurrences, soit une toute petite partie des documents versés aux archives que Thomas Buomberger avait analysés en 1998, c’est-à-dire trouvés malgré les instruments de recherche existants[19].

Ici aussi, une plus grande participation serait envisageable. Comme le montrent différents exemples, la description et la transcription participatives peuvent être à l’origine d’améliorations et accroître l’exploitabilité des documents archivés. Elles peuvent être mises en place sur des thèmes pour lesquels il existe des communautés d’intéressés (images de la Suisse, chemins de fer / trains, etc.)[20]. Cela ne signifie pas que les Archives fédérales doivent s’en désintéresser : chaque participation active du public permet de s’engager un peu plus sur la voie du perfectionnement, sans pour autant viser la perfection. Elle permet le versement aux archives de ressources qui ne sont généralement pas disponibles directement, un avantage tant en termes d’efficacité que d’expertise (contenu).

Les expériences passées l’ont montré, nous n’atteindrons jamais la perfection. Cela ne saurait d’ailleurs constituer un objectif. Fortes de développements récents, les technologies de l’information offrent, des réseaux sociaux aux réseaux sémantiques, des possibilités insoupçonnées d’améliorations pragmatiques de l’accessibilité. Cela vaut pour l’accessibilité des archives individuelles comme des archives thématiquement liées mais réparties entre différents sites. Par ailleurs, les contenus des instruments de recherche peuvent être proposés sous la forme de données ouvertes et éditables. Les Archives fédérales mettent ainsi à disposition leur catalogue sur le portail opendata.swiss, pour l’heure sous la forme d’une base SQL, l’objectif étant de le proposer au format RD également. Un projet de coopérations entre plusieurs archives montre comment des informations peuvent être recherchées entre les institutions grâce à Archival Linked Open Data[21].

Le développement de la numérisation des documents versés aux archives et l’accroissement des volumes d’informations numériques disponibles élargissent considérablement le champ des informations éditables et consultables. Cela favorise l’orientation dans les archives d’une part, l’émergence de nouvelles formes et méthodes d’évaluation d’autre part. Dans une perspective démocratique, j’y vois une autonomisation intellectuelle notable des intéressés. De telles évolutions renforcent l’émancipation des utilisateurs vis-à-vis des spécialistes de l’archivage tout en offrant à ces derniers des possibilités intéressantes d’échanges. La réduction de l’écart d’expertise devrait s’avérer stimulante pour tous. Si, comme le prévoit la stratégie actuelle, on parvient à déplacer l’accès aux archives de la Confédération vers une salle de lecture virtuelle, les possibilités d’accès ne feront que se développer et on permettra à encore plus d’intéressés – du monde entier – d’utiliser ces archives moyennant un effort raisonnable et sans devoir franchir d’obstacles insurmontables.

Conclusions : les archives du peuple par le peuple et pour le peuple

Il existe une littérature abondante sur le thème des archives et de la démocratie. L’article de Max J. Evans paru en 2007 dans The American Archivist y occupe une place de choix, moins parce qu’il traite de façon exhaustive le sujet des archives démocratiques que parce que son titre pose des exigences élevées. Archives of the People, by the People, for the People fait référence au célèbre discours de Gettysburg prononcé par le président Abraham Lincoln en 1863, considéré aujourd’hui comme fondateur de la conception américaine de la démocratie[22]. Indépendamment de la question de l’adéquation d’une telle conception pour nous, le principe selon lequel les archives doivent être constituées et utilisées par les intéressés eux-mêmes pourrait guider notre réflexion.

Il est indéniable que les archives publiques conservent des documents « du peuple ». Que la sélection puisse / doive s’effectuer selon un horizon plus ouvert est une revendication légitime. Cela implique toutefois toujours de sélectionner, d’aller à l’essentiel, de concentrer. Nous sommes donc encore loin du tout-archivage. Ce qu’il faut entendre par « essentiel » mérite par ailleurs discussion.

Que nous archivions « pour le peuple » me paraît aussi une évidence. La LAr de 1998 définit le but de l’archivage comme suit (art. 2, al. 2) : « L’archivage contribue à assurer la sécurité du droit, ainsi que la continuité et la rationalité de la gestion de l’administration. Il crée, en particulier, les conditions nécessaires aux recherches historiques et sociales. » Si l’on considère que l’intérêt est avant tout de contribuer à la sécurité du droit et à l’efficacité de la gestion de l’administration, les documents versés aux archives forment une infrastructure « qui permet aux citoyens [et aux citoyennes] et aux chercheurs [et aux chercheuses] de consulter le passé de notre société et de notre État et d’écrire l'histoire. »[23]

Reste à savoir si cela peut être aussi fait « par le peuple ». L’archivage « par le peuple » est aujourd’hui plus facilement imaginable et plus facilement réalisable. Notons que la démocratie telle qu’on l’entend habituellement est une démocratie représentative, dans laquelle le gouvernement et l’administration bénéficient d’une délégation de compétences et de pouvoirs. Par extrapolation à l’archivage, il s’agit de la possibilité de participer aux processus de sélection et de description, ainsi qu’à d’autres décisions et activités. Comme pour la participation politique dans une démocratie, cette offre peut être acceptée (mais ne doit pas nécessairement l’être).

En tout état de cause, les archivistes se voient conférer une responsabilité déléguée qu’ils sont tenus d’assumer en vertu de leurs compétences professionnelles. Ils peuvent justifier et argumenter leurs choix dans le cadre d’un débat ouvert. L’exploitation d’une expertise précieuse supplémentaire (de nature différente) est une conséquence positive de la participation. Parallèlement, la participation permet « au peuple » de s’émanciper – non seulement vis-à-vis des experts archivistes, mais aussi des experts historiens : «Il est normal que les citoyens s’emparent de leur histoire. Et je le répète, l’historien de métier n’a pas le monopole du discours sur le passé, ni celui de l’accès aux sources.».[24] Démocratisation est ainsi synonyme d’opportunités de participation. Il en résulte une situation gagnant-gagnant. La démocratisation simplifie l’accès aux documents archivés. Ce serait toutefois aller trop loin que de prétendre que la consultation des archives deviendrait un sport national. Quelles que soient les simplifications effectuées, l’utilisation des archives demeure complexe. Démocratiser les archives n’implique pas simplement que leur accès soit estampillé Google : sapere aude[25] doit rester la devise et un enjeu en cette ère post-factuelle. Cela nécessite la maîtrise de la méthodologie historique, à savoir la critique des sources, une compétence de base que chacun devrait posséder dans la société de la surinformation pour ne pas risquer de replonger dans l’immaturité (autodéterminée ?). Participer à la constitution des archives et utiliser les archives par soi-même signifie aussi penser par soi-même.


Notes

[1] La cyberdémocratie (ou e-démocratie) consiste en l'utilisation d’Internet pour développer la démocratie, en se servant de sites web comme support des informations, des débats voire des processus de décisions démocratiques. La cyberdémocratie cherche à répondre à l’idéal démocratique dans lequel tous les citoyens seraient des participants égaux aux propositions, aux créations et à la mise en œuvre des lois.
https://fr.wikipedia.org/wiki/Cyberd%C3%A9mocratie (page consultée le 04.10.2017)
Concernant l’administration 4.0, voir Jörn von Lucke : Smart Government. Wie uns die intelligente Vernetzung zum Leitbild „Verwaltung 4.0“ und einem smarten Regierungs- und Verwaltungshandeln führt (white paper), The Open Government Institute, Université Zeppelin de Friedrichshafen, 14.09.2015.

[2] Le pluralisme de l’information est régulièrement remis en question. Du fait par exemple de la concentration (économique) des médias amorcée depuis un certain temps déjà, ou plus récemment, de la suprématie effective d’un nombre très restreint de plateformes numériques organisant notre accès à l’information. Voir le dernier numéro de Réseaux : « Modèles économiques, usages et pluralisme de l’information en ligne. Les nouveaux enjeux du pluralisme de l’information à l’ère des plateformes numériques », Paris, 2017 (n° 205).

[3] Les cas des Verdingkinder ou des « enfants de la grand-route » sont de tristes exemples de non-prise en compte, dans les archives, des voix des personnes concernées et intéressées.

[4] [Notre traduction] Marcel Lepper, Ulrich Raulff : « Idee des Archivs », in : Marcel Lepper, Ulrich Raulff (dir.) : Handbuch Archiv. Geschichte, Aufgaben, Perspektiven, ORT, 2016, p. 1-8 (citation p. 4). / Ulrich Raulff, « Gedächtnis und Gegen-Gedächtnis: das Archiv zwischen Rache und Gerechtigkeit », op. cit., p. 117-124 (p. 119 : « Denn auch für nicht- oder kryptodemokratische Staatsformen gilt die Regel: Will der Inhaber des Gewaltmonopols dieses nicht aufs Spiel setzen, muss er auch das Informationsmonopol für sich reklamieren. »).

[5] Voir à ce propos l’article Wikipedia concernant l’indice de démocratie (page consultée le 04.10.2017).

[6] Jacques Derrida, Mal d’archive, Paris 1995, p. 15.

[7] La loi fédérale sur l’archivage (LAr) est entrée en vigueur le 1er octobre 1999. Les travaux d’élaboration de la loi ont commencé au début des années 1990.

[8] Cette loi, édictée par la Convention nationale, est accessible en ligne.

[9] Art. 7-8 du règlement du 15 juillet 1966 pour les archives fédérales (RS 432.11, état le 24 octobre 1973), Recueil officiel 1973.

[10] Dans la systématique du droit, la LAr se retrouve en position 152 (État – Peuple – Autorité (1), droits fondamentaux (15), liberté d’opinion et d’information (152)) et non plus en position 432 (École – Science – Culture (4), Documentation (43), Bibliothèques – Musées (432)). Il est intéressant de noter que l’ancrage de l’archivage dans la loi découle d’une loi de droit civil, la loi fédérale sur la protection des données (LPD, RS 235.1, du 19 juin 1992), qui impose une base légale pour le traitement des données sensibles. Dans la mesure où nous ne pouvons pas aborder ici les autres nouveautés, se reporter à : Andreas Kellerhals, « Das Bundesgesetz über die Archivierung: neue Chancen für die Zeitgeschichte », in : Revue suisse d’histoire 50 / 2000, p. 188-197 ; Andreas Kellerhals, « Unentgeltlicher Zugang zum Archivgut als Grundrecht. Art. 9 BGA als Konkretisierung der Meinungs- und Informationsfreiheit », in : traverse 10 / 2003, p. 57-68 ; Corinna Seiberth, « Erinnern und Vergessen in der Informationsgesellschaft », in : ARBIDO 4 / 2016 (version en ligne).

[11] Les chercheurs aiment bien évoquer la liberté de recherche qui, comme la liberté d’opinion, compte au rang des droits fondamentaux (liberté de communication). L’argument est que « malgré la possibilité de raccourcissement des délais de protection, la longueur des délais n’est pas compatible avec la garantie constitutionnelle de la liberté de recherche » [notre traduction] : Anna-Bettina Kaiser, « Archiv und Recht », in : Lepper / Raulff, note de bas de page 5, p. 107-117 (citation p. 110). Sur l’interprétation de la liberté de recherche (art. 20 de la Constitution fédérale, RS 101), voir le message relatif à la nouvelle constitution fédérale ou Giovanni Biaggini, BV Kommentar. Bundesverfassung der Schweizerischen Eidgenossenschaft, point 4 sur l’art. 20 Cst, Zurich 2007. La liberté de recherche est essentiellement un droit de défense : la pratique ne révèle pas de prétention à une prestation de l’État.
Cf. aussi : Entretien de Michel Lefebvre avec Étienne Anheim : «Nous sommes entrés dans un temps de scepticisme vis-à-vis de l’histoire et de la science», dans : Les querelles de l’histoire, Le Monde hors-série, (octobre) 2017, p. 6-11.

[12] Art. 10 (Principes) de l’ordonnance relative à la loi fédérale sur l'archivage du 8 septembre 1999 (ordonnance sur l’archivage, OLAr, RS 152.11).

[13] Concernant les documents manquants / le silence des archives et leurs causes, voir la publication récente de David Thomas, Simon Fowler et Valerie Johnson, The Silence of the Archive, Londres, 2017.

[14] Art. 7 LAr : Détermination de la valeur archivistique et reprise de documents.

[15] Jürg Treffeisen, « Die Transparenz der Archivierung - Entscheidungsdokumentation bei der archivischen Bewertung », in : Nils Brübach (dir), Der Zugang zu Verwaltungsinformationen - Transparenz als archivische Dienstleistung. Beiträge des 5. Archivwissenschaftlichen Kolloquiums der Archivschule Marburg, publications de l’école d’archivistes de Marburg n° 33, Marburg, 2000, p. 177-189 (citation p. 179).

[16] Voir le communiqué de presse sur la réforme sans précédent du fédéralisme suisse.

[17] Voir le dossier détaillé de Franziska Brunner : Überlieferungsbildung 2.0. Eine Untersuchung zum Mehrwert von Partizipation Dritter in staatlichen Archiven, Churer Schriften zur Informationswissenschaft 89, Coire, 2017.

[18] Cf. l’annexe 3 de l’OLAr. Mise à jour chaque année, elle référence les fonds soumis à un délai de protection prolongé (plus de 30 ans). Cette publication peut donner lieu à des débats houleux, comme p. ex. en 2014 à l’occasion de la définition d’un délai prolongé pour 160 000 dossiers du service de renseignement  / de l’armée. Voir https://www.parlament.ch/fr/ratsbetrieb/suche-curia-vista/geschaeft?AffairId=20143871 (page consultée le 04.10.2017).
Une procédure juridique peut être initiée pour exiger l’accès aux archives protégées. Dans la pratique, c’est rarement nécessaire dans la mesure où plus de 90 % des demandes de consultation sont acceptées.

[19] Thomas Buomberger, Raubkunst – Kunstraub. Die Schweiz und der Handel mit gestohlenen Kulturgütern zur Zeit des Zweiten Weltkrieges, Zurich 1998, bibliographie p. 438 et s.

[20] Cf. le traitement du fonds photographique de l’ancienne compagnie aérienne Swissair : voir le blog News and experiences from the community - Swissair volunteers at ETH-Bibliothek’s Image Archive.

[21] Cf. la page du projet impliquant six archives.

[22] Max J. Evans, Archives of the People, by the People, for the People, in : The American Archivist 70 / 2007, p 387-400. Christoph Graf a utilisé ce titre comme sous-titre de son article Archive und Demokratie in der Informationsgesellschaft, in : Études et Sources, Berne, 2004, p. 227-271.

[23] Message concernant la loi fédérale sur l'archivage du 26 février 1997, Feuille fédérale 1997, p. 829-865 (citation p. 830).

[24] Cf. note 12, p. 9.

[25] Locution latine empruntée à Horace (Épitres, I, 2, 40) signifiant « Ose savoir » devenue la devise des Lumières selon Emannuel Kant (Wikipedia : https://fr.wikipedia.org/wiki/Sapere_aude, page consultée le 11 décembre 2017)

Un container mobile pour le sauvetage de collections sinistrées : la BERCE PBC Ville de Genève

Nelly Cauliez, Conservatrice responsable Unité Régie, Bibliothèque de Genève

Un container mobile pour le sauvetage de collections sinistrées : la berce pbc Ville de Genève

Les institutions patrimoniales ont pour mission première d’assurer la bonne conservation du patrimoine collectif. C’est là la condition sine qua non pour permettre aux institutions d’assurer leurs missions d’étude, de recherche et de diffusion des collections auprès de tous les publics. La collectivité a donc le devoir d’en assurer la pérennité pour les générations futures, ainsi que le Conseil international des musées (ICOM) le préconise : « Les musées sont responsables vis-à-vis du patrimoine naturel et culturel, matériel et immatériel. Les autorités de tutelle et tous ceux concernés par l’orientation stratégique et la supervision des musées ont pour obligation première de protéger et de promouvoir ce patrimoine, ainsi que les ressources humaines, physiques et financières rendues disponibles à cette fin [1]». Aussi, lorsqu’un bâtiment de conservation est soudain la proie  de phénomènes imprévus qui peuvent détruire des collections, des locaux, et menacer la vie du personnel et du public, l’urgence se mesure en minutes. Les responsables des institutions patrimoniales ont donc le devoir de réagir rapidement et efficacement. Cela implique d’être sérieusement préparé à la manière de faire face aux événements et de se doter des moyens matériels et humains nécessaires. C’est la Protection des Biens Culturels (PBC).

L’incendie historique de la Bibliothèque d’Alexandrie est entré dans la mémoire collective. Sur le plan helvétique les tragédies de Brigue (1993) ou de Gondo (2000) et les inondations en Suisse centrale (Brienz, Sarnen, Reichenbach et Lucerne en 2005) ont démontré la nécessité de mettre rapidement en place une organisation efficace pour la protection des personnes, mais aussi des biens culturels. Sur le plan genevois, les incendies du Grand Théâtre (1951), du Victoria Hall (1984), du Palais Wilson (1987), des combles du Palais Eynard (2001) ou encore de l’ancienne école de chimie au boulevard des Philosophes (2008) furent particulièrement marquants. C’est précisément ce dernier évènement où les flammes et l’eau touchèrent près de 70 000 livres qui a entrainé le triste constat que, sans planification des opérations, sans structure de décision opérationnelle mais aussi sans matériel adéquat et disponible immédiatement, la probabilité de sauver et de traiter en urgence une grande quantité d’objets culturels sinistrés était largement compromise.

L’idée de créer alors une réserve d’équipements uniquement dévolue aux collections sinistrées est née au sein du Comité de pilotage PBC de la Ville de Genève [2]. Soucieux d’assurer la meilleure protection possible des biens culturels de la Ville de Genève, ce Comité présidé par la direction du Département de la culture et du sport est constitué des directions des musées et institutions patrimoniales de la Ville et de leurs responsables en charge des bâtiments, de la sécurité, de la conservation des collections, mais aussi de membres du Service d’incendie et de secours (SIS) et de la Protection civile (PCi) de la Ville et du Canton. Depuis 2009, il développe une série de projets comme la rédaction d’outils de prévention (plan d’urgence), la mise en place de modules de formations interinstitutionnelles sur toutes les typologies de biens patrimoniaux et enfin l’organisation d’exercices grandeur nature.

En 2013, il a alors été confié à un groupe de travail du Comité PBC de faire l’acquisition de moyens d'intervention adéquats assurant à tous les partenaires un sauvetage efficace. Ce projet, nommé BERCE PBC de la Ville de Genève, alliait la recherche de matériels spécifiques aux traitements d’urgence sur les collections à la conception puis à la fabrication d’un mode de stockage mobile permettant de ranger, acheminer et utiliser rapidement ces équipements spécialisés. Largement inspirée d’une première BERCE PBC créée par le Service d’incendie et de secours de la Ville quelques années auparavant, ce container institutionnel a pu s’améliorer et compléter les équipements déjà existants. La BERCE PBC de la Ville de Genève est donc un container qui peut être mobilisé dès lors qu’il existe un risque hypothétique ou avéré de dommages sur des collections patrimoniales de la Ville de Genève résultant d’un sinistre en cours ou en prévision (mobilisation préventive) qu’il soit mineur ou majeur. Il peut s’agir de dégradations d’objets culturels liées à un dégât des eaux, un incendie, une crise sanitaire (microbiologique), un évènement géologique (tremblement de terre, effondrement), mais aussi dans le cas d’actes de vandalisme, de malveillance, de pillage, de terrorisme, ou toutes autres causes pouvant engendrer des dommages sur des biens patrimoniaux. Tout son intérêt réside dans sa mobilité assurée par le Service d’incendie et de Secours de la Ville de Genève qui, grâce à un véhicule d’intervention rapide peut la déplacer de sa zone de stationnement en plein Genève (donc à proximité de toutes les institutions) vers le sinistre. La BERCE est alors chargée sur une remorque en moins de trois minutes puis transportée.

Elle est affectée prioritairement aux institutions de la Ville (Bibliothèque de Genève, Musée d’art et d’Histoire, Musée d’ethnographie, Fonds municipal d’art contemporain, Conservatoire et jardin botaniques de Genève, Musée d’histoire naturelle, Musée de l’Ariana, Archives de la Ville). En cas de zones sinistrées multiples, il revient à la Direction du Département de la Culture et du Sport de la Ville de Genève de définir l’institution prioritaire en fonction de l’importance et le type de dommages et des moyens à disposition pour y remédier. Bien qu’elle soit d’abord réservée aux institutions de la Ville, des autorisations extraordinaires d'accès à son matériel peuvent être accordées dans le cas de demandes de dérogations exceptionnelles. La Direction du Département de la Culture et du Sport de la Ville de Genève peut alors décider de la mobiliser pour toutes autres institutions ou collectivités qu’elles jugeraient en difficulté et pour lesquelles elle accepte d’apporter une aide substantielle. Dans ce cas, il convient de définir en amont le cadre de l’octroi (durée de la mobilisation, transport, assurance, remplacement du matériel utilisé, etc.).

Pensée comme une boîte modulaire fabriquée par un sandwich de panneaux d’aluminium, la BERCE PBC de la Ville de Genève mesure 16m2 et est scindée en deux espaces distincts (stockage et bureau). On y trouve tout autant des équipements permettant de stabiliser une zone sinistrée limitant alors la propagation du sinistre et réduisant l’ampleur des dégâts (déshumidificateur de chantier, bâches, bacs de rétention, etc.) que du matériels pour l’évacuation, l’emballage et le transport de petites ou grandes pièces patrimoniales (caisses, chariots, diables, couvertures en feutre, polyester de protection, étiquettes de traçabilité, etc.). Ce container contient aussi de quoi dépoussiérer par exemple des pièces d’orfèvrerie, aspirer un tableau ou encore gommer un livre recouvert de suie ou de gravats (pinceaux doux en poils de chèvre, aspirateurs à filtre HEPA munis de variateurs, gommes smokesponge, etc.). Tout un équipement est dévolu à la préparation à la congélation des œuvres touchées. Ce procédé est un des traitements possibles lors d’une inondation de masse. La congélation n’a pas d’action curative ou réparatrice mais permet de figer, instantanément toutes les dégradations des documents, pour un temps qui peut être très long (10 ans sans effet nocif). La congélation doit être très rapide, donc effectuée à très basse température (-30°) afin que les cristaux de glace qui se forment à l’intérieur des objets culturels soient les plus petits possible et n’endommagent pas les fibres des matériaux ; ensuite, la température peut remonter vers -18° environ. Par la suite, les objets peuvent être décongelés progressivement, en petites quantités, et séchés manuellement, ou lyophilisés s’ils sont trop nombreux (toutes les typologies ne la supportent pas, il convient aux spécialistes du sauvetage de faire le tri). Enfin, les équipes d’intervention peuvent y trouver du matériel de protection pour les personnes puisqu’une zone sinistrée est généralement un espace aux variations thermohygrométriques importantes (froid ou chaleur, humidité ou assèchement), souvent sombre et hostile. Quant à son espace bureau, il est chauffé, ventilé à l’énergie solaire, et offre une zone de travail confortable où peuvent s’opérer des prises de décisions sur le mode opératoire du sauvetage ou encore pour assurer l’inventaire et le suivi des stocks (matériel extrait en urgence).

Parmi ses caractéristiques, il faut noter que l’ensemble des surfaces (murs, plafonds) est aimanté permettant ainsi la fixation de documentation de sécurité (plans, organigrammes, listes diverses). Ces surfaces peuvent également être utilisées comme un grand tableau blanc sur lequel il est possible d’écrire au feutre effaçable. Les revêtements au sol sont en linoleum lavable ou encore en aluminium cranté pour éviter toutes chutes dans l’empressement. Enfin, elle est munie d’un éclairage Led mais aussi de prises électriques pour y connecter par exemple un ordinateur portable.

Fort heureusement, depuis sa création, la BERCE PBC de la Ville de Genève n’a eu à être utilisée que dans le cas d’exercices grandeur nature ainsi que lors de modules de formation. Elle sera prochainement présentée lors des Journées européennes des Métiers d’art à la Bibliothèque de Genève (20 et 21 avril 2018).

Son caractère innovant et sa conception interinstitutionnelle fait d’elle un projet moteur pour la protection des biens culturels et unique au monde. Elle a d’ailleurs attiré plusieurs organisations internationales ou représentants de groupes de travail dévolus aux sauvetages de collections (Bouclier Bleu, ICOMOS, Groupe de travail pour la protection des biens culturels en Syrie et en Irak,  Fondation des monuments du monde en Afrique Sub-saharienne)  et sert aujourd’hui de modèles pour des projets similaires en étude en France ou au Japon.

Figure 1 : berce pbc 

Figure 2 : berce pbc

Figure 3 : intérieur berce pbc

Figure 4 : croquis de montage


Notes

[1] Le Code de déontologie de l’ICOM a été adopté à l’unanimité par la 15e Assemblée générale de l’ICOM, réunie à Buenos-Aires (Argentine) le 4 novembre 1986, modifié par la 20e Assemblée générale en Barcelone (Espagne) le 6 juillet 2001 sous le titre Code de déontologie de l’ICOM pour les musées et révisé par la 21e Assemblée générale à Séoul (République de Corée) le 8 octobre 2004.

[2] http://www.ville-geneve.ch/actualites/detail/article/1444638433-berce-proteger-oeuvres-objets-art/

Interopérabilité des images : de la nécessité des tests d’utilisabilité

Julien Raemy, Assistant HES, Haute école de Gestion, Genève

Interopérabilité des images : de la nécessité des tests d’utilisabilité
Introduction

La numérisation de masse en haute qualité des collections patrimoniales a ouvert de nouvelles possibilités de diffusion et d’utilisation des contenus au sein de l’industrie des GLAM (Galleries, Libraries, Archives, Museums). Contrairement aux métadonnées, les images, vecteurs d’informations provenant de sources primaires et secondaires, n’ont historiquement pas fait l’objet d’un protocole ou d’une norme pour partager et moissonner ces données entre différentes institutions et entrepôts.

Cette lacune a été comblée grâce à l’avènement du cadre international d’interopérabilité des images (International Image Interoperability Framework – IIIF[1]). IIIF est une initiative communautaire qui désigne autant une communauté qu’un ensemble d'interfaces de programmation applicative (application programming interface – API) spécifiant des fonctionnalités d'interopérabilité pour les entrepôts d'images numériques.  Ces API permettent de développer un écosystème de serveurs et de clients capables de décloisonner les silos et d’exposer plus facilement des images numériques sur le Web.

Les institutions célèbres qui ont notamment mis en oeuvre des solutions conformes aux spécifications de IIIF sont la British Library, La Bibliothèque nationale de France (BnF), les universités d’Oxford, de Harvard et de Stanford. En Suisse, la plus grande collection conforme aux standards de IIIF, et ceci depuis décembre 2014, est e-codices, la Bibliothèque virtuelle des manuscrits. Si les API de IIIF sont majoritairement déployées au sein des institutions patrimoniales et de recherche, elles peuvent également être utilisées et appliquées pour tout type d’organisation voulant mettre à disposition de leur public des images numériques. Les humanités numériques et la communauté scientifique au sens large ont notamment commencé à rejoindre la communauté IIIF.

En dehors des avantages institutionnels, l’un des buts de IIIF est de fournir une expérience utilisateur (UX) de grande qualité par le biais des interfaces clients ou visionneuses compatibles avec les spécifications techniques. Cependant, seules quelques méthodes de conception centrées sur l’utilisateur (user-centred design – UCD) ont été réalisées par les développeurs ou les responsables et curateurs de collections ayant déployé IIIF.

Depuis octobre 2016, le projet nommé « Infrastructure nationale pour les éditions » (NIE-INE) vise à construire une plateforme nationale sur le Web pour les éditions scientifiques. Comme le projet NIE-INE a de nombreux intérêts communs avec IIIF et aussi parce que les membres du projet ont commencé à réfléchir à leur architecture technique, des tests d'utilisabilité ont été effectués sur les visionneuses Universal Viewer (UV) et Mirador. Les futurs utilisateurs de la plateforme de NIE-INE et, plus largement, les chercheurs des humanités numériques ont été désignés comme le public cible des tests d’utilisabilité. A partir d’une revue de la littérature et des résultats des tests, il a pu être déterminé à quel point les standards IIIF peuvent s’appliquer au projet NIE-INE et aux communautés scientifiques similaires.

Contexte

Trois objectifs ont été définis au sein du travail de bachelor :

  • Mener des tests d’utilisabilité sur UV et Mirador en évaluant principalement la satisfaction et l’efficience d’utilisation
  • Fournir une description exhaustive de IIIF pour attirer des nouvelles institutions souhaitant rejoindre cette communauté, notamment en Suisse
  • Evaluer l’intérêt de déployer des solutions technologiques conformes aux standards de IIIF sur des plateformes diffusant des éditions scientifiques.

A la suite de ces objectifs, une question de recherche principale a été identifiée : « Comment la communauté scientifique de Suisse, en particulier les chercheurs travaillant sur les éditions scientifiques, peut-elle bénéficier des technologies sous-jacentes de IIIF ? »[2].

Utilisabilité et concepts connexes 

Préalablement à la méthodologie et au travail empirique des tests d’utilisabilité, il était impératif de dresser une revue de la littérature sur l’utilisabilité[3] (usability) ainsi que les concepts autour de l’UX et de l’UCD.

L’utilisabilité

L’utilisabilité est une notion multidimensionnelle et qui ne peut être réduite à un système étant « facile d’utilisation » (Quesenbery, 2001) car ce dernier attribut n’est qu’une de ces nombreuses caractéristiques. Dans le tableau ci-dessous, trois dimensions ont été retenues.

Tableau 1: Les dimensions de l’utilisabilité[5]

(Nielsen, 1993 ; ISO, 2017 ; Quesenbery, 2001)

L’utilité

Selon Nielsen (1993, p. 24‑25), l’utilité pratique (usefulness) est une équation entre l’utilité théorique (utility) et l’utilisabilité (usability).  Il définit un système utile (useful) si ce dernier « (…) est utilisé pour atteindre certains objectifs souhaités »[6].

Afin d’évaluer les bibliothèques numériques en Open Access, le modèle triptyque de l’interaction (Interaction triptych framework - ITF), regroupant trois axes dont l’utilité pratique et l’utilisabilité, a été conçu (Tsakonas, Papatheodorou, 2008, p. 1237‑1239). Sur le modèle de l’ITF (voir Figure 1), l’axe de l’utilité est placé entre le contenu et les utilisateurs alors que l’utilisabilité est une interaction entre les utilisateurs et le système (Hügi, Schneider, 2013).

Figure 1 : Interaction tryptich framework (ITF)

(Tsakonas, Papatheodorou, 2008)

L’expérience utilisateur (UX)

L’UX est un concept plus large que l’utilisabilité car il couvre toutes les facettes de l’interaction d’un utilisateur final avec un système donné (Norman, Nielsen, 2007). Globalement, l’UX est « (…) tout ce qui touche à l’expérience d’une personne avec un produit [7]» (NNgroup, 2016).

Afin d’aller au-delà de l’utilisabilité, Peter Morville (2004) a démontré à l’aide d’une visualisation en nid d’abeilles (UX Honeycomb) que l’UX se composait de sept composantes ou qualités. Ces hexagones (voir Figure 2 ci-dessous) peuvent parfois s’appliquer au domaine de l’utilisabilité (usable, findable, accessible) ou de l’utilité (credible, desirable, useful). Le concept central de cette visualisation, et par extension de l’UX, est ce qui a de la valeur (ce qui est valuable).

Figure 2 : Les qualités de l'UX selon Peter Morville

(Morville, 2004)

La conception centrée sur l’utilisateur (UCD)

L’UCD est une philosophie, de conception d’un système qu se base sur les besoins et les attentes des utilisateurs finaux (ISO, 2010, § 2.7). Les méthodes applicables sont itératives et peuvent être appliquées à chaque étape d’une implémentation d’un produit.

Le but de l’UCD est de rendre les systèmes plus utilisables, de réduire le stress que rencontrent les utilisateurs, ainsi que de diminuer le nombre potentiel d’erreurs qu’un utilisateur pourrait effectuer sur une interface donnée.

Synthèse des concepts présentés

Dans le tableau 2 ci-dessous se trouve une synthèse des différents concepts autour de l’utilisabilité. Dans la troisième colonne, il y a également l’application que ces notions ont eues tout le long du mandat.

Tableau 2 : Définitions et pertinence des concepts par rapport au mandat

(Quesenbery, 2001 ; Nielsen, 1993 ; Tsakonas, Papatheodorou, 2008 ; NNgroup, 2016 ; ISO, 2010)

International Image Interoperability Framework (IIIF)
La communauté IIIF

L'initiative IIIF a démarré en Californie en 2011 après un rassemblement informel de développeurs et de bibliothécaires des universités de Stanford, d'Oxford, et de la British Library. Ils ont tous admis que la diffusion d'images sur le Web dans le domaine culturel n'était pas du tout satisfaisante car il n'y avait aucun consensus viable pour livrer et échanger les images numériques entres les différents acteurs du milieu (Cramer, 2016). Bien souvent, les interfaces n'étaient pas esthétiques, les infrastructures technologiques étaient trop complexes, trop lentes et il existait autant de solutions que d’interfaces (Snydman et al., 2015 ; Brantl et al., 2016 ; Crane, 2017).

Les institutions qui participent activement à IIIF comportent majoritairement des bibliothèques nationales et patrimoniales, des musées, des agrégateurs, et des centres de recherche universitaire (IIIF, 2017d). En plus des trois organisations fondatrices citées au préalable, IIIF peut notamment compter sur le soutien de l’université de Harvard, du Yale Center for British Art, d’Europeana, de l’université de Kyoto, du Wellcome Trust, de la Bibliothèque apostolique vaticane ou encore de la BnF (Robineau, 2016 ; Cramer, 2017).

La communauté IIIF a défini trois buts[8] (IIIF, 2017a, 2017h):

  • Donner aux chercheurs un niveau d'accès sans précédent, uniforme et riche aux images numériques hébergées autour du monde
  • Définir et adopter un ensemble d'interfaces de programmation applicative (APIs) soutenant l'interopérabilité entre différents entrepôts d'images
  • Développer, cultiver et documenter des technologies communes telles que des serveurs d'images et des clients web apportant une expérience utilisateur de classe mondiale dans la visualisation, la comparaison, la manipulation et l'annotation d'images.

Depuis juin 2015, IIIF a établi un consortium (IIIF-C) dans le but de pérenniser et de piloter la communauté  (IIIF, 2017i). A ce jour, plus d’une quarantaine d’institutions, dont deux suisses (le Digital Humanities Lab de l’Université de Bâle et l’Ecole Polytechnique Fédérale de Lausanne), ont rejoint IIIF-C. Chaque institution désirant rejoindre le consortium doit signer le mémorandum d’accord (Memorandum of Understanding – MOU) et s’engage à payer une cotisation annuelle de $10,000 pour au moins six ans (IIIF, 2015). Les fonds obtenus sont supervisés par le Council on Library and Information Resources (CLIR)[9] et la gouvernance de la communauté est assurée par trois entités :

  • Le groupe de direction (Executive Group) s’occupe de la stratégie et des orientations générales
  • Le comité de coordination (Coordinating Committee) supervise les groupes de spécifications techniques et les activités régulières de la communauté
  • Le comité de rédaction (Editorial Committee) crée, révise et maintient les API.

Au sein de la communauté IIIF, sept groupes de travail et d’intérêts se sont créés (IIIF, 2017l). Il existe deux types de groupes (IIIF, 2017g) :

  • Les groupes communautaires (community groups) qui collaborent sur des intérêts précis de IIIF : manuscripts, museums, newspapers, software developers
  • Les groupes de spécifications techniques (technical specification groups) qui se chargent de prendre des décisions quant à l’implémentation de nouvelles API : A/V (audiovisual), discovery, text granularity

Toutes les activités de IIIF, en présentiel et à distance, doivent respecter le code de conduite (IIIF, 2017f). Un comité composé de 9 membres a vu le jour en août 2017 (Rabun, 2017b). Celui-ci est chargé de gérer les conflits selon des lignes directrices transparentes et acceptées par le comité de coordination (IIIF, 2017e).

Les interfaces de programmation applicative (API)

La motivation à l’origine du développement des API de IIIF était de décloisonner les silos virtuels que les institutions ont créés pour diffuser leurs images numériques sur le Web (Snydman et al., 2015 ; Bayerische Staatsbibliothek, 2016). L’utilisation d’API communes permet aux institutions de maintenir des infrastructures technologiques cohérentes, flexibles, interopérables, ainsi que de faire diminuer les coûts sur le long-terme (Sanderson, 2016 ; Rabun, 2017a ; IIIF, 2017h).  Les API de IIIF fonctionnent comme des couches intermédiaires autorisant une interaction entre différents serveurs et clients comme l’illustre la figure 3 ci-dessous.

Figure 3 : Les API de IIIF au sein de l'environnement serveur-client

(Sanderson, 2016)

Quatre API RESTful[10] sérialisés en JSON-LD (JavaScript Object Notation for Linked Data) ont été définies et approuvées par la communauté IIIF (2017b):

  • Image API : ce service web retourne une image par rapport à une requête HTTP ou HTTPS. L’URI peut également spécifier une zone d’intérêt, une qualité particulière ou encore le format de l’image demandé. Les éléments techniques (pixels) d’une image numérique sont rassemblés au sein d’un fichier nommé « info.json ». L’Image API fournit plusieurs profils ou niveaux de conformité, du niveau 0 qui peut servir des images statiques jusqu’au niveau 2 où une profondeur de couche des images est requise. http://iiif.io/api/image/
  • Presentation API : fournit les informations nécessaires et contient juste assez de métadonnées descriptives pour permettre la représentation et l’affichage d’objets dans un environnement riche sur le Web. Cette API est généralement utilisée en conjonction avec l’Image API car c’est en quelque sorte « une glu » entre les différentes images, séquences par exemple de pages d’un manuscrit ou d’une exposition virtuelle. Une ressource structurée au sein de l’écosystème IIIF est décrite dans un fichier nommé « manifest.json ». http://iiif.io/api/presentation/
  • Content Search API : donne accès aux annotations textuelles, telles que la reconnaissance optique de caractères (OCR) ou les commentaires provenant d’une indexation personnelle, d’un objet numérique conforme. http://iiif.io/api/search/
  • Authentication API : conçu pour supporter le contrôle d’accès aux ressources par le biais de quatre types d’interaction. http://iiif.io/api/auth/

Les deux premières API sont considérées comme les spécifications principales de IIIF car elles garantissent déjà, à elles deux, l’interopérabilité d’objets numériques. Il faut encore préciser que toutes ces spécifications techniques suivent un modèle de conception établissant plusieurs règles comme par exemple la simplification des processus de migration et de partage de données (Appleby et al., 2017a) ou la conformité aux standards du W3C tels que le Web Annotation Data Model (IIIF, 2017k).

Serveurs et clients conformes aux API

Les logiciels utilisés par la communauté IIIF ont été soit adaptés soit créés de toutes pièces pour se conformer aux spécifications techniques. Il existe des solutions open-source et propriétaires tant du côté client que du côté serveur. Voici une liste non-exhaustive[11] de logiciels présents au sein de « l’écosystème IIIF » (IIIF, 2017c ; Rabun, 2017d) :

  • Clients : OpenSeaDragon, Leaflet-IIIF, Diva.js, IIIFViewer, Universal Viewer, Mirador
  • Serveurs : Loris, IIPImageServer, Cantaloupe, ContentDM, Djakota, SIPI

La mise en adéquation avec un écosystème IIIF permet aux institutions de ne publier qu’une fois les objets numériques et leurs métadonnées associées (Ying, Shulman, 2015). Au vu du nombre important d’institutions de renom utilisant désormais des systèmes conformes aux spécifications, les API sont devenues de facto des standards (Markus et al., 2017 ; Haskiya, 2017).

La figure 4 ci-dessous montre l’interaction entre un client effectuant une requête d’un IIIF Manifest[12] (les informations contenus à l’intérieur du manifest.json) et du info.json, ainsi que du serveur qui répond à ces demandes. Une fois que le client/la visionneuse[13] reçoit les informations du serveur, il peut afficher les images (Reed, Winget, 2017 ; Ronallo, 2017).

Figure 4 : Interaction client-serveur au sein d'un écosystème IIIF

(Reed, Winget, 2017)

IIIF en Suisse

Quelques institutions publiques et privées ont collaboré ou utilisé les standards de IIIF. Seul e-codices[14], projet piloté par l’Université de Fribourg, a à ce jour déployé les deux API principales et exposé plus de 1800 manuscrits d’une cinquantaine d’institutions patrimoniales suisses (e-codices, 2016). Leur infrastructure a été conforme aux spécifications lors de la mise en ligne de la deuxième version du site en décembre 2014 grâce à l’appui de l’entreprise text&bytes (e-codices, 2014).

Une autre application conforme à IIIF est le projet Fragmentarium[15], également pilotée par l’Université de Fribourg, qui rassemblera des fragments de manuscrits d’une quinzaine de bibliothèques partenaires dans le monde entier. La mise en ligne publique de leur plateforme est prévue pour 2018.

En 2017, trois autres organisations suisses ont participé à des événements IIIF pour y présenter leurs travaux de développements d’outils.

En premier, lieu, Klokan Technologies[16], entreprise basée dans le canton de Zoug et spécialisée dans la publication de cartographies en ligne, a développé « Georeferencer », une plateforme où des images se font assigner un emplacement géographique[17]. Klokan a également créé un client (IIIFViewer) et un serveur (IIIFServer) conforme aux API (Klokan Technologies, 2016).

Deuxièmement, le laboratoire des humanités numériques (DHLab) de l’Université de Bâle a rejoint IIIF-C en janvier dernier (Rabun, 2017c) et a développé un serveur IIIF (SIPI) dans une optique de préservation à long-terme (Rosenthaler, Fornaro, 2016) et prêt à se conformer à la future API audiovisuelle de IIIF prévue pour 2018 (Raemy et al., 2017).

Puis, l’Ecole Polytechnique Fédérale de Lausanne (EPFL) a contribué à la mise en place de deux plateformes en utilisant l’Image API. Il s’agit des archives numérisées du journal « Le Temps »[18] (Rochat et al., 2016) et de la bibliothèque numérique du Musée de l’Elysée[19]. L’EPFL a aussi rejoint IIIF-C en août, devenant ainsi la deuxième institution suisse à faire partie du consortium (Rabun, 2017b).

Infrastructure nationale pour les éditions (NIE – INE)

NIE-INE est une initiative qui vise à construire une plateforme nationale recensant des éditions scientifiques, critiques, dans le domaine des sciences humaines. Ces éditions sont autant des sources primaires que secondaires (DHLab, 2017 ; FEE, 2017b).

Ce projet est piloté par le Forum für Edition und Erschliessung (FEE) de l’Université de Bâle et est financé par le fonds CUS-P5 de Swissuniversities jusqu’à septembre 2019. Six entités coopèrent à ce projet :

  • L’Académie suisse des sciences humaines et sociales (SAGW)
  • L’Université de Bâle
  • L’Université de Berne
  • L’Université de Zurich
  • La Bibliothèque universitaire de Bâle
  • La Bibliothèque centrale de Zurich

Pour l’instant, il est prévu de mettre en ligne 14 projets d’éditions (ou sous-projets de NIE-INE), essentiellement en théologie et en philosophie tels que les commentaires sur les Sentences de Pierre Lombard ou encore les éditions critiques des récits de Perceval (FEE, 2017a).

Le public cible des futurs utilisateurs de la plateforme NIE-INE, et par extension des tests d’utilisabilité qui ont été effectués sur UV et Mirador lors du travail de bachelor, est majoritairement composé de chercheurs, professeurs, d’étudiants, ainsi que de curateurs.

Tests d’utilisabilité
Interfaces/Visionneuses testées

En leur qualité d’interfaces les plus implémentées au sein de l’écosystème IIIF, UV et Mirador ont été toutes deux choisies pour les tests d’utilisabilité.

S’il y a beaucoup de fonctionnalités communes (affichage des images et des métadonnées associées, rotation, zoom[20], vignettes, navigation au sein d’objets structurés) entre les deux visionneuses et qu’elles sont interchangeables la plupart du temps, elles diffèrent à certains égards.

UV (voir figure 5 ci-dessous) est une interface open-source qu’il est possible d’encapsuler aisément à l’intérieur d’une page HTML, de chercher des occurrences en plein texte ou encore de télécharger la totalité de l’objet, une page ou encore un extrait (UV, 2017a). UV a été à la base conçu pour le compte de la Wellcome Library et ensuite adapté pour se conformer aux spécifications de IIIF (Digirati, 2015).

Figure 5 : Universal Viewer (version  2.0.1)

(UV, 2017b)

Quant à Mirador (voir figure 6 ci-dessous), il s’agit d’une visionneuse créée en 2013 pour les besoins des chercheurs en histoire de l’art et des spécialistes de manuscrits à l’université de Stanford (Reed, Winget, 2017). En 2014, l’université de Harvard s’est jointe aux efforts de développement. Mirador a été conçu dès le départ en s’alignant sur les API de IIIF en offrant à ses utilisateurs, généralement des universitaires, la possibilité de comparer et d’annoter différents objets à l’intérieur d’un même espace de travail (Mirador, 2015, 2016).

Figure 6 : Mirador (version. 2.3.0)

(Mirador, 2017)

Méthodologie

Quatre grandes étapes ont été nécessaires pour réaliser les scénarios des différents tests d’utilisabilité :

1.       Définir le contexte d’utilisation des publics cibles

Les spécificités des futurs utilisateurs de la plateforme NIE-INE ont été prises en compte dans la conception des tests d’utilisabilité. Les considérations telles que les connaissances en informatique des utilisateurs, la mise à disposition d’une interface intuitive, ou encore le type d’environnement sur lequel les chercheurs travaillent ont été des éléments clé. Il a été décidé par exemple de ne se focaliser que sur des tests prenant place sur ordinateur portable ou stationnaire.

2.       Trouver les exigences des utilisateurs finaux en se basant sur les récits utilisateur (user stories)

Les récits utilisateur de IIIF et ceux reçus de NIE-INE ont permis de sélectionner les types de tâches les plus importantes à effectuer sur les deux interfaces évaluées comme la configuration de l’affichage, la recherche et le partage, le zoom et la rotation, ou encore l’annotation ou la comparaison des objets numériques. 

3.       Sélectionner les outils pour mener à bien les tests

Afin d’avoir des données quantitatives et qualitatives, il a été décidé de mener deux sortes de tests d’utilisabilité, un premier à distance et asynchrone avec le logiciel Loop11[21] et un second de manière modérée et en présentiel sur Morae[22]. Le choix des logiciels s’est fait essentiellement sur la base d’évaluations similaires faites par des alumni de la filière Information documentaire de la Haute Ecole de Gestion de Genève (Prongué, 2012 ; Meystre, Rey, 2014 ; Guzzon, 2016).

4.       Créer les tâches et les questions

Le scénario s’appuie sur des évaluations effectuées au préalable par la British Library et Toronto University courant 2016 sur UV ou/et Mirador (Ridge, 2016 ; Miekle et al., 2016). En général, une série de 2-3 tâches est suivie par une question portant sur la satisfaction ou demandant des informations complémentaires difficiles à tracer.

Indicateurs de mesure

L’efficience et la satisfaction étaient les deux dimensions d’évaluation choisies pour les tests d’utilisabilité. Dans un second temps, l’utilisabilité perçue ou globale (perceived usability) est devenue un troisième critère principal. 

Efficience

L’indicateur qui a été retenu se nomme l’efficience relative globale (overall relative efficency) et est un ratio entre le temps moyen pris par tous les participants ayant réussi une tâche et le temps moyen pris par la totalité des participants (Sergeev, 2010 ; Mifsud, 2015). Le résultat peut être exprimé en point ou en pourcent.

Satisfaction

Un sous-ensemble de la catégorie satisfaction du sondage USE (Usefulness, Satisfaction, and Ease) créé par Lund (2001) a été retenu. Il s’agit des trois critères suivants qui furent évalués sur l’échelle de Likert :

  • Cette interface fonctionne comme je l’attendais (it works the way I want it to work)
  • Cette interface est plaisante à utiliser (it is pleasant to use)
  • Cette interface est amusante à utiliser (it is fun to use)

Le résultat de satisfaction globale était une moyenne de ces trois critères, donnant au maximum 5 points.

Utilisabilité perçue

Afin d’avoir une référence commune, le System Usability Scale (SUS) a été choisi comme instrument de mesure pour avoir une référence connue dans le domaine de l’utilisabilité. Ce questionnaire élaboré par Brooke (1996) comporte dix questions alternant les énoncés positifs et négatifs. Les participants répondent sur l’échelle de Likert où chaque énoncé vaut entre 0 et 4 points. Ce résultat intermédiaire sera ensuite multiplié par 2.5 pour donner un percentile. Une manière d’interpréter le score obtenu est de le convertir en note de A à F. Sauro (2011) a développé cette méthode sur la base d’une centaine de tests d’utilisabilité pour dégager un point de référence. Les repères les plus importants sont les suivants :

  • 80.3 et plus est considéré comme une excellente note et équivaut à un A
  • 68 comme une note suffisante : C
  • 51 et moins comme une mauvaise note : F

La satisfaction et l’utilisabilité perçue ont été évaluées autant lors des tests à distance qu’en présentiel. L’efficience n’a elle été mesurée que lors des tests d’utilisabilité à distance. Pour avoir un indicateur qui se rapprochait de l’efficience, la notion « accomplissement d’une tâche » (task completion), déterminant trois niveaux de facilité, a été incluse pour l’évaluation en présentiel.

Résultats[23]

En excluant le pré-test (ou test bêta), effectué uniquement pour vérifier différents paramétrages du logiciel Loop11, trois évaluations ont été prises en compte dans la matrice des résultats (voir tableau 3) :

  1. Le test pilote (pilot test) a été fait avec Loop11 avec 29 étudiants de la Haute école de gestion de Genève le 5 avril 2017. Le but de ce test était d’avoir des utilisateurs n’ayant jamais entendu parler de UV ou de Mirador et de voir quels types de problèmes des utilisateurs non expérimentés pouvaient rencontrer.
  2. Le test « cible » (target test) a été fait avec Loop11 avec comme public cible les futurs utilisateurs de la plateforme NIE-INE et la communauté élargie[24] des humanités numériques. 45 personnes[25] ont participé au test disponible entre le 20 avril et le 8 mai 2017.
  3. Le test en présentiel (in-person test) a été fait avec Morae pendant le mois de mai. Cela s’est déroulé sur le lieu de travail de 7 chercheurs ou curateurs en humanités numériques. Il était demandé aux participants d’utiliser la méthode de la pensée à voix haute (thinking aloud protocol).

Problèmes principaux d’utilisabilité à résoudre

En parallèle à l’un des objectifs principaux qui consistaient à évaluer l’efficience et la satisfaction des deux interfaces, quelques bugs et problèmes d’utilisabilité ont été découverts, essentiellement par les participants des tests en présentiel.

UV

Dans la figure 7 ci-dessous quatre zones représentant différentes fonctionnalités de l’interface UV ont posé des problèmes aux participants des tests. Sous l’image se trouvent les explications de chaque zone.

Figure 7 : Problèmes d'utilisabilité de UV

  1. L’épingle – « goutte d’eau » : cette fonctionnalité était assez frustrante pour la plupart des participants qui tentaient de la faire glisser pour passer d’une page à l’autre alors qu’elle ne sert qu’à indiquer un mot cherché à l’intérieur du corpus.
  2. Les options de téléchargement : le nombre important d’options rendaient cette tâche difficile à appréhender.
  3. Les icônes de zoom et de rotation : les participants n’arrivaient pas à trouver les icônes car elles disparaissent trop rapidement lorsqu’il n’y aucune action de la part de l’utilisateur.
  4. Les types de visualisation : les icônes n’étaient pas clairement identifiables, probablement à cause de la surbrillance grise.

Mirador

Sous la figure 8 se trouvent les explications des six zones problématiques de l’interface Mirador en termes d’utilisabilité. Les six zones représentent cinq fonctionnalités distinctes.

Figure 8 : problèmes d'utilisabilité de Mirador

  1. Les fonctions de panoramique et de zoom : cette zone était déroutante pour les nouveaux utilisateurs qui l’employaient pour passer d’une page à l’autre et elle n’était aussi jamais utilisée par les utilisateurs aguerris qui préféraient zoomer avec leur souris.
  2. Les types de visualisation / le changement de mise en page : souvent les deux icônes ont été confondues par les participants qui ne comprenaient pas la différence entre les deux labels.
  3. Les options de manipulation des images : les tests ont relevé qu’une grande majorité des participants n’arrivaient pas à retourner une image dans un sens ou dans un autre car il faut appuyer sur une icône avant de voir apparaître les différentes options.
  4. Ajouter un nouvel objet : deux participants ont repéré un bug au sein du système lorsqu’ils ont essayé de glisser/déposer une image provenant du panneau des miniatures.
  5. Le panneau des miniatures : les petits points qui affichent et font disparaître le panneau ont rarement été trouvés par les participants aux tests.

Synthèse des résultats

Au sein du tableau 3 se trouvent les résultats obtenus des trois différents tests d’utilisabilité. Si globalement les deux interfaces se retrouvent avec des bonnes notes, UV a été préféré pour sa facilité de prise en main et s’en sort mieux dans chaque évaluation. Néanmoins, les utilisateurs expérimentés appréciaient les fonctionnalités offertes par Mirador et non disponibles au sein de l’interface UV.

Tableau 3 : Synthèse des résultats des tests d'utilisabilité

Recommandations et perspectives

Si l’on reprend la question de recherche posée initialement, à savoir comment faire bénéficier la communauté des chercheurs suisses des technologies IIIF, on peut émettre les recommandations suivantes.

Il a été recommandé au projet NIE-INE de partager ses récits utilisateur de manière exhaustive avec la communauté IIIF pour évaluer les besoins spécifiques qu’ils ont vis-à-vis d’autres institutions utilisant des solutions IIIF. Ce serait un premier pas intéressant à effectuer car cela permettrait de les mettre en contact avec d’autres institutions ayant les mêmes exigences et de créer des liens avec des experts du domaine.

Par ailleurs, les développeurs des interfaces UV et Mirador ont reçu toutes les données issues des tests d’utilisabilité et vont d’ici l’année prochaine résoudre les problèmes identifiés et tenter de développer de nouvelles versions plus efficientes.

IIIF a décidé récemment de créer un groupe communautaire de sensibilisation (Outreach Community Group) pour atteindre un public plus large, notamment les institutions de petite et moyenne taille. Ce groupe devrait voir le jour dès janvier 2018 et aura, entre autres, comme objectifs de mieux documenter les processus d’implémentation et d’animer des ateliers. Les institutions suisses pourraient tirer profit de ce groupe pour déployer plus aisément des solutions conformes aux spécifications techniques.

Conclusion

Tout comme pour les collections issues du patrimoine culturel, le projet NIE-INE ainsi que les initiatives similaires ont tout intérêt à se conformer aux spécifications techniques qu’offre IIIF. Chaque nouvelle institution arrivant au sein de la communauté fait profiter tout l’écosystème, que ce soit du côté des utilisateurs finaux ou pour les membres IIIF. Il suffit pour cela de discuter et collaborer avec la communauté IIIF, même s’il faut au préalable comprendre certains concepts techniques. Avant de passer à une lecture exhaustive des API, il est préférable d’assister à un événement IIIF qui est également une occasion d’élargir ses connaissances, aussi à l’international.

Les résultats obtenus au cours des tests d’utilisabilité démontrent que les interfaces UV et Mirador avaient toutes les deux leurs forces et leurs faiblesses, mais ne présentaient pas de problèmes considérables qui empêcheraient les utilisateurs de réaliser la grande majorité des tâches demandées.

Tous ces résultats ont été rendus publics et présentés aux personnes impliquées dans les développements des interfaces testées ainsi qu’aux membres du projet NIE-INE. Les réponses ont jusqu’ici étaient positives et plusieurs changements devraient être effectués lors de la mise à disposition des prochaines versions majeures (UV et Mirador 3.0).

Chaque institution souhaitant modifier ou construire un nouveau système doit faire en sorte d’implémenter une interface conviviale par le biais de tests d’utilisabilité. Quant à celles qui souhaitent mettre en œuvre une solution conforme à IIIF, elles peuvent soit déployer UV pour le grand public grâce à sa simplicité d’utilisation, soit Mirador pour un public plus aguerri et scientifique susceptible d’employer un nombre important de fonctionnalités.

En Suisse, il y a encore un long travail de sensibilisation à effectuer, notamment auprès des bibliothèques, sur les bénéfices de IIIF. Le lancement d’un sondage auprès d’institutions patrimoniales et scientifiques ainsi que l’organisation de présentations et d’ateliers sont quelques pistes qui ont été évoquées à la suite du travail de bachelor. Ces éléments semblent essentiels pour parvenir à connaître les besoins des institutions suisses à implémenter des infrastructures flexibles et interopérables permettant un meilleur accès aux objets numériques.

Bibliographie

Etude et présentations à la base de cet article

RAEMY, Julien A., 2017a. IIIF Pre-conference - Usability testing conducted on the UV and Mirador. In : 2017 IIIF Conference [en ligne]. Augustinianum, The Vatican City. 5 juin 2017. [Consulté le 2 décembre 2017]. Disponible à l’adresse : https://www.slideshare.net/JulienARaemy/iiif-preconference-usability-testing-conducted-on-the-uv-and-mirador.  

RAEMY, Julien A., 2017b. Présentation brève de IIIF et du travail de bachelor. In : Séminaire en bibliothéconomie [en ligne]. Haute école de gestion, Genève. 9 novembre 2017. [Consulté le 7 décembre 2017]. Disponible à l’adresse : https://www.slideshare.net/JulienARaemy/prsentation-brve-de-iiif-et-du-travail-de-bachelor-sminaire-en-bibliothconomie-hegge.  

RAEMY, Julien A., 2017. The International Image Interoperability Framework (IIIF): raising awareness of the user benefits for scholarly editions [en ligne]. Bachelor’s thesis. Geneva, Switzerland : Haute école de gestion de Genève. [Consulté le 16 janvier 2018]. Disponible à l’adresse : http://doc.rero.ch/record/306498

Références citées dans cet article

APPLEBY, Michael, CRANE, Tom, SANDERSON, Robert, STROOP, Jon et WARNER, Simeon, 2017a. IIIF Design Patterns. In : International Image Interoperability Framework [en ligne]. 6 février 2017. [Consulté le 5 décembre 2017]. Disponible à l’adresse : http://iiif.io/api/annex/notes/design_patterns/.  

APPLEBY, Michael, CRANE, Tom, SANDERSON, Robert, STROOP, Jon et WARNER, Simeon, 2017b. IIIF Presentation API 2.1.1. In : International Image Interoperability Framework [en ligne]. 9 juin 2017. [Consulté le 16 novembre 2017]. Disponible à l’adresse : http://iiif.io/api/presentation/2.1/.

BAYERISCHE STAATSBIBLIOTHEK, 2016. Das International Image Interoperability Framework (IIIF): ein neuer Standard für Zusammenarbeit, Nutzerfreundlichkeit und Forschung. In : MDZ [en ligne]. 15 octobre 2016. [Consulté le 15 novembre 2017]. Disponible à l’adresse : https://www.digitale-sammlungen.de/index.html?c=iiif-info&l=de.

BRANTL, Markus, EICHINGER, Ralf et WOLF, Thomas, 2016. Ein neuer offener Standard für Bildrepositorien – das International Image Interoperability Framework (IIIF) im Einsatz an der Bayerischen Staatsbibliothek. In : ABI Technik [en ligne]. 1 janvier 2016. Vol. 36, n° 2. [Consulté le 21 octobre 2017]. DOI 10.1515/abitech-2016-0017. Disponible à l’adresse : https://www.degruyter.com/view/j/abitech.2016.36.issue-2/abitech-2016-00....

BROOKE, John, 1996. SUS-A quick and dirty usability scale. In : Usability evaluation in industry. 1996. Vol. 189, n° 194, p. 4–7.

CRAMER, Tom, 2016. An Introduction to the International Image Interoperability Framework [en ligne]. Museum of Modern Art, New York : 10 mai 2016. [Consulté le 21 novembre 2017]. Access to the World’s Images: The Advantages of IIIF. Disponible à l’adresse : https://www.youtube.com/watch?v=KVUyhcVO060.

CRAMER, Tom, 2017. IIIF Intro for Vatican Showcase. In : 2017 IIIF Conference [en ligne]. Augustinianum, The Vatican City. 6 juin 2017. [Consulté le 7 décembre 2017]. Disponible à l’adresse : https://goo.gl/bXCe1P.

CRANE, Tom, 2017. An Introduction to IIIF. In : digirati [en ligne]. mars 2017. [Consulté le 7 décembre 2017]. Disponible à l’adresse : http://resources.digirati.com/iiif/an-introduction-to-iiif/.

DHLAB, 2017. NIE — INE. In : Digital Humanities Lab [en ligne]. 16 janvier 2017. [Consulté le 22 janvier 2017]. Disponible à l’adresse : http://dhlab.unibas.ch/nie-ine/.

DIGIRATI, 2015. IIIF and the Universal Viewer. In : The Player [en ligne]. 2015. [Consulté le 2 janvier 2017]. Disponible à l’adresse : http://player.digirati.co.uk/iiif.html.

E-CODICES, 2014. e-codices Web Application V2.0. In : e-codices: Virtual Manuscript Library of Switzerland [en ligne]. décembre 2014. [Consulté le 24 novembre 2017]. Disponible à l’adresse : http://www.e-codices.unifr.ch/en/about/webapplication.

E-CODICES, 2016. e-codices Newsletter - Issue N° 23. In : e-codices: Virtual Manuscript Library of Switzerland [en ligne]. mars 2016. [Consulté le 10 novembre 2017]. Disponible à l’adresse : http://www.e-codices.unifr.ch/newsletter/archive/issue-23.html.

FEE, 2017a. Daten und ihre Semantik für Menschen und Maschinen. INE-INE Ontologie Workshop. In : Forum für Edition und Erschliessung [en ligne]. 31 mars 2017. [Consulté le 24 septembre 2017].  Disponible à l’adresse : http://www.fee.unibas.ch/Von_Daten_zur_Maschine-brauchbaren_Semantik.pdf.

FEE, 2017b. NIE-INE. In : Forum für Edition und Erschliessung [en ligne]. 2017. [Consulté le 7 décembre 2017]. Disponible à l’adresse : http://www.fee.unibas.ch/nie_ine.html.

GUZZON, Oscar, 2016. Optimisation d’une plateforme web de divulgation scientifique [en ligne]. Bachelor’s thesis. Geneva, Switzerland : Haute école de gestion de Genève. [Consulté le 24 septembre 2017]. Disponible à l’adresse : https://doc.rero.ch/record/278088.

HASKIYA, David, 2017. Benefits of Institutional Adoption: The Europeana perspective. In : 2017 IIIF Conference [en ligne]. Augustinianum, The Vatican City. 7 juin 2017. [Consulté le 1 décembre 2017]. Disponible à l’adresse : https://docs.google.com/presentation/d/1ldy8aF7MZfFNR9-frd5oLLOzjfPXR2he....

HÜGI, Jasmin et SCHNEIDER, René, 2013. A framework for evaluating the usefulness of digital libraries. In : Informationswissenschaft zwischen virtueller Infrastruktur und materiellen Lebenswelten. Proceedings des 13. Internationalen Symposiums für Informationswissenschaft (ISI 2013) [en ligne]. Postdam, Germany : s.n. mars 2013. p. 1‑12. [Consulté le 6 décembre 2017]. Disponible à l’adresse : https://doc.rero.ch/record/209050.

IIIF, 2015. Memorandum of Understanding covering the establishment of the IIIF Consortium. In : International Image Interoperability Framework [en ligne]. 16 juin 2015. [Consulté le 27 octobre 2017]. Disponible à l’adresse : http://iiif.io/community/consortium/mou/.

IIIF, 2017a. About IIIF. In : International Image Interoperability Framework [en ligne]. 2017. [Consulté le 7 décembre 2017]. Disponible à l’adresse : http://iiif.io/about/.

IIIF, 2017b. API Specifications. In : International Image Interoperability Framework [en ligne]. 2017. [Consulté le 8 décembre 2017]. Disponible à l’adresse : http://iiif.io/api/.

IIIF, 2017c. Apps & Demos. In : International Image Interoperability Framework [en ligne]. 2017. [Consulté le 8 décembre 2017]. Disponible à l’adresse : http://iiif.io/apps-demos/.

IIIF, 2017d. Community. In : International Image Interoperability Framework [en ligne]. mai 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://iiif.io/community/.

IIIF, 2017e. Guidelines for IIIF Code of Conduct Team Members. In : International Image Interoperability Framework [en ligne]. 1 décembre 2017. [Consulté le 8 décembre 2017]. Disponible à l’adresse : http://iiif.io/event/conduct-guidelines/.

IIIF, 2017f. IIIF Code of Conduct. In : International Image Interoperability Framework [en ligne]. 1 décembre 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://iiif.io/event/conduct/.

IIIF, 2017g. IIIF Community and Technical Specification Groups. In : International Image Interoperability Framework [en ligne]. 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://iiif.io/community/groups/.

IIIF, 2017h. IIIF Consortium Frequently Asked Questions (FAQs). In : International Image Interoperability Framework [en ligne]. avril 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://iiif.io/community/consortium/faq/.

IIIF, 2017i. IIIF Consortium. In : International Image Interoperability Framework [en ligne]. 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://iiif.io/community/consortium/.

IIIF, 2017j. IIIF Events. In : International Image Interoperability Framework [en ligne]. 2017. [Consulté le 7 décembre 2017]. Disponible à l’adresse : http://iiif.io/event/.

IIIF, 2017k. IIIF Frequently Asked Questions (FAQs). In : International Image Interoperability Framework [en ligne]. avril 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://iiif.io/community/faq/.

IIIF, 2017l. IIIF Groups Framework. In : International Image Interoperability Framework [en ligne]. 13 janvier 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://iiif.io/community/groups/framework/#technical-specification-group....

ISO, 2010. ISO 9241-210:2010 - Ergonomics of human-system interaction -- Part 210: Human-centred design for interactive systems [en ligne]. 2010. [Consulté le 6 décembre 2017]. Disponible à l’adresse : https://www.iso.org/standard/52075.html.

ISO, 2017. ISO/DIS 9241-11.2 - Ergonomics of human-system interaction -- Part 11: Usability: Definitions and concepts [en ligne]. 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : https://www.iso.org/standard/63500.html.

KLOKAN TECHNOLOGIES, 2016. Projects. In : klokantech [en ligne]. 2016. [Consulté le 27 février 2017]. Disponible à l’adresse : https://www.klokantech.com/projects/.

LUND, Arnold M., 2001. Measuring usability with the USE questionnaire. In : Usability Interface. 2001. Vol. 8, n° 2, p. 3‑6.

MARKUS, Gregory, HOWARD, John B., GLASEMANN, Karin et KARAVELLAS, Themis, 2017. Issue 6: IIIF. In : Europeana Professional [en ligne]. 16 février 2017. [Consulté le 8 décembre 2017]. Disponible à l’adresse : http://pro.europeana.eu/page/issue-6-iiif.

MEYSTRE, Valérie et REY, Raphaël, 2014. Tests d’utilisabilité : comparaison de deux méthodes appliquées au site e-rara.ch [en ligne]. Geneva, Switzerland. Haute école de gestion de Genève. [Consulté le 6 décembre 2017]. Disponible à l’adresse : https://doc.rero.ch/record/209599.

MIEKLE, Sian, GILLESPIE, Alexandra, DI CRESCE, Rachel, MITCHELL, Laura et BOLINTINEANU, Alexandra, 2016. Scholarly needs assessment of Mediaval manuscript scholars. Toronto, Canada. University of Toronto.

MIFSUD, Justin, 2015. Usability Metrics - A Guide To Quantify The Usability Of Any System. In : Usability Geek [en ligne]. 22 juin 2015. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://usabilitygeek.com/usability-metrics-a-guide-to-quantify-system-us....

MIRADOR, 2015. Mirador 2.0 Design Revision. In : Stanford University [en ligne]. 2015. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://sul-reader-test.stanford.edu/mocks/.

MIRADOR, 2016. Getting Started. In : Project Mirador [en ligne]. 2016. [Consulté le 19 mai 2017]. Disponible à l’adresse : http://projectmirador.org/docs/docs/getting-started.html.

MIRADOR, 2017. Mirador Viewer. In : Project Mirador [en ligne]. 2017. [Consulté le 23 janvier 2017]. Disponible à l’adresse : http://projectmirador.org/demo/.

MORVILLE, Peter, 2004. User Experience Design. In : Semantic Studios [en ligne]. 21 juin 2004. [Consulté le 12 mars 2017]. Disponible à l’adresse : http://semanticstudios.com/user_experience_design/.

NIELSEN, Jakob, 1993. Usability engineering. Boston : Academic Press. ISBN 978-0-12-518405-2. QA76.9.U83 N54 1993

NNGROUP, 2016. Don Norman: The term « UX » [en ligne]. 2 juillet 2016. [Consulté le 28 mars 2017]. Disponible à l’adresse : https://www.youtube.com/watch?time_continue=92&v=9BdtGjoIN4E.

NORMAN, Don et NIELSEN, Jakob, 2007. The Definition of User Experience (UX). In : Nielsen Norman Group [en ligne]. 2007. [Consulté le 28 mars 2017]. Disponible à l’adresse : https://www.nngroup.com/articles/definition-user-experience/.

PRONGUÉ, Nicolas, 2012. Evaluation de l’utilisabilité de RODIN au moyen d’un test utilisateur asynchrone [en ligne]. Bachelor’s thesis. Geneva, Switzerland : Haute école de gestion de Genève. [Consulté le 2 janvier 2017]. Disponible à l’adresse : https://doc.rero.ch/record/30353.

QUESENBERY, Whitney, 2001. What Does Usability Mean: Looking Beyond ‘Ease of Use’. In : WQusability [en ligne]. 2001. [Consulté le 10 décembre 2017]. Disponible à l’adresse : http://www.wqusability.com/articles/more-than-ease-of-use.html.

RABUN, Sheila, 2016. LIS 570 C. Assignment 6 : Scoping the “IIIF universe”: First Steps to Discovery. Research Proposal. Seattle, WA. Information School, University of Washington.

RABUN, Sheila, 2017a. Building Community Around the International Image Interoperability Framework (IIIF). In : Council on Library and Information Resources [en ligne]. 27 janvier 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://connect.clir.org/blogs/sheila-rabun/2017/01/27/iiif.

RABUN, Sheila, 2017b. IIIF Community Newsletter, Volume 1 Issue 4. In : International Image Interoperability Framework [en ligne]. 30 août 2017. [Consulté le 10 décembre 2017]. Disponible à l’adresse : http://iiif.io/news/2017/08/30/newsletter/.

RABUN, Sheila, 2017c. University of Basel Digital Humanities Lab Joins the IIIF Consortium. In : International Image Interoperability Framework [en ligne]. 30 janvier 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://iiif.io/news/2017/01/30/univ-basel-joins-iiifc/.

RABUN, Sheila, 2017d. Welcome and State of the IIIF Universe. In : 2017 IIIF Conference [en ligne]. Augustinianum, The Vatican City. 7 juin 2017. Disponible à l’adresse : https://goo.gl/XHyDnM.

RAEMY, Julien A., FORNARO, Peter et ROSENTHALER, Lukas, 2017. Implementing a Video Framework based on IIIF: A Customized Approach from Long-Term Preservation Video Formats to Conversion on Demand. In : Archiving Conference. 15 mai 2017. Vol. 2017, n° 1, p. 68‑73. DOI 10.2352/issn.2168-3204.2017.1.0.68.

REED, Jack et WINGET, Drew, 2017. Introduction to IIIF. In : GitHub [en ligne]. mars 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : https://iiif.github.io/training/intro-to-iiif/.

RIDGE, Mia, 2016. There’s a new viewer for digitised items in the British Library’s collections. In : Digital scholarship blog [en ligne]. 7 décembre 2016. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://blogs.bl.uk/digital-scholarship/2016/12/new-viewer-digitised-coll....

ROBINEAU, Régis, 2016. Comprendre IIIF et l’interopérabilité des bibliothèques numériques. In : Insula: Le blog de la Bibliothèque des Sciences de l’Antiquité (Lille 3) [en ligne]. 8 novembre 2016. [Consulté le 10 novembre 2016]. Disponible à l’adresse : http://bsa.biblio.univ-lille3.fr/blog/2016/11/comprendre-iiif-interopera....

ROCHAT, Yannick, EHRMANN, Maud, BUNTINX, Vincent, BORNET, Cyril et KAPLAN, Frédéric, 2016. Navigating through 200 Years of Historical Newspapers. In : Proceedings of the 13th International Conference on Digital Preservation [en ligne]. Bern, Switzerland. octobre 2016. p. 186‑195. Disponible à l’adresse : https://ipr16.organizers-congress.org/frontend/organizers/media/iPRES201....

RONALLO, Jason, 2017. IIIF Workshop. In : Preliminary Inventory of Digital Collections: incomplete thoughts on digital libraries [en ligne]. 10 septembre 2017. [Consulté le 8 décembre 2017]. Disponible à l’adresse : http://ronallo.com/iiif-workshop/.

ROSENTHALER, Lukas et FORNARO, Peter, 2016. The « International Image Interoperability Framework » and its Implication to Preservation. In : Archiving Conference. S.l. : s.n. 19 avril 2016. p. 95‑99.

SANDERSON, Robert, 2016. IIIF: The Advantages of APIs. In : [en ligne]. Museum of Modern Art, New York. 10 mai 2016. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://www.slideshare.net/azaroth42/iiif-the-advantages-of-apis.

SAURO, Jeff, 2011. Measuring Usability with the System Usability Scale (SUS). In : MeasuringU [en ligne]. 2 février 2011. [Consulté le 6 décembre 2017]. Disponible à l’adresse : https://measuringu.com/sus/.

SERGEEV, Anton, 2010. Efficiency. In : UI Designer [en ligne]. 2010. [Consulté le 6 décembre 2017]. Disponible à l’adresse : http://ui-designer.net/usability/efficiency.htm.

SNYDMAN, Stuart, SANDERSON, Robert et CRAMER, Tom, 2015. The International Image Interoperability Framework (IIIF): A community & technology approach for web-based images. In : Archiving Conference [en ligne]. Los Angeles, CA . mai 2015. p. 16‑21. Disponible à l’adresse : https://purl.stanford.edu/df650pk4327.

TSAKONAS, Giannis et PAPATHEODOROU, Christos, 2008. Exploring usefulness and usability in the evaluation of open access digital libraries. In : Information Processing & Management. mai 2008. Vol. 44, n° 3, p. 1234‑1250. DOI 10.1016/j.ipm.2007.07.008.

UV, 2017a. Universal Viewer Wiki. In : GitHub [en ligne]. 2017. [Consulté le 6 décembre 2017]. Disponible à l’adresse : https://github.com/UniversalViewer/universalviewer.

UV, 2017b. Wunder der Vererbung. In : Universal Viewer [en ligne]. 2017. [Consulté le 18 juin 2017]. Disponible à l’adresse : http://universalviewer.io/examples/#?c=0&m=0&s=0&cv=0&xywh=-1377%2C-197%....

YING, William et SHULMAN, James, 2015. « Bottled or Tap? »: A Map for Integrating International Image Interoperability Framework (IIIF) into Shared Shelf and Artstor. In : D-Lib Magazine [en ligne]. 2015. Vol. 21, n° 7. [Consulté le 6 décembre 2017]. DOI 10.1045/july2015-ying. Disponible à l’adresse : http://dialnet.unirioja.es/servlet/oaiart?codigo=5164874.


Notes

[1] Prononcer cet acronyme à l’anglaise : « Triple-Eye-Eff »

[2] Dans le mémoire, la question de recherche a été formulée ainsi : « How can the scientific community in Switzerland, particularly those working on scholarly editions, benefit from using IIIF technology? »

[3] Dans le mémoire et dans cet article, la notion d’utilisabilité est restreinte à son application sur le Web.

[4] A l’exception de quelques références internes au document d’origine, les tableaux et figures repris du mémoire ont été laissés tels quels.

[5] Même si la norme ISO 9241-11 est en cours de révision, sa définition de l’utilisabilité ne devrait pas être modifiée.

[6]> “Usefulness is the issue of whether the system can be used to achieve some desired goals.” (Nielsen, 1993, p. 24‑25)

[7] « Everything that touches upon [someone’s] experience with a product » (NNgroup, 2016)

[8] La traduction des foires aux questions (FAQ) de IIIF est un travail en cours effectué par la communauté IIIF. Cet effort de traduction pour la documentation en français est effectué par Régis Robineau, Coordinateur du portail Biblissima, et l’auteur de cet article. La FAQ du consortium de IIIF est pour le moment à cette adresse : http://bit.ly/iiifc-faq-fr  (consulté le 5 décembre 2017)

[9] https://www.clir.org/ (consulté le 7 décembre 2017)

[10] RESTful : services Web suivant les principes du modèle REST (Representational state transfer). Pour plus d’informations, veuillez consulter la traduction française du chapitre 5 de la thèse de doctorat de Roy T. Fielding (2000) : http://opikanoba.org/tr/fielding/rest/ (consulté le 7 décembre 2017).

[11] Une liste des outils et des ressources en lien avec IIIF est recensée au sein de la page GitHub intitulée Awesome International Image Interoperability Framework : https://github.com/IIIF/awesome-iiif (consulté le 8 décembre 2017).

[12] Un Manifest est à la fois une représentation et une description d’un objet physique ou virtuel (Appleby et al., 2017b). Il faut noter que le web service Presentation API se base sur le Shared Canvas Model : http://iiif.io/model/shared-canvas/1.0/ (consulté le 9 décembre 2017)

[13] Le terme image viewer ou « visionneuse » en français est généralement utilisé pour parler de clients web ou d’applications permettant l’affichage et la manipulation d’objets numériques.

[14] http://e-codices.ch/ (consulté le 9 décembre 2017)

[15] http://www.fragmentarium.ms/ (consulté le 9 décembre 2017)

[16] https://www.klokantech.com/ (consulté le 9 décembre 2017)

[17] http://www.georeferencer.com/ (consulté le 9 décembre 2017)

[18] http://www.letempsarchives.ch/ (consulté le 10 décembre 2017)

[19] http://photobookselysee.ch/ (consulté le 10 décembre 2017)

[20] Les deux interfaces s’appuient sur OpenSeaDragon IIIF Tile Source pour le zoom (Mirador, 2017).

[21] https://www.loop11.com/ (consulté le 10 décembre 2017)

[22] https://www.techsmith.com/morae.html (consulté le 10 décembre 2017)

[23] Les données détaillées des résultats, ainsi que les problèmes d’utilisabilité de chaque interface, sont stockées dans un dossier Google Drive à l’adresse suivante : https://goo.gl/jm33wX (consulté le 11 décembre 2017)

[24] Communauté « élargie » car elle comprenait essentiellement des professeurs, chercheurs ou curateurs travaillant sur des projets similaires à NIE-INE ou utilisant ce type d’interface pour leur travail quotidien.

[25] Il y a eu davantage de participants, mais seulement 45 ont terminé tout le test et ont été identifiés comme faisant partie du public cible.

Retour sur la conférence IIIF (International Image Interoperability Framework), 7-9 juin 2017 au Vatican

Julien Raemy, Assistant HES, Haute école de Gestion, Genève

Retour sur la conférence IIIF (International Image Interoperability Framework), 7-9 juin 2017 au Vatican [1]

L'initiative IIIF a démarré en Californie en 2011 après un rassemblement informel de développeurs et de bibliothécaires des universités de Stanford, d'Oxford, et de la British Library. Ils ont tous admis que la diffusion d'images sur le Web dans le domaine culturel n'était pas du tout satisfaisante car il n'y avait aucun consensus viable pour livrer et échanger les images numériques entres les différents acteurs du milieu. Bien souvent, les interfaces n'étaient pas esthétiques, les infrastructures technologiques étaient trop complexes, trop lentes et il existait autant de solutions que d’interfaces.

Les institutions qui participent activement à IIIF comportent majoritairement des bibliothèques nationales et patrimoniales, des musées, des agrégateurs, et des centres de recherche universitaire (IIIF, 2017d). En plus des trois organisations fondatrices citées au préalable, IIIF peut notamment compter sur le soutien de l’université de Harvard, du Yale Center for British Art, d’Europeana, de l’université de Kyoto, du Wellcome Trust, de la Bibliothèque apostolique vaticane ou encore de la BnF.

La communauté IIIF a défini trois buts (IIIF, 2017a, 2017h):

  • Donner aux chercheurs un niveau d'accès sans précédent, uniforme et riche aux images numériques hébergées autour du monde
  • Définir et adopter un ensemble d'interfaces de programmation applicative (APIs) soutenant l'interopérabilité entre différents entrepôts d'images

Développer, cultiver et documenter des technologies communes telles que des serveurs d'images et des clients web apportant une expérience utilisateur de classe mondiale dans la visualisation, la comparaison, la manipulation et l'annotation d'images.

Depuis sa création en 2011, la communauté « International Image Interoperability Framework » (IIIF) a organisé des événements en Europe et en Amérique du Nord à raison d’une à deux fois par année. Depuis mai 2016 et l’organisation de leur première conférence annuelle à New York, les périodes et types d’événements se sont normalisés de cette manière :

  • Une conférence annuelle est organisée au printemps (mai ou juin) : la durée de la conférence est en général de quatre à cinq jours avec trois journées officielles (et payantes). Lors de la partie formelle de la conférence, le premier jour est effectué dans un grand auditoire en séance plénière et les deux autres jours offrent des séances parallèles.
  • Une réunion des groupes de travail (Working Groups Meeting) se déroule en automne (octobre) : si ce type d’événement a un focus très technique et dure en général trois jours, il y en général une matinée ou journée accessible à tous organisée la veille (événement de sensibilisation – outreach event).

Quant au choix du lieu, il y a pour l’instant un tournus entre l’Europe et l’Amérique du Nord. La conférence annuelle est organisée sur le même continent que la dernière réunion des groupes de travail de l’automne passé. Autrement dit, pour une année donnée, si la conférence a lieu en Amérique du Nord, le second événement se passe en Europe et vice-versa.

La dernière conférence IIIF[2] a eu lieu au Vatican au centre de conférence Institutum Patristicum Augustinianum[3], à 50 mètres de la place Saint-Pierre, du 5 au 9 juin 2017. La Bibliothèque apostolique vaticane, qui fait partie de IIIF-C et détient une plateforme conforme aux spécifications de IIIF[4] contenant plus de 80'000 documents numérisés, était l’institution hôte de cet événement. La conférence s’est déroulée de cette manière :

  • Le lundi 5 juin a eu lieu la pré-conférence. Cette journée dédiée aux interfaces était divisée entre Mirador le matin et UV l’après-midi. Le petit auditorium a accueilli développeurs, curateurs, ainsi que des représentants des institutions ayant ou voulant implémenter l’une ou l’autre visionneuse.
  • Le mardi 6 juin s’est déroulé dans le grand auditorium le « IIIF Showcase : Unlocking the World’s Digital Images », manifestation gratuite qui a rassemblé environ 250 personnes. Toutes les interventions de cette journée ont été filmées et sont disponibles sur YouTube[5].
  • Du mercredi 7 au vendredi 9 juin, la partie officielle de la conférence a eu lieu. Plus de 200 personnes ont été présentes lors de ces trois jours. Le mercredi matin, en séance plénière, une série de « lightning talks » de 7 minutes ont suivis quelques présentations générales de la communauté et de chaque groupe communautaire et technique. L’après-midi fut l’occasion pour les orateurs de faire une démonstration de leur travail. Le jeudi 8 et le vendredi 9, des sessions parallèles ont eu lieu sur ces différentes thématiques : manuscrits, musées, utilisateurs finaux, éditions textuelles, mise en œuvre/déploiement. 

Les tests d’utilisabilité effectués pour le travail de bachelor – voir compte rendu dans ce numéro - ont été abordés lors de cette conférence à trois reprises.

A part une coupure d’électricité qui a touché Rome quelques heures le mercredi, forçant les participants à prendre la pause de l’après-midi un peu plus tôt, et le réseau Wi-Fi surchargé, tout s’est merveilleusement bien déroulé dans un cadre magnifique et une météo estivale. Le service de catering impeccable, les sorties organisées dans le jardin de la Bibliothèque apostolique et aux Musées du Vatican, ainsi que les événements informels étaient une excellente opportunité de faire du réseautage au sein d’une communauté internationale motivée et passionnée.

La prochaine conférence IIIF aura lieu du 21 au 25 mai 2018 à Washington D.C. et sera organisée conjointement avec la Library of Congress, la Smithsonian Institution, et la Folger Shakespeare Library[6]. A noter également que le 15 mars 2018 aura lieu un événement IIIF francophone organisé par le portail Biblissima à la Maison des Sciences de l’Homme à Paris[7]

Figure 1: Photo de groupe prise le vendredi 10 juin au côté du frère Miguel de la Lastra Montalbon, responsable technique du Institutum Patristicum Augustinianum

 


Notes

[1] Voir aussi le retour d’expérience du TB « Tests d’utilisabilité des interfaces Universal Viewer et Mirador », dans ce même numéro de RESSI

[2] http://iiif.io/event/2017/vatican/ (consulté le 12 décembre 2017)

[3] http://www.patristicum.org/en/conference-center (consulté le 12 décembre 2017)

[4] https://digi.vatlib.it/ (consulté le 12 décembre 2017)

[5] https://www.youtube.com/watch?v=eYlDKun4XAM&list=PLYPP1-8uH9c7PPluYmhduTA-jyLNYiVcU (consulté le 12 décembre 2017)

[6] http://iiif.io/event/2018/washington/ (consulté le 14 décembre 2017)

[7]http://www.biblissima-condorcet.fr/fr/actualites/innover-redecouvrir-patrimoine-ecrit-evenement-biblissima-iiif (consulté le 14 décembre 2017)

 

Les fondements de Bibliosuisse : état des discussions

Halo Locher, secrétaire général BIS et CLP

Katia Röthlin, secrétaire générale adjointe BIS et CLP

Les fondements de Bibliosuisse : état des discussions

En juin, avec 19 voix contre 1, les comités ont posé les jalons de la fusion et chargé le groupe de travail Bibliosuisse d’élaborer les fondements nécessaires. Ceux-ci sont composés d’une ébauche des statuts, d’un règlement pour les sections, d’un modèle de cotisation et du contrat de fusion prescrit par la loi (voir sites web de BIS et CLP). Dans le cadre d’un séminaire, les deux comités ont étudié ces fondements, réglé les questions encore en suspens et ont tout d’abord présenté ces bases à un cercle de personnes-clés, avant de les examiner début novembre avec les membres intéressés lors d’une deuxième conférence sur Bibliosuisse à Bienne. Les points centraux discutés ont été les suivants :

Nous faisons tous partie de Bibliosuisse

La modification structurelle principale (voir le diagramme BIS et Bibliosuisse) par rapport à la situation actuelle est le concept que tous les membres des groupes d’intérêts (GI) actuels deviennent également membres de l’association nationale Bibliosuisse. En tant que sections, ils peuvent continuer de s’engager dans la même voie ou adapter leur engagement aux nouvelles circonstances. Une structure telle qu’on la retrouve de manière standard dans la majorité des associations suisses est ainsi créée : l’on est membre d’une section cantonale, régionale ou défendant des intérêts spécifiques, et cette section est, à son tour, membre de l’association nationale. Les cotisations sont en partie payées à l’association nationale via la section ; la variante plus moderne est celle d’un encaissement central avec une distribution aux sections de la cotisation qui leur est destinée, comme cela est prévu chez Bibliosuisse.

Ce processus prendra du temps

Les comités sont conscients du fait que les anciens GI seront isolés s’ils ne sont pas intégrés à l’association en tant que sections. Actuellement, le processus concerne la fusion de BIS avec la CLP, qui est un GI du point de vue formel – mais de loin le plus important. Il est clair que les autres GI auront besoin de temps pour parcourir ce processus d’intégration et décider s’ils souhaitent s’y joindre. Une situation analogue a été vécue lors de la reconnaissance des GI ; en particulier, quand il a été question de la contribution financière aux frais de BIS. Les comités sont convaincus que ce modèle constitue une bonne base pour l’avenir. Ils aideront sans aucun doute à accompagner ce processus et à entretenir le contact jusqu’à ce que les GI prennent une décision. L’on se tient au principe que tous les centres d’information, bibliothèques ainsi que leur personnel deviennent membres de l’association nationale. Ce principe symbolise que seul un monde des bibliothèques en réseau sera capable de relever les défis d’un monde numérisé et globalisé.

Les sections : autonomie et coordination avec l’association centrale

Le règlement des sections a fait l’objet d’une discussion très approfondie. Celui-ci prévoit deux types : A avec personnalité morale, B sans personnalité morale. Le type A requiert un travail administratif important, car il exige une assemblée générale, un comité, une révision des comptes, etc. Le type B offre la possibilité d’agir en tant que partie de Bibliosuisse. Les discussions ont montré que les détails concernant la tenue des comptes et la création d’un actif requéraient encore une clarification pour cette forme. Les sections jouiront d’une grande autonomie quant à leurs tâches. Dans les domaines de la formation et de la formation continue, de la représentation d’intérêts et de la communication – les piliers fondamentaux de Bibliosuisse –, leurs activités doivent toutefois être coordonnées avec l’association centrale. La plupart des parties concernées sont conscientes du fait que cette idée doit encore être concrétisée. « Si nous souhaitons émettre un communiqué de presse, devons-nous demander à Bibliosuisse ?», a souhaité savoir quelqu’un. La réponse ne s’est pas fait attendre : « En cas de questions nationales, c’est Bibliosuisse qui s’exprime – en cas de questions cantonales, la section. » Le cas du projet Poste centrale ayant échoué à Saint-Gall montre en outre qu’il peut être opportun politiquement que l’association centrale prenne position parce que les responsables locaux ont les mains liées. De manière analogue, l’association centrale peut se positionner d’une autre manière vis-à-vis de la Confédération en ce qui concerne le tantième des bibliothèques que, p. ex., la Bibliothèque nationale, qui fait partie de l’administration fédérale.

Support administratif centralisé

La conférence de Bienne a attiré l’attention sur le fait que des clarifications importantes étaient nécessaires concernant les cotisations des sections. Il n’était manifestement pas assez clair que les sections décidaient elles-mêmes du montant de la cotisation de la section. Dans ce domaine également, elles jouissent d’une autonomie et de la proximité souhaitée vis-à-vis de leurs membres pour décider des fonds nécessaires à l’accomplissement de leurs tâches et combien leurs membres sont prêts à payer pour cela. Avec ses fonds, Bibliosuisse assume la responsabilité de la formation et formation continue, en particulier la représentation d’intérêts au niveau national (exemple : le tantième des bibliothèques) ainsi que la communication et la mise en réseau. Sa prestation principale pour les sections consiste en la prise en charge de la gestion des membres dans son ensemble ainsi que de l’encaissement, ce qui décharge celles-ci de travaux administratifs et représente une solution professionnelle à l’ère des TI. Il est inévitable que les cotisations de Bibliosuisse et de la section mènent à un cumul, mais cela est déjà aussi le cas aujourd’hui pour les personnes ou institutions qui sont membres de BIS et d’un GI. D’autres modèles sont envisageables, mais il s’agit en fin de compte de savoir combien les membres sont prêts à payer pour obtenir une association nationale puissante et une section régionale ou défendant des intérêts spécifiques.

Le conseil des bibliothèques en tant que chance

La composition du comité a également fait l’objet de discussions en ce qui concerne la représentation des régions, des langues, des types de bibliothèques et de leur importance, et des sexes. Un point incontesté a été que des experts externes sont utiles pour compléter les compétences de l’organe. En rapport avec l’organe proposé d’une assemblée des délégué-e-s, les uns ont mis en garde contre une confusion de compétences avec l’assemblée générale et le comité, d’autres ont exigé un élargissement, ce à quoi un troisième groupe a répondu en critiquant l’investissement qui y est lié. En revanche, la création d’un conseil des bibliothèques permettant d’améliorer le réseautage avec le monde politique à l’échelle nationale et cantonale, le monde de la formation, de la culture et des entités responsables (cantons et universités, villes et communes, écoles et autres entités responsables) a été unanimement approuvée : « Je me demande pourquoi nous n’avons pas pensé à cela plus tôt », a déclaré un membre de longue date. Il a été souligné que cela sera lié à un travail important et qu’il ne sera pas facile de gagner réellement le cercle de personnes visé. Bibliosuisse souhaitant améliorer la représentation d’intérêts pour les bibliothèques, le conseil des bibliothèques mérite au moins une chance.

Principe d’échelonnement des cotisations

Le modèle de cotisation a fait l’objet d’une discussion animée. L’idée que la cotisation des membres individuels dépende du salaire n’a pas été approuvée par tout le monde. Certaines personnes se sont montrées critiques en particulier parce que le salaire est un thème sensible ; et l’autodéclaration également n’a pas fait l’unanimité non plus. Tout le monde était toutefois d’accord sur le fait qu’un échelonnement était nécessaire. Par rapport aux autres associations professionnelles, les cotisations prévues pour Bibliosuisse sont plutôt peu élevées – cela est devenu clair pour beaucoup, car le GT a mis à disposition des chiffres d’autres associations. Une chose est claire : Bibliosuisse doit offrir une plus-value à ses membres, sinon, ceux-ci ne seront pas prêts à payer davantage. Cela est d’autant plus important que – comme déjà mentionné plus haut – les sections fixent elles-mêmes leurs cotisations et que celles-ci s’ajoutent à la cotisation Bibliosuisse. En ce qui concerne les membres institutionnels, la proposition de faire dépendre la cotisation du budget RH a été bien accueillie. BIS procède déjà ainsi ; pour la CLP, cela serait un changement. Des discussions ont uniquement concerné la question de savoir quels éléments font partie des frais de personnel. Les membres institutionnels apprécieraient de pouvoir jouir d’avantages dans le domaine de la formation continue – un système de bons sera envisagé.

Peu de discussions quant au contrat de fusion

Il n’y a guère eu de discussions quant au contrat de fusion, car de très nombreux points qui y figurent sont prescrits par la loi. Le contrat de fusion prévoit que Bibliosuisse débute son activité opérationnelle le 1er janvier 2019. Si les membres des deux associations disent donc « oui » à la nouvelle association le 12 mars, cela signifie que le travail de BIS et de la CLP se terminera à la fin de l’année 2018. Parallèlement, la nouvelle association sera mise sur pied. Les comités ont décidé qu’un groupe de travail serait créé à cet effet ; celui-ci sera composé de membres du comité directeur BIS et du comité central de la CLP. En cas d’un vote approuvant la fusion, le secrétariat central accompagnera tout autant la dissolution des deux associations actuelles que les travaux de mise sur pied de la nouvelle association.

Rappel des avantages de Bibliosuisse pour les membres individuels

1. Vous contribuez à ce que le monde des bibliothèques en Suisse ait une voix politique puissante s’engageant pour vos intérêts quant à la préservation d’emplois, au salaire et aux conditions de travail – par exemple, grâce à des normes, comme celles que la CLP publie déjà.

2. Vous obtenez un droit de vote vous permettant de participer aux décisions relatives à la politique de l’association. L’association vous informe au sujet des développements actuels et vous met en réseau avec des associations internationales.

3. Vous obtenez des réductions pour les services offerts par l’association : formations, conférences et congrès.

Rappel des avantages de Bibliosuisse pour les membres institutionnels

1. Vous assurez l’existence d’une association professionnelle dans le domaine des bibliothèques et des centres d’information. Sans une telle organisation du monde du travail, aucune formation professionnelle comme le certificat fédéral de capacité pour les professionnels I+D actuel n’existerait. De manière analogue, il convient de viser à ce que le cours de base actuel de la CLP soit reconnu en tant que certificat de capacité ; d’autres certificats de capacité peuvent être envisagés.

2. Lors de la représentation d’intérêts, l’association peut agir en tant que voix neutre des bibliothèques et défendre des positions que les membres individuels ne peuvent pas défendre, pour des raisons de loyauté vis-à-vis de l’organisme responsable.

3. Dans le domaine de la formation continue, l’association assure une offre spécifique tenant compte de l’évolution rapide des exigences posées à votre personnel.

Déroulement du vote du 12 mars 2018

En février, les membres de BIS et de la CLP recevront la convocation aux assemblées générales extraordinaires du lundi 12 mars 2018. Celles-ci auront lieu conjointement, à partir de 9.30 heures, dans la grande salle du Palais des Congrès de Bienne. Cette procédure permettra de garantir qu’après les délibérations, les décisions seront prises sur base de documents identiques et que les personnes qui sont membres des deux associations pourront exercer leur droit de vote dans les deux associations. La décision sera prise par écrit pour que le secret du vote soit gardé et qu’aucune influence ne soit exercée si une association votait avant l’autre. Pour la création de Bibliosuisse, l’approbation de trois quarts des voix présentes et valides des deux associations est requise : BIS tout comme SAB/CLP doivent obtenir 75 pour cent de voix pour que la fusion en Bibliosuisse devienne réalité. 

En guise de conclusion : Les messages-clés de Bibliosuisse

De la « voix de toutes les bibliothèques » au modèle de cotisation échelonné

Lors d’une séance commune, les comités de BIS et de la CLP ont discuté ensemble des fondements de Bibliosuisse. Ce débat a donné lieu aux messages-clés suivants caractérisant la nouvelle association : 

Bibliosuisse est la voix de toutes les bibliothèques, de tous les centres d’information et des collaboratrices et collaborateurs qui y travaillent. Pour cette raison, tous les membres des sections (les anciens groupes d’intérêts) sont également membres de l’association nationale Bibliosuisse. L’objectif est que tous les centres d’information, bibliothèques et l’ensemble du personnel deviennent membres.

Les sections (ancien nom : groupes d’intérêts) poursuivent des intérêts spécifiques et régionaux. Elles peuvent se constituer en tant que personnes morales propres ou en tant que parties de Bibliosuisse.

Le comité représente tous les types de bibliothèques et régions du pays, l’assemblée générale étant responsable de sa composition en tant qu’organe électeur. Des experts externes doivent en outre en faire partie.

La conférence de l’association garantit l’intégration de tous les intérêts particuliers ainsi que l’échange d’informations entre le comité, les sections et les autres organes tels que groupes de travail et commissions.

Le conseil des bibliothèques rassemble, au moins une fois par an, des représentant-e-s du monde politique, culturel, de la formation et des fondations. Son but primordial est de renforcer le réseautage avec ces domaines et de créer un réseau permettant de mieux représenter les intérêts de l’association.

 Le modèle de cotisation prévoit des cotisations échelonnées selon le salaire mensuel ou le taux d’occupation. Tous les membres institutionnels paient leur cotisation sur base du budget RH. (SAB/CLP : jusqu’à présent, budget consacré aux acquisitions).

Le prix des offres (formations, congrès, conseil) est différent pour les membres individuels et institutionnels.

« Marketing et public » ou comment repenser l’approche des bibliothèques sur l’accueil de leur public

Elise Pelletier, Assistante du Master IS, Haute école de Gestion, Genève

« Marketing et public » ou comment repenser l’approche des bibliothèques sur l’accueil de leur public

L’école de bibliothéconomie et de sciences de l’information (EBSI) de l’Université de Montréal accueillait du 3 au 28 juillet 2017, la quatrième édition de l’école francophone en SIB. Outre l’EBSI et l’ENSSIB en France, plusieurs institutions se joignent désormais à cet évènement : l’EBAD au Sénégal, l’ISD en Tunisie et depuis 2016 la HEG de Genève. Le grand intérêt de cette école est d’offrir l’opportunité à des étudiants, des professeurs et des chercheurs de pays différents d’échanger autour de thématiques proposées par l’école organisatrice. Une trentaine d’étudiants ont ainsi pu profiter de cette formation estivale et de la chaleureuse ville de Montréal. La prochaine session est prévue à la HEG du 18 au 22 juin 2018, parallèlement au centenaire du Département information documentaire.

La quatrième édition, organisée par Réjean Savard, s’étalait sur quatre semaines autour de deux thématiques porteuses : « Marketing et public » et « La numérisation ». La HEG était représentée tout au long des deux sessions, tout d’abord par Michel Gorin et moi-même avec comme invitée d’honneur, Marielle de Miribel. Pour la deuxième session, Basma Makhlouf Shabou est intervenue pour présenter le projet Data Life Cycle Management (DLCM), dans le cadre des deux dernières semaines présidées par Tristan Müller des Bibliothèque et Archives nationales du Québec (BAnQ). Cet article propose un retour sur les interventions de la première semaine.

Marketing et bibliothèques : entre idées reçues et outils incontournables

L’idée d’utiliser les techniques de marketing dans le domaine des bibliothèques n’est pas récente puisque dès 1997, l’IFLA créait la « section marketing et management ». En 2008, un dossier de la revue de l’ADBS « Documentalistes-Sciences de l’information » portait sur le « Marketing stratégique ». Jean-Michel Salaün et Florence Muet y présentaient différents exemples et méthodes d’utilisation d’outils marketing qui se révélaient souvent salvateurs dans un contexte où la profusion du tout numérique obligeait les services d’information à « redonner sa place à la fonction documentaire» (Salaün, Muet 2008). Malgré cet intérêt ancien et marqué, une méconnaissance de la notion de marketing teintée d’une certaine méfiance est toujours d’actualité. Souvent assimilé aux supermarchés et aux agressions publicitaires, le marketing reçoit un accueil parfois frileux et perplexe de la part des professionnels de l’information. Cette assertion s’est vérifiée auprès des étudiants francophones, prouvant qu’elle dépasse largement les frontières.

La présentation de Réjean Savard en introduction à l’école d’été a donc permis de corriger cette vision partielle du marketing. Il y rappelait que le marketing est surtout une « philosophie du management » (Savard 2017) ou dans un contexte francophone une « philosophie de gestion ». En cela le marketing propose des outils et des méthodes qui permettent de :

  • Se mettre à l’écoute des besoins des différents publics
  • Ajuster l’organisme et ses produits
  • Communiquer efficacement auprès des différents publics
  • Evaluer ses actions

Le marketing ne se réduit donc pas à l’aspect publicitaire qui, comme le confirmait Najoua Djerad de l’ISD pendant son intervention sur le « concept de marketing », n’est qu’une infime partie du marketing. Il doit être réfléchi dans sa globalité par l’institution qui l’utilise et c’est bien dans un changement de philosophie que cela s’intègre. Pour donner un exemple simple, le terme « clientèle » utilisé en marketing est plus incluant que la classique notion « d’usager » qui par définition exclut les non-usagers. En effet, le marketing permet de comprendre le « positionnement » d’une institution par rapport à son environnement c’est-à-dire « l'identité de la structure. Qui est-[elle] par rapport aux autres ? Quel service rend-[elle] que les autres ne rendent pas ? » (Salaün 1991). Derrière ces questions, il s’agit bien de répondre au mieux aux attentes et aux besoins de la « clientèle ». Evidemment, la relation communauté-bibliothèque est bien différente de celle client-entreprise notamment car elle n’est pas directement et principalement régie par des enjeux économiques. Néanmoins, le marketing donne des méthodes et des outils avec « pour objectif principal de maximiser l’échange entre une organisation et ses publics » (Savard 2017). Dans le contexte actuel, où le public est au cœur des réflexions des professionnels des bibliothèques, le marketing devient un outil indispensable car il va permettre de dessiner une offre de services la plus adaptée possible à la « clientèle ».

Après ces nécessaires rappels, Réjean Savard est revenu sur le concept de marketing mix pour présenter quelles étaient les quatre variables contrôlables qui nourrissaient les échanges entre public et institution (Produit – Prix – Distribution – Communication). Pour illustrer la variable prix dans le contexte des bibliothèques, Réjean Savard a évoqué la campagne d’amnistie proposée par les bibliothèques de Montréal en juin 2017 afin de célébrer le 375e anniversaire de fondation de la Ville. Pendant quinze jours, les lecteurs pouvaient ramener les documents les plus en retard sans être amendés. De même, pour Marielle de Miribel, la carte de lecteur est le premier outil de communication des bibliothèques et une variable assez simple à maîtriser. En invitant les participants de l’école d’été à sortir leur carte de lecteur, il était facilement décelable que ce petit objet était une réelle carte de visite qui renseignait déjà sur l’identité de la bibliothèque. Outre le plaisir de comparer les cartes de lecteur de plusieurs bibliothèques de la Francophonie, l’exemple était intéressant car c’était l’illustration que le marketing n’était pas là pour remettre en cause complétement le fonctionnement des bibliothèques. Il est plutôt la marque d’une volonté de penser chaque élément, chaque service dans sa globalité comme ouvrir son portefeuille, regarder sa carte de bibliothèque et se demander si elle donne envie d’y retourner.

Bibliothèques et clients stratégiques

Suite à cette introduction, j’étais invitée à présenter quelques « considérations stratégiques en marketing ». C’était surtout l’occasion de faire un retour d’expérience sur l’utilisation dans des contextes particuliers d’outils d’analyse de l’environnement et d’ouvrir une discussion avec les participants de l’école d’été.

En 2008, Jean Michel évoquait « la nécessité d’un (re)positionnement stratégique des services d’information ». Par cette idée, il mentionnait les risques réels de baisse de ressources et de fermeture auxquels étaient et sont toujours confrontés de nombreux services d’information. L’objectif qui devient parfois une obligation est de mieux comprendre les besoins de sa clientèle, en passant par une phase de diagnostic « dont on ne peut faire l’économie » (Muet 2008). Typiquement, les outils d’analyse proposés par le marketing permettent d’obtenir une cartographie complète de l’écosystème dans lequel évolue la bibliothèque, du macro au microenvironnement et ainsi mieux identifier les variables non-contrôlables, qui influent sur la bibliothèque. Un de ces outils est l’analyse des 5 (+1) forces de Porter pour qui « l’objectif fondamental d’une organisation est l’obtention d’un avantage concurrentiel, qui se mesure en dernier ressort par sa capacité à générer du profit (pour une entreprise) ou à capter les ressources nécessaires à son existence (pour une organisation publique) » (Johnson 2014, p44).  

Forces telles que définies par Porter

Exemples d’application au contexte des bibliothèques

Menaces des entrants potentiels

Nouvelles bibliothèques, ludothèques, cybercafé…

Menace des substituts

Internet, moteurs de recherche, abonnement numériques (musique, e-book…)…

Pouvoir de négociation des acheteurs

Usagers/non-usagers, Autorité de tutelle

Pouvoir de négociation des fournisseurs

Éditeurs, libraires, fournisseurs informatiques…

Rôle des pouvoirs publics

Existence de subvention publique en faveur des bibliothèques ou de loi sur le droit de prêt…

Intensité de la rivalité concurrentielle

Bibliothèques sur le même territoire pour le même public

Sans surprise, la force qui exerce le plus de pression est la « Menace des substituts » et cette analyse est générique à toutes les bibliothèques. Plus spécifiquement, Johnson précise dans sa description du « pouvoir de négociation des acheteurs » qu’il est « utile d’identifier les clients stratégiques, ceux vers lesquels la stratégie doit être orientée en priorité. Dans le secteur public, le client stratégique est très souvent l’autorité de tutelle qui contrôle l’utilisation des fonds, plutôt que l’usager. » (Johnson 2014, p 52). Cette analyse est particulièrement intéressante dans un contexte où si tout est réfléchi en fonction de l’usager, l’autorité de tutelle est rarement appréhendée par les professionnels des bibliothèques comme un client. Si on prend l’exemple des bibliothèques municipales, il ne s’agit de répondre aux demandes personnelles du maire comme suggéré par l’un des participants de l’école d’été mais plutôt de réfléchir au développement d’un axe stratégique qui fait de la bibliothèque un service à forte valeur ajoutée et donc indispensable pour la collectivité qu’elle dessert.  

Analyse des besoins des publics et participation : le co-design

Un des enjeux du marketing est donc de mieux identifier les besoins du public dans sa globalité pour mieux y répondre. Les méthodes de co-design se situent dans la lignée de cette démarche. Ainsi Marie Martel, nouvelle enseignante à l’EBSI et anciennement bibliothécaire du réseau des bibliothèques publiques de Montréal est venue présenter la notion de « bibliothèque intentionnelle ». Cette présentation était basée sur un retour sur le programme RAC (Rénovation, agrandissement et constructions de bibliothèques) de la Ville de Montréal. Il s’agissait d’un projet de « rattrapage » de la Ville en matière de bibliothèques de lecture publique. Plusieurs bibliothèques municipales ont ainsi été repensées de manière systémique en utilisant les méthodes de co-design qui s’inscrivent dans la lignée de la volonté croissante de faire de l’usager un acteur de la bibliothèque.  

Pour commencer, Marie Martel est revenue sur le « continuum de la participation du public », déjà présent dans le projet « Working together » de la Vancouver Public Library qui avait pour objectif de mieux prendre en compte les besoins des citoyens notamment ceux particulièrement éloignés des bibliothèques. Le continuum définit les différents niveaux de participation des publics :

informer/

éduquer

consulter

discuter/

débattre

mobiliser/

participer

établir un partenariat/

collaborer

Les expériences de co-design sont clairement situées au niveau de la « collaboration » comme les nouvelles méthodes de création de services : design thinking, user experience (UX) et design de service. Avant de présenter plus précisément le co-design, Marie Martel est revenue sur ces trois autres types de méthode qui sont surtout un état d’esprit.

Le design thinking est basé sur trois phases décrites dans le kit pratique : « le design thinking en bibliothèque » proposé par IDEO. 

  • « La phase d’inspiration consiste à comprendre les besoins de vos usagers en les observant, en dialoguant avec eux et en vous renseignant sur ce qui se fait ailleurs.
  • La phase d’idéation consiste à reformuler vos constats, à élaborer un concept et à lui donner une forme concrète en réalisant un prototype rapide.
  • La phase d’itération consiste à tester votre prototype avec vos usagers afin que vos expérimentations successives soient de plus en plus proches du résultat final que vous souhaitez atteindre » (IDEO 2016)
  • Les autorités de tutelle étaient vues par ceux qui les interprétaient comme des personnes arrogantes. Parallèlement, ceux qui jouaient le rôle des usagers ou des professionnels avaient une certaine méfiance envers ces autorités de tutelle et les discussions qui en découlaient étaient dans les deux cas compliquées et frôlaient l’agressivité.
  • D’un autre côté la discussion entre usagers et bibliothécaires étaient beaucoup plus consensuelle. Les professionnels se trouvaient dans une position de « venez à tout prix » qui les faisaient accepter bon nombre de compromis.

L’UX est une méthode de marketing expérientiel qui se concentre sur l’expérience que l’utilisateur fera d’un service dans sa globalité. Comme le précisent Aaron Schmidt et Amanda Etches dans leur ouvrage « Utile, utilisable, désirable » (2016), « lorsque des individus utilisent un service ou un produit, ils en expérimentent différentes facettes et de nombreux facteurs ont une influence, positive ou négative, sur leur expérience globale. ». L’UX vise à penser tous les « points de contact » qui auront un impact sur l’expérience d’un service (canaux de communication, signalétique, musique, relation avec le personnel…). La carte de lecteur est typiquement un de ces points de contact.

Le design de service cherche également à construire des services avec les utilisateurs. La bibliothèque départementale du Bas-Rhin (BDBR) en France a, par exemple, participé à un projet avec 24 étudiants du DSAA design In situ lab de l’académie de Strasbourg pour redessiner l’offre de services de plusieurs bibliothèques. Les étudiants sont restés en résidence dans les différentes collectivités pour mieux comprendre le contexte local et partager avec les habitants. Entre expérimentation et rencontres, le projet Lectures locales ou les usages de la médiathèque a pour objectif de créer des médiathèques spécifiquement adaptées à un territoire.

Le co-design utilisé par la Ville de Montréal vise à faire collaborer différentes parties prenantes autour d’un même projet. Le but est de développer une stratégie qui permette à l’ensemble des personnes conviées d’exprimer librement leurs opinions, autour d’une question « comment pourrait-on… ? ». En tout, ce sont 11 démarches de co-design qui ont été initiées et plus de 500 citoyens écoutés. Dans l’esprit de transparence de cette méthode, l’ensemble des rapports sur ces démarches sont disponibles comme par exemple pour la bibliothèque de Saint-Léonard. Une des difficultés de ces projets est que comme les autres méthodes, le co-design s’inscrit dans la temporalité et nécessite le maintien d’une continuité. Cependant, les bénéfices en termes de collaboration et d’innovation sont réels et exponentiels. La présentation complète de Marie Martel est disponible sur le site de l’école d’été et elle publie régulièrement des articles à ce sujet sur son blog personnel « bibliomancienne ».

Par la suite, Raphaëlle Bats et Benoit Epron, deux professeurs de l’ENSSIB, ont présenté leur projet de recherche européen PLACED (Place- and Activity-Centric Dynamic Library Services). Né en collaboration avec l’université Aarhus (Danemark), l’université Chalmers (Suède) et l’université Lyon 1 (France), ce projet européen fait également participer trois bibliothèques dont les Bibliothèques municipales de Lyon. L’objectif est de penser la bibliothèque sur son territoire et de créer une interface qui explore parallèlement l’offre documentaire et les activités proposées. L’enjeu est également lié à la participation mais aussi à l’accessibilité avec un premier axe sur la bibliothèque comme lieu de production de savoir et un deuxième sur la bibliothèque comme créatrice de valeur. La présentation complète de ce projet est également disponible sur le site de l’école d’été.

Connaître les publics pour mieux les accueillir

Après ces différentes interventions sur les méthodes de construction de services, l’utilisateur était une nouvelle fois au centre des discussions avec Marielle de Miribel. Docteur en sciences de l’information et de la communication, diplômée de l’ENSB, Marielle de Miribel est ingénieur pédagogique, formatrice, consultante et enseignante. Elle est notamment l’auteure de l’ouvrage « Accueillir les public. Comprendre et agir » paru aux Editions du Cercle de la librairie et réédité en 2013.

L’intérêt de suivre des formations avec cette intervenante expérimentée se situe autant au niveau du contenu que de la méthode. En résonance avec les aspects participatifs des nouveaux services développés par les bibliothèques, les étudiants de l’école d’été ont été mis à contribution dès le début de son intervention. En présentant le triangle pédagogique, Marielle de Miribel pose les bases de la notion de contrat triangulaire qu’elle souhaite fixer avec les participants. Elle dessine surtout les rôles et responsabilités de chacun durant les deux semaines de formation. Entre jeux de rôle, jeux de questions, visites immersives, exercices d’écriture, l’étudiant est complètement acteur de sa formation, l’apprentissage se construit collaborativement. Cette parenthèse sur les méthodes pédagogiques de Marielle de Miribel pose le cadre d’une semaine aussi riche en apports théoriques qu’en apports méthodologiques. Sans détailler plus loin ces différentes approches, il me semble opportun de m’arrêter sur un exercice qui résonne avec les discussions sur l’approche marketing et le changement de perspective qu’elle apporte. Nous avons évoqué un peu plus haut, l’analyse des parties prenantes à l’aide d’un outil d’analyse les 5 (+1) Forces de Porter. En écho à cette analyse, Marielle de Miribel a présenté le contrat triangulaire qui unit l’autorité de tutelle, les professionnels des bibliothèques et les usagers. Chaque pôle du triangle construit un contrat avec un autre pôle en définissant les besoins et devoirs de chacune des parties par rapport aux deux autres. L’objectif de ce contrat triangulaire est d’atteindre l’équilibre dans lequel « personne n’est perdant ; tout le monde est gagnant et participe  à l’objectif global en fonction de ses aptitudes, de son rôle et de ses moyens » (De Miribel 2013, p. 49). Pour clarifier ce contrat, Marielle de Miribel a invité les participants à se répartir en trois groupes, chacun représentant un des pôles. Une première phase de ce jeu de rôle consistait à définir précisément les devoirs et attentes de chaque groupe envers les deux autres groupes. Une deuxième phase était la mise en place d’une discussion ouverte entre chacun des groupes. Enfin, l’exercice se terminait par un débriefing sur les conclusions que la mise en scène des relations entre chaque groupe apportait aux participants.  

Outre l’aspect clairement ludique de cette expérience, deux choses semblaient assez évidentes. D’abord, la méconnaissance des professionnels et des lecteurs face aux attentes et devoirs des autorités de tutelle et la problématique du positionnement des professionnels des bibliothèques. L’avantage de cette méthode participative est que les étudiants ont pu directement expérimenter les problématiques soulevées par ce contrat triangulaire. Cette prise de conscience permet ainsi aux futurs professionnels de comprendre la nécessité de trouver des outils efficaces pour rééquilibrer les différents contrats qu’ils passent consciemment avec leur autorité de tutelle ou inconsciemment avec leurs usagers. Pour cela, les outils marketing, malgré leur apparente rigidité offrent la possibilité de mieux définir le champ d’action de chacun.

Réconcilier marketing et bibliothèques…

Parallèlement à l’école d’été, le numéro d’avril – juin 2017 de la revue québécoise  « Documentation et bibliothèques », proposait un état des lieux à l’ère du numérique du marketing en bibliothèque. Elodie Chabroux, une doctorante en sciences de gestion à l’Université de Bordeaux y présente les résultats d’une étude qu’elle a menée sur le « degré actuel d’intégration du marketing au sein des bibliothèques sous l’angle des sciences de la gestion ». Sa conclusion est sans appel : « aujourd’hui, l’un des enjeux pour les bibliothèques est de réussir à démystifier et à dédiaboliser la fonction marketing » (Chabroux 2017). Par la diversité des interventions et des échanges de cette semaine, ce travail de « dédiabolisation » a été réel pour les participants à cette quatrième école d’été.

En axant cet article sur les présentations des différents intervenants, j’omets malencontreusement, tous les interactions avec et entre les étudiants, qui sont une des grandes richesses de cet événement. En effet, même si les sciences de l’information et des bibliothèques sont la raison qui occasionne la rencontre entre les différentes écoles francophones, l’objectif principal est bien la confrontation de plusieurs visions. Il faut donc souhaiter que la HEG soit un terrain propice à ces échanges autour de sa thématique : « L’évolution des Services d’information, de la Grande Guerre à la transition numérique»

Bibliographie

Chabroux, E. (2017). Le marketeur, ce mal-aimé de tous: et si on l’aidait à trouver sa place ?. Documentation et bibliothèques, 63(2), 31-40.

IDEO. (2016). Le design thinking en bibliothèque. IDEO et Bill and Melinda Gates foundation. [Consulté le 14 décembre 2017]. Disponible en ligne : http://www.enssib.fr/bibliotheque-numerique/documents/66044-le-design-thinking-en-bibliotheque.pdf

Etches, A., & Schmidt, A. (2016). Utile, utilisable, désirable: redessiner les bibliothèques pour leurs utilisateurs. Presses de l'enssib.

Johnson, G. (2014). Stratégique (10e éd.. ed.). Montreuil : Pearson.

Michel, J., Roussel Gaucherand, S. & de Gouttes, C. (2008). Le positionnement stratégique. Documentaliste-Sciences de l'Information, vol. 45,(1), 44-51. doi:10.3917/docsi.451.0044.

De Miribel, M. (2013). Accueillir les publics: comprendre et agir. Éd. du Cercle de la librairie.

Salaün, J. M. (1991). Marketing des bibliothèques et des centres de documentation. Bulletin des bibliothèques de France (BBF), 1991, n° 1, p. 50-57. ISSN 1292-8399. [Consulté le 14 décembre 2017]. Disponible en ligne : http://bbf.enssib.fr/consulter/bbf-1991-01-0050-007

Salaün, J. M., & Muet, F. (2008). Le diagnostic marketing. Documentaliste-Sciences de l'Information, 45(1), 36-43.

Savard, R. (2017). Marketing des bibliothèques et autres services d’information : État des lieux à l’ère du numérique. Documentation et bibliothèques, 63(2), 4–4.  DOI : 10.7202/1040174a

Du bon usage des Lumières : le livre numérique libre

Alain Jacquesson, Ancien directeur de la Bibliothèque de Genève

 

Du bon usage des Lumières : le livre numérique libre

Né en 1991, Jean-David Sandoz est titulaire d'un certificat fédéral de capacité en information documentaire obtenu en 2009 à la Bibliothèque de Genève. En 2013, il obtient un Bachelor de la Haute école de gestion, filière information documentaire ; son mémoire, supervisé par Françoise Dubosson, est consacré au livre numérique libre avec pour terrain d'application l'Institut et Musée Voltaire dirigé par François Jacob. Entre 2013 et 2016, il est assistant du professeur Jean-Philippe Trabichet en informatique de gestion.

Cet ouvrage n'est pas une adaptation de son mémoire mais une réflexion originale qui vise d'abord à faire connaître les différents outils disponibles pour la publication de livres électroniques, en particulier dans le domaine dit "libre", c'est-à-dire non-marchand. Il recense dans un excellent chapitre les différents formats retenus par les diffuseurs de livres électroniques, notamment Amazon et son format AZW. Mais il met l'accent sur le format EPUB, en raison de ses caractéristiques "ouvertes" facilitant l'interopérabilité. J.-D. Sandoz évoque naturellement les difficultés créées par les DRM (Digital Rights Management / Techniques de verrouillage). Il recense ensuite les différents dispositifs matériels de lecture de livres numériques (Ordinateurs, tablettes, liseuses, smartphones, etc.). Un court chapitre est consacré au marché commercial du livre numérique ; il est naturellement centré sur Amazon et ne parle que marginalement d'Apple et Google. De nombreuses études de marché du livre électronique sont citées avec précision. Les usages en bibliothèques, de lecture publique et scientifiques, sont évoqués, notamment en Suisse romande.

L'auteur s'attache ensuite à définir les œuvres libres, par rapport au droit d'auteur et aux "Creative Commons".  Il recense les bibliothèques qui fournissent des livres numériques libres, à commencer par le pionnier : le "Projet Gutenberg". Il met en évidence les réalisations offrant des ouvrages en mode images (PDF, par exemple) ou en mode texte (EPUB). Même si l'ouvrage est consacré aux documents libres, J.-D.Sandoz ne manque pas de signaler des ressources commerciales incontournables dans les domaines littéraire et historique.

Suit un chapitre clair et bien organisé intitulé "Guide des bonnes pratiques". L'auteur synthétise dans cette section les points à prendre en compte lors de la création d'un site fournisseur de livres électroniques. Il met en évidence les difficultés propres au siècle des Lumières, notamment le passage des éditions originales à l'OCR. L'ouvrage se termine par la conception d'un prototype de site pour l'Institut et Musée Voltaire. François Jacob en a supervisé le contenu. J.-D. Sandoz explique notamment la difficulté de transformer certaines informations existantes, par exemple "La Gazette des Délices" en publication au format EPUB. Dans sa conclusion, il rappelle la richesse des plateformes de diffusion de livres électroniques libres. Le Guide doit permettre le choix des solutions concrètes. L'environnement de l'Institut et Musée Voltaire a permis d'ancrer sa réflexion dans une démarche concrète et complexe. 

Ce petit ouvrage est bien organisé. Les différents chapitres seront utiles à qui voudra concevoir un site d'histoire littéraire, même si la démarche est, en grande partie, généralisable. Les illustrations sont pertinentes. Les exemples sont judicieux, même si ceux-ci vont rapidement dater. L'auteur aurait pu réduire les pages de code source XML qui n'apportent rien aux objectifs de ce livre… et prévoir sa publication sous forme numérique. Nous recommandons sa lecture à qui recherche une démarche systématique pour concevoir un site littéraire.

Bibliographie

Du bon usage des Lumières : le livre numérique libre / Jean-David Sandoz

Ferney-Voltaire : La ligne d'ombre, 2015 ; 184 p., 21 cm (Mémoires et documents sur Voltaire, 7)

ISBN 979-10-90177-08-6