N°20 décembre 2019

Sommaire - N° 20, Décembre 2019

Études et recherche :

Comptes-rendus d'expériences :

Comptes-rendus d'événements :

Recensions :

 

Editorial

Editorial n°20

Après le numéro spécial pour les 100 ans de la filière Information documentaire de la Haute Ecole de Gestion de Genève, paraît cette année le vingtième numéro de RESSI.
Lorsqu'en janvier 2005 paraissait le premier numéro, nous avions bien conscience de lancer un défi car la création d’une revue scientifique en est un à plusieurs niveaux. En premier lieu, un défi éditorial, étant donné les multiples difficultés auxquelles se heurte généralement ce genre d’entreprise. Ensuite, un défi académique, compte tenu de la concurrence régnant dans ce domaine, entre les instances institutionnelles de production et de diffusion de la connaissance scientifique (universités ou sociétés scientifiques) dont les revues constituent l’une des expressions les plus importantes. Mais avant tout, la publication d’une nouvelle revue scientifique constituait une gageure. En effet, en dehors de la contribution d’un nouvel espace de publication aux progrès de la recherche et du travail théorique de la discipline concernée, une telle revue doit, par l’originalité des approches, des analyses et des traitements de son objet d’étude, se distinguer des autres revues avec lesquelles elle entre en compétition.

Bien sûr, nous n’avions pas alors la naïveté de croire que la naissance d’une nouvelle revue scientifique en Suisse suffirait par elle-même à susciter une révolution épistémologique inaugurant une nouvelle façon de penser la discipline. Nous avions bien plus modestement le désir de créer un forum pour favoriser le dialogue entre les divers acteurs, pour exprimer des sensibilités diverses, susciter des interrogations, des réflexions, des doutes ; et cela, quelle que soit l’insertion professionnelle des auteurs, au-delà de la traditionnelle distinction entre bibliothèques, archives ou services de documentation, mais sous la bannière de la science de l’information. RESSI complète le paysage informationnel suisse, en offrant une tribune aux jeunes qui représentent la relève.

RESSI ouvre ses pages à toutes les tendances et domaines de la science de l’information, en accueillant dans chacun de ses numéros des articles reflétant des méthodologies diverses.

Ce vingtième numéro ne déroge pas à cette ligne éditoriale et vous propose des contributions variées et nombreuses, puisqu’il y en a quatorze.

Dans la rubrique « Etudes et Recherches », vous trouverez un article intitulé Faciliter et soutenir le travail des chercheurs : état des lieux, perspectives et réflexions sur l’exemple de la Haute école de travail social de Genève. Signée par Claire Wuillemin, assistante d’enseignement à la HEG-Genève, cette recherche, synthèse d’un travail de Master, explore la notion de soutien à la recherche, appliquée à la HETS-Genève, et fait des propositions de développement de ces services, applicables à tout type d’institution d’enseignement supérieur amenée à faire de la recherche.

Dans la rubrique « Compte rendus d’expérience », nous vous proposons six contributions.

La première est signée de plusieurs mains : Susana Cameàn, bibliothécaire chargée de secteur, coordinatrice InterroGE, Jürgen Haepers,  bibliothécaire chargé de secteur, coordinateur InterroGE et Florent Dufaux, adjoint de direction, responsable d'Interroge, tous les trois travaillant aux Bibliothèques municipales de la Ville de Genève, et fait le bilan de six années de fonctionnement d’InterroGE, dans un article intitulé InterroGE : le service de référence en ligne des bibliothèques de la Ville de Genève.

La contribution suivante émane de Françoise Simonet, responsable des renseignements et formation des usagers, et de Christophe Bezençon, responsable du développement des collections, à la Bibliothèque cantonale et universitaire de Lausanne, site Riponne. Elle détaille la méthodologie, les conclusions et les enseignements d’une enquête de satisfaction menée auprès du public du site Riponne, site grand public et patrimonial situé au centre-ville de Lausanne, dans un article intitulé Enquête 2018 sur les besoins non documentaires du public du site Riponne de la BCUL : méthodologie et principales conclusions.

La troisième contribution de cette rubrique, intitulée Alignement et enrichissement des données de l’inventaire d’un fonds d’archives en Linked Open Data : le cas du Montreux Jazz Digital Project,

est due à Alain Chardonnens, spécialiste en information documentaire, et décrit le travail qui a consisté en l’établissement et l’utilisation de critères permettant le transfert d’un jeu de données (émanant du fonds des archives audiovisuelles du Montreux Jazz Digital Project) vers une plateforme de crowdsourcing ou « collaborative knowledge graph ».

La quatrième contribution, signée Pierre-Yves Burgi, Directeur adjoint des systèmes d’information de l’Université de Genève, relate la genèse et les justifications du projet de loi genevois PL 12146 dans un article intitulé PL 12146 : Infrastructures et services numériques pour la recherche.

Enfin la dernière contribution de cette rubrique, due à Ludovic Ramalho, assistant de recherche à la HEG-Genève, constitue la synthèse de son travail de bachelor et s’intitule Un plan de sinistres pour la Ville de Montreux : de la conception à la mise en œuvre, et décrit la méthodologie adoptée pour ce travail d’analyse des risques dans un bâtiment d’archives, et donne des recommandations pour la mise à jour d’un plan de gestion de sinistres adapté.

Dans la rubrique Compte rendus d’événements, on trouvera quatre recensions.

La première, une recension à plusieurs voix, émanant de Florence Burgy, Matthieu Cevey, Anouk Santos, Michel Gorin et Benoît Epron, respectivement assistants d’enseignement, maître d’enseignement et professeur associé à la HEG-Genève, rend compte de différentes conférences du congrès IFLA qui a eu lieu du 24 au 30 août 2019 à Athènes (Grèce). Sont notamment recensées des exposés sur la stratégie de l’IFLA, des expériences de réalité augmentée et de réalité virtuelle, le marketing des bibliothèques sur les réseaux sociaux, l’advocacy, l’évaluation de l’impact des bibliothèques, la numérisation de livres…

La deuxième contribution, signée Cynthia A. Germond, étudiante en Master IS à la HEG-Genève, relate les différentes interventions de la journée dédiée à l’Open Science à la HES-SO, qui ont concerné à la fois l’open science (ou la science en libre accès) et les open data (ou données ouvertes) et qui s’est tenue à Lausanne le 18 mars 2019, intitulée Première journée Open Science de la HES-SO.

La suivante, intitulée Forum annuel des bibliothèques HES-SO, 22 août 2019 : les données de la recherche, « un marché à occuper », et signée par Elise Pelletier, collaboratrice scientifique à la HEG-Genèvefait état des différentes interventions, qui montrent cependant que cette prise en main des données de la recherche par les bibliothécaires doit s’accompagner d’une formation de ceux-ci et d’une information accrue auprès des chercheurs.

Le dernier compte rendu de conférence est consacré à la Journée franco-suisse sur la veille et l’intelligence économique, dont la seizième édition a eu lieu le 20 juin dernier à Genève et a porté sur le social listening ou l’écoute des réseaux sociaux. Intitulée De la veille classique au social listening : expérimenter et comparer les outils et les méthodes, cette journée comportait non seulement des témoignages, résumés par l’auteure de ces lignes, rédactrice en chef de RESSI, mais aussi des démonstrations d’outils.

Finalement, la rubrique « Recensions » comporte quatre articles.

Le premier rend compte de l’ouvrage Ce que le numérique fait aux livres de Bertrand Legendre et est signé par Benoît Epron (déjà cité).

Le deuxième article, signé par Elise Pelletier (déjà citée), résume l’ouvrage La médiation : un concept pour les sciences de l’information et de la communication, ouvrage de Jacqueline Deschamps, co-signataire de cet éditorial, paru en 2018.

On trouvera également une recension du livre publié par l’ALA New Top Technologies Every Librarian needs to know (2019) sous la plume de Claire Wuillemin (déjà citée) et qui contient 24 contributions sur des technologies liées aux données, aux services, aux dépôts, à l’accessibilité et à l’interopérabilité.

Finalement, on trouvera, signée par Karsten Schuldt, adjoint scientifique à l'Institut des sciences de l'information de la Fachhochschule Graubünden (Coire), une recension groupée de plusieurs ouvrages parus depuis 2016 sur les fablabs en bibliothèque. Cet article constitue la suite d’une première recension parue dans RESSI en 2016. Ecrit en allemand et intitulé Einleitungen und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension, Teil II (2017-2019) [Introductions et propositions pour des fablabs en bibliothèque : recension groupée, 2ème partie], il montre que l’engouement des bibliothèques pour les fablabs est passé, mais appelle à une recherche empirique sur le sujet. La conclusion est aussi disponible en français.

Nous vous souhaitons une excellente lecture et rappelons que nous sommes ouverts à toute proposition de contribution. 

Pour le comité de rédaction:

Jacqueline Deschamps, co-fondatrice de la revue RESSI, Hélène Madinier, rédactrice en chef

Faciliter et soutenir le travail des chercheurs : état des lieux, perspectives et réflexions sur l’exemple de la Haute école de travail social de Genève

Claire Wuillemin, Haute Ecole de Gestion, Genève

Nombre de mots: 
11250

Faciliter et soutenir le travail des chercheurs : état des lieux, perspectives et réflexions sur l’exemple de la Haute école de travail social de Genève

Introduction

La recherche scientifique connaît actuellement une grande période de bouleversements : déluge de données, numérisation des méthodes et outils de travail, diversité des produits de la recherche et des nouveaux canaux pour leur diffusion… Voilà autant de thématiques appelant la mise à niveau des compétences et le développement de nouveaux savoirs. Les contextes économiques et réglementaires ne sont pas en reste et possèdent également une force de pression non négligeable, en particulier au travers des institutions de financement de la recherche qui développent leurs exigences au diapason de ces évolutions. Les chercheurs, qui souffrent déjà d’une démultiplication de leurs tâches tout au long du processus de recherche, sont amenés à devoir satisfaire de plus en plus d’exigences.

Ces transformations touchent bien évidemment les chercheurs, mais aussi toutes les parties prenantes qui participent, soutiennent et facilitent l’épanouissement de leurs projets. Comment s’attaquer à une entreprise si grande et hétéroclite alors que l’on est soi-même en plein apprentissage face à la nouveauté de ces enjeux ? Que faire en particulier lorsque l’on est une institution possédant des ressources humaines et financières plus modestes que les universités ?

Portée par ces questionnements, la Haute école de travail social de Genève (HETS-GE), sous l’impulsion de la responsable de son Infothèque, a confié à un mandat de travail de master en Sciences de l’information le soin de prendre la mesure de la situation institutionnelle actuelle ainsi que celle dans les autres écoles du domaine et de proposer des pistes de réflexion voire des solutions implémentables. Les résultats de cette recherche sont synthétisés dans le présent article.

Le soutien et la facilitation de la recherche dans la littérature

Cette partie propose un condensé des principaux éléments retenus dans la littérature : en premier lieu la définition du concept de soutien à la recherche, des types de prestations résultantes, mais aussi des bonnes pratiques de design de services, suivies de la présentation des principaux éléments de contexte à considérer pour obtenir une compréhension globale du sujet et, pour finir, une brève revue des parties prenantes généralement engagées dans les activités de soutien.

Définitions

La littérature spécialisée traite rarement du soutien à la recherche de manière holistique ; on trouve plutôt des ressources se concentrant sur quelques activités contenues au sein de ce processus. C’est pourquoi il est important d’en proposer avant tout une définition.

Dans sa compréhension la plus globale, le soutien à la recherche ou research support en anglais peut se définir comme :

« L’ensemble des activités, des personnes, des compétences et des ressources permettant de rendre possible ou de faciliter le travail entrepris par les diverses parties prenantes de la recherche scientifique – en particulier les chercheurs – lors de l’élaboration, du financement, de la conduite et de la valorisation de leurs projets de recherche » (Wuillemin 2018, p.18)

La recherche étant un cycle, le soutien et la facilitation prennent plusieurs formes selon la ou les étape(s) où ils interviennent. Des aides pourront par exemple être apportées lors de l’élaboration de dossiers de demande de subsides, ou pour la recherche d’information dans le but d’alimenter une revue de littérature ; une main-forte pourra aussi être prêtée pour mettre en place des infrastructures pour collecter ou pérenniser les données.

Figure 1: Cycle de la recherche

(Adapté de Nicholas, Rowlands et Wamae 2012; School of Clinical Sciences at Monash Health 2019 et Queen’s university Library 2019)

Quelle que soit l’étape à laquelle ils apparaissent, les services de soutien à la recherche sont le plus souvent séparés en deux catégories majeures : les services techniques et les services d’expert-conseil (Cox et al. 2017 ; Koltay, Spiranec, Karvalics 2015 ; Latham 2017 ; Tenopir et al. 2017 ; Yu 2017). On entend par la première appellation des services prodigués grâce à des compétences ou des connaissances spécialisées et opérationnelles, par exemple la mise en place d’une archive ouverte à l’échelle institutionnelle comme ce fût le cas pour ArODES (Archive ouverte des domaines de la HES-SO) en 2015 – pour stocker de manière pérenne les travaux des chercheurs – ou encore d’un dépôt pour les données de recherche. Les services expert-conseil se focalisent principalement sur la mise à disposition ou la dispense d’information, par exemple les Foires aux Questions (FAQ), les guides d’utilisation ou tout autre support permettant de rediriger les intéressés vers des ressources pertinentes. Cette catégorie de service inclut également les formations et les ateliers qui promeuvent une approche plus pédagogique et plus chaleureuse. Les participants bénéficient d’un contact humain dans la transmission des connaissances et peuvent poser directement leurs questions à l’animateur de la séance. Finalement, le dernier type de service d’expert-conseil le plus répandu sont les séances de coaching personnalisé. Celles-ci ont l’avantage de prodiguer des informations sur mesure aux chercheurs qu’ils peuvent donc inclure directement à leur projet.

Il va de soi que cette typologie dichotomique appelle naturellement le rassemblement de savoir-faire pluriels et hétéroclites. Soutenir et faciliter la recherche mobilise ainsi un éventail d’acteurs hétéroclites (Coomb et al. 2017) – aussi bien du fait de leurs compétences que de leur appartenance aux divers services institutionnels, voire à des entités externes, transversales ou nationales. Ces parties prenantes aidantes peuvent intervenir ponctuellement durant certaines étapes du cycle de recherche, concentrer leurs efforts sur une étape particulière ou, plus rarement, superviser l’intégralité de ce processus. Ces interventions sont fortement différenciées et font appel à des compétences qui ne peuvent être détenues par un individu, un métier ou un service singulier. La raison principale de cet état de fait est que la recherche scientifique a été influencée par plusieurs enjeux distincts qui ont à leur tour soulevé des problèmes pour la communauté de recherche et donc créé des besoins de soutien.

Un phénomène au diapason des transformations et des évolutions

Le soutien à la recherche est de toute évidence façonné par les différents courants qui agitent son environnement. Les aspects présentés ci-après ne sont pas exhaustifs. Il s’agit des enjeux les plus marquants dans le contexte HES et majeurs pour la problématique de la présente recherche, à savoir : le phénomène du publish or perish, la gestion des données de recherche et l’évolution des exigences de bailleurs de fonds.

Payer et publier ou publier et payer : telle est la question

Les enjeux – et surtout les difficultés – autour de la publication des productions scientifiques ne sont pas récents, car la conduite de la recherche scientifique a toujours été intimement liée à la publication de ses résultats. Un problème particulier a fait couler beaucoup d’encre durant ces dernières décennies : le publish or perish. L’injonction est simple à comprendre : les chercheurs doivent publier au risque de voir leur carrière s’étioler irrémédiablement. En effet, la publication scientifique est le moyen principal pour gagner la reconnaissance de leurs pairs et de leur discipline ainsi qu’obtenir des fonds pour poursuivre leurs recherches (Bertaud et Magron 2013). Ce phénomène est bien connu des disciplines scientifiques, techniques et médicales, mais touche également les sciences humaines et sociales. Dans le cas des HES, la contrainte des indicateurs bibliométriques est peut-être plus légère, mais la publication reste un facteur limitant pour la nomination et la conservation des postes appartenant au corps enseignant.

Par ailleurs, il ne suffit pas de publier occasionnellement pour survivre. Le publish or perish encourage une publication régulière, surtout dans des revues bien cotées par divers indicateurs bibliométriques. Puisque les revues deviennent des objets prisés et de convoitise, leur pouvoir de pression est considérable. En plus de devoir déjà se battre pour être publiés, les chercheurs peinent à accéder aux articles nécessaires pour rester informés des tendances et des dernières avancées de leur domaine. En effet, les institutions se retrouvent à devoir payer des frais d’abonnement astronomiques pour accéder aux revues et aux bases de données. Comme si cela ne suffisait pas, ces coûts augmentent chaque année de l’ordre d’environ 8% (Minet 2017).

Cette pression constante a contraint certaines institutions à chercher des alternatives. Ainsi est notamment née l’édition en libre-accès ou en open access, qui se décline en deux alternatives : la voix verte, qui consiste à publier (ou archiver) ses travaux sur une plateforme ouverte (ou institutionnelle) et la voix dorée, qui consiste à publier – parfois contre rémunération pour la prise en charge des frais de publication – dans des revues open access, c’est-à-dire accessibles gratuitement aux lecteurs. Bien évidemment, les grands éditeurs de revues sont conscients du potentiel latent du virage vers la publication en libre accès. C’est pourquoi ils proposent désormais leurs propres revues au format open access. Toutefois cette manière de publier est encore relativement récente et donc encore mal implantée dans les habitudes des chercheurs, qui la citent souvent dans leurs préoccupations (Muller 2014 & Bent 2016). En outre, l’open access s’inscrit dans le plus grand mouvement de l’open science qui cherche à proposer une nouvelle approche de la conduite des projets scientifiques placée sous le signe de la collaboration et la transparence.

Des données et des recherches

La gestion des données de recherche est un sujet très représenté dans la littérature spécialisée, ce qui reflète son actualité. Jusqu’à récemment, seules les publications scientifiques étaient valorisées et protégées comme produits de la recherche scientifique. Cependant, avec la numérisation de la science et le déluge des données, celles-ci commencent maintenant à être considérées comme des éléments angulaires faisant figure de preuves que les chercheurs doivent pouvoir présenter pour appuyer la véracité de leurs résultats. En effet, le mouvement de l’open science a souligné qu’une part non négligeable des projets de recherche étaient financés par des fonds publics. Dans cette même veine, il estime que les contribuables sont en droit de savoir comment est investi leur argent. D’autres prises de position de ce mouvement dénoncent la conduite de projets de recherche de nature similaire qui coûtent du temps et de l’argent aux contribuables, mais aussi aux équipes de recherche. Il est argumenté qu’une gestion plus adéquate et plus transparente ainsi qu’une ouverture des données de la recherche permettraient à des projets de pouvoir s’appuyer sur des résultats et des données antérieures pour éviter de refaire les manipulations nécessaires à la reproduction des données pour une autre application ou une autre recherche. Ainsi, une part de ce mouvement demande que les chercheurs subventionnés par des fonds publics mettent à disposition leurs données en libre-accès.

Ces revendications de transparence sur la gestion et la circulation des données se sont également reflétées dans les évolutions des exigences des institutions de recherche (voir chapitre suivant). Cependant, les chercheurs peinent à embrasser la gestion des données de recherche tout d’abord en raison du manque de temps et de moyens. En effet, pour les chercheurs affiliés aux universités, il est souvent complexe de combiner les activités d’enseignement et celles de recherche, qui sont intrinsèquement déjà complexes et chronophages entre le dépôt de dossiers pour les subventions, la conduite de la recherche proprement dite, la rédaction d’articles, la diffusion et la valorisation des résultats, etc. Malheureusement, plusieurs exemples de la littérature (Corrall 2012 & Delaney et Bates 2015) mettent en avant que les professionnels de l’information ne se sentent pas armés pour prendre en charge la gestion de cette thématique. Pour Sheila Corrall (2012), la source de ce manque de confiance se trouve dans les cursus des enseignements en bibliothéconomie et en sciences de l’information. En effet, bien que les programmes aient pris conscience de l’importance de la gestion des données de recherche, peu d’entre eux forment les professionnels aux compétences techniques requises pour gérer les données. Les formations sont aussi appelées à évoluer et inclure les transformations du monde de la science, qui sont des enjeux tout à fait neufs pour elles aussi. On se trouve donc encore dans une période d’ajustement avant que le personnel ne puisse aider plus efficacement les chercheurs, voire les délester d’une part importante de ce travail.

Des institutions de financement toujours plus exigeantes

À l’extérieur des établissements, plusieurs acteurs sont mobilisés par le soutien à la recherche, mais les plus puissantes sont les institutions de financement de la recherche, appelées aussi bailleurs de fonds. En Suisse, les deux plus connues sont le Fonds National Suisse (FNS) et Innosuisse (anciennement CTI). Ces institutions détiennent un pouvoir de pression non négligeable en ce qu’elles tiennent « les cordons de la bourse » ; sans elles, le financement de nombreux projets de recherche serait compromis, car bien que les institutions mettent à disposition de leurs chercheurs des fonds, ceux-ci sont souvent insuffisants. Les chercheurs les complètent ainsi à l’aide des subventions accordées par ces institutions. Leur caractère irremplaçable leur permet de modifier ou d’introduire unilatéralement de nouvelles exigences pour l’attribution de fonds que les chercheurs peuvent difficilement refuser ou contourner (voir plus bas).

L’émergence de la publication numérique en libre accès et de la gestion des données a agité le milieu scientifique, et les institutions subventionnant la recherche ont également pris position en conséquence, encourageant ainsi le changement. De plus en plus d’institutions, comme le FNS par exemple, exigent désormais qu’un plan de gestion des données de recherche ou Data Management Plan (DMP) soit systématiquement joint aux demandes de subvention. D’autre part, le FNS ne délivre plus de subside pour la publication autre qu’en open access. Les chercheurs sont donc astreints à publier dans des revues ou des bases de données en libre-accès (1). L’objectif est que tous les travaux soient publiés en open access d’ici à 2020. Ces mesures visent à augmenter la validité des résultats des projets scientifiques ainsi que leur reproductibilité (Latham 2017).

Déploiement de services : mode d’emploi et acteurs mobilisés

À la lumière de la diversité des thèmes susmentionnés, on pourra comprendre la nécessité de mobiliser un large éventail d’acteurs – qui constituent par ailleurs la raison d’être de la pluridisciplinarité de ce processus – et de les présenter ci-après. Mais avant tout, il est important de mettre en exergue quelques éléments de bonnes pratiques pour l’implémentation de services au sein des établissements d’enseignement de niveau tertiaire et tout particulièrement l’inclusion de ceux-ci au sein de leur stratégie.

Étant donné que ces différents services sont composés de différentes professions et manières de faire ainsi que de collaborateurs appartenant à un vaste éventail de départements, la littérature souligne que les universités souffrent souvent de la présence de structures en silos (Bent 2016). Les parties prenantes évoluent en groupements étanches et spécialisés sur des thèmes et compétences précis. Il n’y a pas de communication proactive hors de cet écosystème ni d’alliance. Cela constitue un frein à l’effort de soutenir et faciliter la recherche, car cet effort se doit d’être fondamentalement collectif et pluridisciplinaire. La coopération et la collaboration entre les services sont donc cruciales. D’autre part, et cela est intimement lié à la problématique susmentionnée, le soutien à la recherche souffre souvent d’un manque de leadership (Soehner et al. 2010, Cox et Pinfield 2014, Pryor 2014 & Yu 2017). La littérature propose plusieurs raisons à cette lacune, mais Moira Bent (2016) met en exergue l’importance lexicale propre à l’expression de soutien à la recherche, research support en anglais : le terme de support est intrinsèquement passif. Pourtant, la recherche ne pourrait s’accomplir sans l’implication des différents acteurs présentés. Moira Bent propose donc de préférer le terme « faciliter » pour y remettre un rôle plus actif et ainsi renvoyer une image plus fidèle de cette cohorte d’activités et de l’implication réelle et angulaire des unités facilitatrices. L’introduction de nouveaux services doit en outre suivre une approche bottom-up ; c’est-à-dire partir de l’identification des besoins de la communauté de recherche et les confronter ensuite aux ressources humaines et financières disponibles (Schöpfel et al. 2017). En outre, il faut que ceux-ci soient alignés sur la stratégie institutionnelle afin d’en pouvoir justifier la création et de bénéficier du soutien des instances décisionnelles. Il est finalement primordial de s’appuyer sur les expertises disponibles à l’interne et bien souvent disséminées au sein des divers départements mobilisés par le soutien à la recherche.

Un autre aspect à prendre en compte mis en avant par Moira Bent (2016) est que les chercheurs ne forment pas une communauté homogène. Effectivement, tous ne travaillent pas sur des thématiques identiques, ni même voisines, et possèdent des niveaux d’expérience variés. De plus, contrairement à ce que sous-entend la généralité de l’appellation “communauté”, on a plutôt affaire à plusieurs communautés. En effet, les chercheurs tendent à former des groupements hétérogènes dépendants de leurs centres d’intérêt et de leurs expertises de recherche, plutôt qu’un ensemble soudé. Il est donc important de prendre en compte les différents profils et intérêts de chercheurs avant de développer des services. Par exemple, tous les chercheurs ne bénéficient pas de subsides de fonds de tiers.

« It takes a village » : parties prenantes mobilisées

Au sein des institutions, plusieurs acteurs détiennent les compétences nécessaires pour faciliter et soutenir la recherche. Leur ordre d’apparition ci-après est aléatoire ; il ne reflète en aucun cas un ordonnancement par ordre de valeur ou d’importance.

Figure 2: Parties prenantes mobilisées par le soutien à la recherche

 

  • Maison d’édition/presses universitaires

Certaines institutions tertiaires ont la chance de posséder des maisons d’édition au sein même de leurs murs. Les chercheurs peuvent donc choisir de publier directement par leur biais ou de se tourner vers des éditeurs externes. En raison de ses compétences éditoriales, ce genre de département a un rôle prééminent à jouer dans la relecture de manuscrits ou l’encouragement, l’information et l’accompagnement pour la publication en open access.

  • Services institutionnels centraux de soutien à la recherche

Au sein des institutions d’enseignement tertiaire actives dans la recherche, il existe dans la plupart des cas un comité de pilotage formé de représentants des diverses sous-communautés de recherche ou de chercheurs confirmés, ainsi que des services de soutien à la recherche. Le rôle principal de cette entité est de coordonner les activités de recherche et d’accompagner les autres chercheurs durant les différentes étapes du cycle de la recherche. Il lui revient également la responsabilité d’appliquer les directives institutionnelles liées à la recherche.

  • Services informatiques et des technologies de l’information

Les services dédiés à l’informatique et aux technologies de l’information assurent la mise en place et l’intégrité des infrastructures nécessaires au travail et au bon fonctionnement des autres services institutionnels. Dans le cadre des efforts pour soutenir et faciliter la recherche, ce type de service peut mettre en place des solutions sur mesure et/ou à la demande des chercheurs, ou collaborer avec d’autres services pour la mise en place de projets comme une archive ouverte institutionnelle par exemple.

  • Instances décisionnelles

Sous l’appellation « instances décisionnelles » sont compris tous les organes d’une institution qui fédèrent et décident des orientations stratégiques à l’instar des comités de direction ou du rectorat. En leur qualité de tête de file, ce sont à elles que revient le devoir de mettre en place des objectifs et des politiques qui tissent les canevas sur lesquels doivent évoluer les chercheurs. Elles ont donc la responsabilité de prendre position sur les thématiques d’actualité pour donner une direction à leur stratégie et leur culture de recherche. Ce sont ces entités qui produiront des politiques et des directives afin d’entraîner ce changement, ou qui alloueront des ressources nécessaires aux services compétents.

  • Les bibliothèques et centres de documentation

Les bibliothèques sont parfois mises à l’écart du reste de la communauté de recherche, tout d’abord, spatialement ; les bibliothèques n’étant souvent pas dans le même bâtiment ou zone du campus universitaire en raison de leur double-usage étudiants et chercheurs, mais également vis-à-vis du rôle que celles-ci ont joué dans le processus de recherche. En effet, les bibliothèques sont encore bien trop souvent perçues comme des lieux où l’on va chercher des livres ou où l’on peut travailler en silence. Pourtant, leur place traditionnelle et centrale dans l’accès et la diffusion du savoir – qui fait par ailleurs partie de leur êthos – s’inscrit tout à fait dans les enjeux actuels de publication en open access et de gestion des données de recherche (Corrall 2012 & Tenopir et al. 2017). Toutefois, elles souffrent de leur manque de visibilité, de la méconnaissance par les publics des services et des compétences qu’elles mettent à leur disposition, et de l’effritement de leur budget engendré par les tensions du tissu économique. En outre, certains bibliothécaires peinent à être convaincus que leur métier doit évoluer pour s’ouvrir vers le nouveau paradigme de l’e-science et ainsi inclure de nouveaux objets et thématiques tels que la gestion des données de recherche ou la publication et la diffusion des produits scientifiques en open access.

Perspectives pour les bibliothèques et autres services d’information documentaire 

Pour clore cette première section, il semblait à propos de s’arrêter un instant sur les bibliothèques et autres services d’information pour une mise en perspective bien méritée. À l’heure où les bibliothèques doivent de plus en plus prouver leur valeur et leur utilité pour la collectivité, les professionnels prennent conscience qu’un changement de direction est nécessaire. De nouveaux modèles pour guider le métier sont à identifier. La littérature mentionne depuis quelques années l’idée des professionnels de l’information comme partenaires de recherche. Toutefois, certains peinent à croire à la viabilité de cette solution et les preuves empiriques de celle-ci sont rares, voire inexistantes. Assurément, un équilibre est à trouver entre partenaires et simples colocataires de locaux auxquels on fait vaguement et ponctuellement appel comme ultime recours. La bibliothèque ne doit pas être qu’une solution alternative pour les chercheurs, mais bien un acteur incontournable.

La bibliothèque ne peut plus se permettre de n’être qu’un lieu où l’on va consulter des livres et les bibliothécaires de n'être que les gardiens de contenus papier, ainsi que le laissent penser les clichés et la vision étriquée qu’on porte sur eux. Il est vital que les professionnels saisissent l’opportunité du tournant de la numérisation des savoirs, faute de quoi le changement se fera sans eux et les nouvelles thématiques, notamment la publication numérique en open access et la gestion des données de recherche, seront portées par d’autres peut-être historiquement moins équipés, mais qui auront été au bon endroit ou au bon moment. Du reste, cela devrait devenir l’adage des professionnels de l’information : la bonne information, au bon endroit au bon moment.

Finalement, il faut apprendre à jouer en équipe et chercher activement à tisser des relations avec les autres services impliqués dans le soutien. Il s’agit de changer de perspective et d’aller dans le sens du nouveau paradigme collaboratif de la recherche : une partie des efforts de facilitation peut être réorganisée ou faite en collaboration avec des collègues d’autres services dans l’idée de mise en commun des expertises. Pour reprendre un argument de Starr Hoffman (2016) – sur les bibliothèques académiques, mais qui peut tout à faire être étendu aux autres services de soutien – avec d’un côté la pression actuelle sur les ressources budgétaires et humaines, et de l’autre, la création de nouveaux besoins par les évolutions de l’environnement de recherche, les acteurs se sentent coincés et pensent devoir « faire plus avec moins ». Néanmoins, il s’agit plutôt de “do less, but deeper”, c’est-à-dire qu’il faut trouver les forces et les spécificités de chaque service et identifier ce dont la communauté de recherche a réellement besoin.

Méthodologie de la recherche

Partant des constats énumérés ci-dessus, l’institution mandante genevoise cherchait à déterminer comment soutenir et faciliter le travail de ses chercheurs tout en se positionnant en adéquation avec les exigences et les tendances de la recherche scientifique. Cette entreprise venait avec la difficulté supplémentaire de prendre en compte le contexte et l’organisation particuliers et typiquement suisses des hautes écoles spécialisées (HES). La Haute école spécialisée de Suisse occidentale (HES-SO) est une institution de niveau tertiaire – soit le même que les universités – constituée d’un réseau de plusieurs écoles réparties dans sept cantons romands. Dans le cas du Travail social, il existe quatre écoles dispensant des enseignements dans cette matière à Genève, Fribourg, Sierre et Lausanne. Ces quatre écoles forment le domaine Travail social de la HES-SO. Néanmoins, elles sont également et avant tout rattachées à des regroupements régionaux. En conséquence, les écoles conservent une certaine indépendance les unes des autres et tendent à ne pas mutualiser leurs services de soutien. Il est à noter que certains services sont proposés de manière transversale par la HES-SO et donc accessibles à tous les collaborateurs, quel que soit leur établissement d’attache.

Pour répondre aux attentes du mandant tout en prenant en considération le contexte susmentionné, le travail s’est articulé en trois axes : tout d’abord la conduite d’un état de l’art pour mettre en exergue le contexte de la recherche scientifique ainsi que les tendances actuelles du soutien à la recherche, en particulier dans les services d’information et de bibliothèques. Cette étape visait à obtenir des informations qui ont servi de base comparative avec les données qui ont été recueillies lors de la deuxième étape du travail. Cette dernière a consisté en la conduite d’entretiens à différents niveaux de la HETS : d’une part de manière individuelle avec les responsables des différents services actuellement impliqués dans la recherche et son soutien, et d’autre part au moyen de groupes de discussion focalisée avec différents chercheurs de l’institution. À la suite des collectes, des synthèses des entretiens ont été rédigées et soumises aux répondants pour validation. Ce moyen a été préféré à la rédaction de verbatim pour des considérations de gain de temps, mais aussi en raison du fait que certains répondants souhaitaient rester anonymes dans le rapport écrit. Avec une transcription mot à mot, cet anonymat n’aurait pas pu être garanti, car certaines informations ou le recoupement de groupes informations auraient permis l’identification du répondant. L’analyse des données contenues dans ces synthèses et leur comparaison avec les données compilées depuis l’état de l’art ont permis de réaliser l’ultime étape du travail : un diagnostic de l’écosystème du soutien à la recherche scientifique à la HETS-GE et la formulation de recommandations ainsi que de pistes d’optimisation et de développement de celui-ci.

Afin de pouvoir dresser le bilan de la situation actuelle du soutien à la recherche HES-SO en Travail social, il avait été prévu de rencontrer deux populations phares de cette thématique : les prestataires, soit les divers services impliqués, et les bénéficiaires, soit les chercheurs.

Au début de la recherche, il avait été planifié de rencontrer des membres des deux populations au sein des quatre écoles susmentionnées dans le but de mener une étude comparative de la situation actuelle et de la maturité du soutien à la recherche entre les quatre sites. Un autre objectif était d’évaluer s’il existait des recoupements dans les besoins et les volontés de développement afin de déterminer la faisabilité de la mise en place d’un centre ou de toute autre structure de soutien à la recherche commune à l’échelle du domaine Travail social. Néanmoins, en dehors de l’institution mandante genevoise, les personnes et les entités interrogées n’ont pas répondu par la positive à nos sollicitations. La recherche a donc été réorientée sur un état des lieux institutionnel tout en gardant dans les investigations la question d’un intérêt pour un centre ou des services mutualisés de soutien à la recherche.

Au total, cinq prestataires de services ont été rencontrés : la direction de l’école, de la bibliothèque et des éditions institutionnelles, ainsi qu’un responsable de l’unité de soutien de la recherche HES-SO. Pour la communauté de recherche, deux groupes de discussion focalisée ont pu être organisés et ont permis de rencontrer un quart des chercheurs actifs à la HETS-GE : l’un avec les membres du comité du centre de recherches sociales (CERES) – comité en charge de la coordination de la recherche à la HETS-GE formé de chercheurs expérimentés – et un second avec des chercheurs moins expérimentés ou appartenant au corps intermédiaire.

Résultats et discussion 

Les données obtenues lors des différentes rencontres avec les responsables et membres des services impliqués dans la dispense de prestations ont mis en lumière que des efforts étaient déjà entrepris en termes de soutien et de facilitation de la recherche. En revanche ceux-ci ne sont ni formalisés, ni coordonnés. Ce chapitre s’arrête sur les points saillants mis en valeur par la collecte de données sur le terrain, puis propose un bilan global du soutien à la recherche au sein de la HETS-GE.

Éléments préexistants et facteurs limitants institutionnels

Avant de passer aux éléments tangibles, il est nécessaire de souligner quelques éléments de contexte qui permettront d’apporter une dimension supplémentaire aux résultats présentés ci-dessous.

Tout d’abord, les représentants des services institutionnels sont unanimes sur le fait que les ressources financières sont un facteur limitant majeur. Cela s’explique par le climat économique commun à la plupart des institutions d’enseignement supérieur, mais également par le fait que la position de directrice adjointe en charge des finances est restée longtemps vacante – jusqu’à septembre 2018, date à laquelle ce poste a été pourvu – ; ajoutant ainsi une difficulté supplémentaire à ce climat inconfortable. Du côté des responsables des éditions et de l’Infothèque, il est rapporté que le budget et les ressources humaines sont tout juste satisfaisants en l’état pour remplir leurs missions. Un investissement dans ces deux pans serait nécessaire pour améliorer le confort de travail et surtout pour accueillir plus de demandes et développer de nouvelles prestations. Il est logique que ce facteur rende considérablement incompatibles les stratégies rapides et spontanées d’accroissement du soutien à la recherche ; en particulier si elles nécessitent l’investissement de temps de travail et engendrent des coûts non négligeables – ce qui est invariablement le cas pour en assurer la qualité.

Un deuxième point à mettre en exergue est que, préalablement à la présente recherche, le CERES s’est engagé dans un projet pilote initié par le Dicastère Qualité d’évaluation de la recherche institutionnelle de la HES-SO. Celui consistait à mener une auto-évaluation sur les activités et les prestations existantes de recherche à la HETS-GE ; tâche qui a été menée par le responsable de la recherche et complétée par les membres du comité du CERES. Bien que la présente étude se soit déployée indépendamment de cet effort, elle a pu bénéficier des réponses et des réflexions mobilisées par l’auto-évaluation, laquelle possédait des similarités dans ses objectifs et questions de recherche, notamment sur les aspects de besoins des chercheurs et de l’évolution des exigences des bailleurs de fonds et de l’environnement de recherche.

Impacts de la tendance de la publication en open access

Les nouvelles exigences des bailleurs de fonds ont d’ores et déjà eu des retombées en particulier pour la publication en open access. En effet, lors des entretiens individuels, les représentants de la plupart des services rencontrés ont dit avoir mis en place de nouvelles infrastructures pour répondre à cet enjeu. Les éditions IES – maison d’édition institutionnelle de la HETS-GE – ont souscrit à OpenEdition Books, une plateforme de publication en libre-accès où elles publient désormais la majorité de leurs nouveaux ouvrages au format numérique. À noter que la publication papier est pour le moment maintenue, car les éditions sont d’avis que ce medium a encore une raison d’être dans le domaine. Néanmoins, les responsables sont conscientes que le dédoublement des coûts de publication n’est pas une solution viable sur le long terme. Elles s’inquiètent également de la place de la rémunération du travail d’édition au sein d’un modèle de publication en open access, ainsi que des enjeux liés à la visibilité des productions engendrées par ce modèle à l’heure où les plateformes de diffusion se multiplient et que leur interopérabilité n’est pas encore monnaie courante.

À l’échelle de l’institution, une politique sur la publication en open access a été adoptée. En revanche, il n’existe pas encore de service ou de comité formalisé chargé d’endosser la responsabilité de cette thématique au sein de la HETS-GE ou même au niveau régional ou de la HES-SO.

En ce qui concerne les chercheurs rencontrés, bien que la vaste majorité ait été informée de l’évolution de ces exigences – soit car ils en dépendent directement, soit parce qu’ils en ont eu vent à travers leurs lectures ou d’autres contacts avec l’environnement de recherche – il est néanmoins apparu que la compréhension de ces enjeux est inégale et imparfaite. Cette tendance a été observée dans les deux focus groups menés auprès des chercheurs seniors et des chercheurs plus novices. Les deux groupes de répondants ont fait part d’un désir qu’un accompagnement et des moyens de formation soient mis en place pour les armer et les aider à se conformer aux attentes qui pèsent ou vont peser sur eux.

(Bonnes) pratiques de la gestion des données de recherche

La gestion des données de recherche n’est pas encore une préoccupation majeure de la communauté de recherche HETS-GE. Les chercheurs seniors du premier focus group ont relaté qu’en dehors du devoir de fournir un plan de gestion des données (DMP), le reste de la gestion des données est laissé à leur discrétion. Les bailleurs de fonds auxquels ces chercheurs font appel, notamment des fondations privées et d’autres organismes actifs en travail social, n’ont pas encore établi d’exigences sur la gestion ou l’archivage des données issues de leur parrainage, contrairement aux publications découlant des recherches. Ainsi, les chercheurs ont chacun des méthodes et des outils ad hoc pour gérer leurs données : qu’il s’agisse de les stocker sur une mémoire externe ou dans le cloud à l’aide de SwitchDrive ou de Dropbox. De plus, il a été mentionné par le groupe composé principalement de membres du corps intermédiaire, que la plupart d’entre eux ne bénéficiaient pas de fonds de tiers et donc d’aucune obligation de rendre des comptes sur la gestion de leurs données de recherche.

C’est pourquoi une des premières conclusions de la présente étude est que la mise en place d’un centre institutionnel de soutien à la recherche n’est pas une proposition plausible en l’état. Cela reviendrait à sauter une étape dans le développement du processus. Le soutien à la recherche institutionnel doit auparavant bétonner un certain nombre de fondations critiques afin de s’inscrire dans la stratégie globale de l’institution. Il faut également qu’il s’enracine davantage au sein des différents services mobilisés. Le développement inter-institutionnel ne pourra être envisagé qu’une fois que ce processus se sera parfaitement intégré au sein de l’institution.

Expression des besoins et propositions de développement de services

Lors des entretiens semi-dirigés et des deux focus groups, les participants ont eu l’occasion d’exprimer des propositions d’amélioration des services existants ou de développement de nouvelles prestations en réponse à des besoins encore insatisfaits. Sont présentés ici les éléments jugés majeurs et entrant en résonance avec ceux identifiés dans la revue de littérature.

Pour commencer, les responsables du CERES, de la direction et de l’Infothèque tombent tous d’accord sur le fait que la visibilité via les sites internet, peu satisfaisante, et leur ergonomie, sont des éléments à revoir. En effet, pour les premiers, il s’agit d’un frein conséquent à la visibilité des activités de recherche, et pour l’Infothèque cela limite la visibilité de ses prestations et de ses compétences. Par ailleurs, il existe une volonté de développer un lien plus fort entre l’Infothèque et le CERES en raison de la sous-utilisation des ressources et savoir-faire de cette première, volonté appuyée par la direction.

Du côté des chercheurs, plusieurs besoins ont été mis en lumière ; parfois uniquement lors d’un des deux focus groups et d’autres fois faisant consensus auprès de tous les profils rencontrés. D’abord, il est nécessaire que les chercheurs restent informés des dernières nouveautés liées à leurs objets de recherche. C’est pourquoi, certains répondants appartenant au premier focus group faisaient part de l’intérêt de pouvoir confier leur veille à un service interne – notamment à l’Infothèque. Toujours à ce sujet, la veille média actuellement assurée par l’Infothèque, et dont les résultats sont envoyés régulièrement sous forme de PDF par courriel, a été mentionnée. En effet, les participants ont salué l’utilité de cette démarche, mais soulignent le côté inadéquat du support PDF, qui engendre un délaissement regrettable de leur part. Ils souhaiteraient donc voir modifiés les résultats de cette veille vers une forme de livrable plus aisément et rapidement consultable.

Les membres du premier focus group ont mentionné devoir réaliser dans le cadre de dépôt de dossier des revues de littérature exhaustives, qui sont par conséquent exigeantes et chronophages. C’est pourquoi il leur serait utile de pouvoir déléguer en partie, voire entièrement, ce travail. À l’heure actuelle, certains répondants confient déjà cette tâche à des personnes externes à leurs frais. Étant donné le consensus autour de ce besoin, les répondants soulignaient donc que la mise en place d’une telle prestation sponsorisée par l’institution, ou mutualisée à l’échelle du domaine Travail social serait appréciable. Dans cette même veine, certains chercheurs exprimaient aussi leur intérêt pour une prestation de relecture de manuscrits avant publication, tout particulièrement pour les aspects de conformité des bibliographies et des citations – et mentionnent l’adéquation de cette requête avec les compétences naturelles de l’Infothèque.

Pour leur part, les membres du second focus group – principalement affiliés au corps intermédiaire – ont expressément demandé l’accroissement de la visibilité des ressources et des aides actuellement proposées par les différents services institutionnels pour les activités de recherche. Bien qu’ils imaginent qu’une offre non-négligeable existe, elle leur est totalement méconnue. Un vœu est donc exprimé pour accroître la visibilité et l’accessibilité de cette offre qui rejoint la faiblesse précédemment identifiée par les services institutionnels.

Finalement, un besoin unanime des deux focus groups est celui d’être informé et soutenu vis-à-vis des nouvelles exigences (open access et gestion des données de recherche, mais pas uniquement) de l’environnement de recherche. Directement concerné ou non à travers leurs activités de recherche actuelles, l’ensemble des répondants sait que ces évolutions doivent être embrassées et comprises, car elles sont des éléments angulaires de l’environnement dans lequel ils évoluent. Leur souhait est d’être munis du savoir adéquat pour faire des choix éclairés et de posséder des connaissances suffisantes pour choisir des outils fiables et efficaces.

Bilan du soutien à la recherche à la HETS

L’ensemble des éléments précédemment mis en exergue permettent de dresser un bilan général du soutien à la recherche actuellement proposé au sein de la HETS-GE.

Le premier constat du présent mandat a été que, bien que des services de soutien existent déjà au sein de la HETS-GE, ceux-ci souffrent d’un manque de visibilité qui entraîne souvent leur non-utilisation. Par ailleurs, le personnel des divers services rencontrés s’est montré très conscient de son rôle à jouer, mais s’étonnait que les chercheurs ne fassent pas davantage appel à ses compétences et ses expertises sur des sujets pointus (open access, veille, gestion des données de recherche). De leur côté, les chercheurs ignoraient effectivement l’existence de certaines prestations internes, mais aussi proposées par la HES-SO (notamment le Research Data Coordination Desk et l’unité d’appui Ra&D) ainsi que les compétences détenues par le personnel encadrant la recherche.

Cette méconnaissance est imputable à plusieurs facteurs :

Tout d’abord, l'absence d’une structure claire et formalisée destinée à soutenir et faciliter la recherche qui permettrait aux différents acteurs de se rassembler ainsi que de coordonner leurs efforts et de créer un groupement de compétences transversales prêt à répondre aux multiples enjeux du soutien à la communauté scientifique. À l’heure actuelle, chaque acteur agit de manière indépendante et propose des solutions sur mesure, ad hoc pour donner suite aux sollicitations. Cette situation entache la visibilité des compétences, mais également des services, tout en entraînant le risque d’une redondance dans les efforts de deux services différents s’attaquant à une thématique. De plus, cette carence d’organisation entraîne une certaine informalité et une absence totale de stratégie – dont le rôle devrait être de motiver et de donner une raison d’être à ces services.

Dans un deuxième temps, une caractéristique unique à la HETS-GE, et dont résultent les constats susmentionnés, est son organisation. En effet, les services et les chercheurs sont dispersés dans divers bâtiments localisés à plusieurs endroits. Tout naturellement, cela limite considérablement les rencontres fortuites. Il s’agit donc d’occasions manquées pour les chercheurs d’exprimer leurs besoins, et pour les membres d’un service d’affirmer leurs compétences et de mentionner l’existence de services ou d’une ressource. Cette structure en silo est donc un frein à la communication entre les acteurs qui poursuivent parfois des buts communs chacun de leur côté – démultipliant ressources et temps investis.

Conséquence directe de la remarque précédente, il n’y a actuellement que peu de communication entre les services et les chercheurs, et également inter-services. Le travail de promotion des services et des compétences reste souvent timide, voire presque absent. Les pages web des services ne mentionnent par exemple pas quelles prestations sont ou peuvent être proposées aux chercheurs.

Les répondants n’étaient pas au courant de l’existence de services de soutien à l’échelle de la HES-SO, notamment la présence d’une archive ouverte (ArODES) ou les diverses unités de soutien à leur disposition : l’unité d’appui Ra&D, spécialiste des questions d’acquisition de fonds de tiers, et le Data coordination Desk. Il semble que leur non-utilisation soit également imputable à un manque de communication. Cependant, ces services s’adressent à l’ensemble de la HES-SO. Par conséquent, leur promotion n’est pas du ressort direct de la HETS-GE, même si on peut s’attendre à ce qu’elle diffuse et promeuve un peu ces prestations.

Pour conclure, lors des rencontres, une question était posée sur l’intérêt des répondants vis-à-vis de la mutualisation de certains services de soutien, voire de la mise en place d’un centre dédié au soutien à la recherche, mutualisé à l’échelle du domaine Travail social de la HES-SO. À la lumière du bilan institutionnel et des facteurs limitants liés aux ressources, mutualiser à l’échelle du domaine s’impose comme une solution intelligente et efficiente puisqu’elle permet d’en faire plus sans devoir investir toutes les ressources nécessaires individuellement. L’ensemble des répondants des focus groups et des entretiens abondait dans ce sens. Toutefois en l’absence de réponses des trois autres écoles, il a été impossible d’en juger la faisabilité. Nonobstant ce manque et les limitations existantes, des dispositions ont déjà été mises en place et des améliorations demandant un investissement maigre en ressources peuvent être envisagées, comme proposé ci-après.

Propositions et recommandations

En prenant en compte le contexte HES – en particulier celui de la HETS de Genève – ainsi que les résultats de la collecte de données, une proposition théorique ainsi que cinq recommandations ont été formulées. Bien que ces recommandations soient avant tout des pistes de solutions aux difficultés constatées à la HETS-GE, leur pertinence peut s’étendre à toutes les institutions faisant face aux mêmes enjeux environnementaux ou souhaitant simplement mettre en place un soutien à la recherche efficient et adéquat.

Les trois piliers du soutien et de la facilitation de la recherche

Les résultats des investigations sur le terrain, croisés avec les informations recueillies dans la littérature, ont permis de déterminer que la facilitation de la recherche dépendait étroitement de l’équilibre de trois piliers :

  • La communication ; on entend par là autant les échanges entre les prestataires de soutien entre eux qu’avec les bénéficiaires de leurs efforts. Ces derniers doivent également transmettre leurs suggestions et leurs besoins de manière proactive et itérative.
  • La coordination ; c’est-à-dire l’organisation formelle de tous les efforts, services et activités de facilitation mis à l’œuvre dans le but de réduire la redondance et d’augmenter l’efficience et l’adéquation avec les besoins de la communauté de recherche. 
  • La collaboration ; cela implique que le soutien et la facilitation ne peuvent être dispensés par un service ou un profil de compétences unique. Étant donné l’hétérogénéité des enjeux mobilisés par ce processus, une pluralité d’acteurs est nécessaire pour y répondre et trouver des solutions efficaces. 

Figure 3: Les trois piliers du soutien à la recherche

(Wuillemin 2018, p.53)

Ces trois points devront donc être utilisés comme leviers lors du déploiement d’un effort de facilitation de la recherche transversal et commun à l’ensemble de l’institution afin de permettre d’ancrer celui-ci dans la culture institutionnelle et stratégique de l’institution.

Unifier pour régner : création d’un organe de coordination 

La présence d’une entité réunissant l’ensemble des parties prenantes mobilisées par le soutien à la recherche – à savoir : l’Infothèque, les éditions IES, le centre de recherche sociale (CERES) et un représentant des chercheurs et de la direction des établissements – est cruciale. Cette entité pourrait par exemple prendre la forme d’un comité.

Les missions de cet organe devraient inclure les points suivants :

  • Observer et coordonner les activités institutionnelles de soutien et de facilitation de la recherche.
  • Mettre en place des objectifs stratégiques pour développer le soutien à la recherche qui soient cohérents et en continuité avec les objectifs de l’institution et de la HES-SO.
  • Rédiger et diffuser des politiques, des guides ou des règlements pour orienter, encadrer et uniformiser les divers aspects de la facilitation de la recherche notamment autour des questions de publication des résultats de recherche et de gestion des données de recherche.
  • Créer un espace permettant l’échange entre les représentants des services et les chercheurs, afin que les besoins de ces derniers soient entendus et que les services puissent mettre en avant leurs compétences, et le partage autour des thématiques/enjeux/nouveautés de la recherche scientifique et de son environnement.

Mise en place d’un modèle de maturité du processus et d’un tableau de bord 

En matière de gestion des données de recherche, la littérature propose à plusieurs reprises d’aborder cette thématique sous l’angle d’un modèle de maturité. L’avantage d’un tel dispositif est qu’il permet de détailler la qualité et l’avancée du processus de manière visuelle. Chaque niveau peut donc être exprimé en objectifs stratégiques à atteindre.

Le but de la recherche n’était pas la création d’un tel dispositif. Toutefois, les résultats ont mis en lumière une maturité encore insuffisante au sein de la HETS-GE pour la mise en place d’un centre de soutien à la recherche institutionnel ou commun au domaine Travail social. L’utilisation d’un modèle de maturité semblait ainsi toute indiquée, car elle permettrait à l’institution de se développer et d’atteindre la maturité nécessaire à une telle entreprise.  Une brève revue de la littérature a été menée afin de s’inspirer et de développer le prototype ci-dessous. Celui-ci a suivi le style graphique d’une figure proposée par Cox et al. dans un article de 2017 et a été alimenté par 2 modèles centrés sur la gestion des données de recherche, celui de Cox et al. (2017) et du Australian national data service (2018), ainsi que par le constat précédemment formulé sur les trois piliers de la recherche.

Figure 4: Modèle de maturité pour le soutien à la recherche

(Wuillemin 2018, p.59)

Niveau 1

Ce niveau de maturité est le plus bas et il se caractérise par une certaine passivité institutionnelle en ce qui concerne le processus de soutien à la recherche dans sa globalité. Pour en revenir aux trois piliers, la collaboration et la coordination sont pour ainsi dire inexistantes. Les chercheurs trouvent des solutions par leurs propres moyens.

Niveau 2

À ce palier, les divers acteurs commencent à prendre conscience de leurs compétences et les besoins de leurs bénéficiaires ainsi que de l’importance du processus de soutien et des activités qu’il implique. Ces changements sont une réaction aux évolutions de l’environnement (comme la gestion des données de recherche, l’open access etc.), mais sont aussi motivés par la lecture d’articles ou de retours d’expériences. Les activités sont principalement ad hoc et peu ordonnées. La qualification de ce niveau est celle de phase réactive : l’institution ne prend pas encore des décisions par elle-même, mais met en place des services à usage unique sur la demande des chercheurs. Cette phase coïncide également avec la conduite d’enquêtes et d’évaluation de l’existant afin de dresser un portrait des compétences et des ressources exploitables.

Niveau 3

Arrivés à cette étape, les efforts de soutien deviennent proactifs. Le processus fait désormais partie intégrante du plan stratégique de l’établissement. Les efforts deviennent plus systématiques : les prestations ne sont plus ad-hoc mais s’adressent à des profils divers et le rôle de chacun des prestataires est défini précisément. Les parties prenantes communiquent plus efficacement sur leurs prestations et entre elles. L’offre de services commence donc à s’étoffer. Des politiques, des marches à suivre et des règlements sont en production afin de formaliser les activités et d’unifier les pratiques.  

Niveau 4

Ce niveau est placé sous le signe de l’intégration. Les politiques susmentionnées sont disséminées et s’intègrent progressivement à l’ADN de l’institution. L'offre de service est conséquente et s’optimise. Du côté des trois piliers, la collaboration est satisfaisante et la coordination et la communication sont optimales.

Niveau 5

Le point culminant du modèle est atteint lorsque l’ensemble des activités associées au processus sont implantées et formalisées de sorte qu’elles fassent pleinement partie de la culture institutionnelle et stratégique de l’entité concernée. Tout le monde travaille de concert et les efforts sont ajustés aux besoins et rationalisés. L’institution peut maintenant s’ouvrir vers l’extérieur et chercher à créer des partenariats ou des services mutualisés avec d’autres institutions. Dans le contexte HES-SO, ces alliances peuvent se faire avec d’autres écoles de travail social ou avec un ou des services à l’échelle de la HES-SO.

La faiblesse du présent modèle de maturité est qu’il représente le processus comme une activité unique. Or, la revue de la littérature couplée aux rencontres sur le terrain a montré qu’une pléthore d’activités est concernée par la facilitation de la recherche et que chacune d’entre elles peut se décomposer en sous-activités. 

Ainsi le modèle de maturité devrait surtout jouer le rôle d’un “pense-bête” ou d’une feuille de route pour orienter globalement les efforts stratégiques.

En revanche, il est nécessaire pour les aspects opérationnels de compléter le prototype par un tableau de bord. Celui-ci devrait directement découler des différentes phases du modèle de maturité (ici cinq), et détailler les différentes activités par étape. On peut éventuellement décliner et séparer le tableau de bord par domaines d’activité (par exemple gestion des données de la recherche, publication des articles scientifiques, stimulation de la communauté de recherche, etc.). Pour chacune de ces activités il est nécessaire de lister les prérequis du palier et les tâches et les paramètres qui doivent être mis en place pour valider l’obtention du niveau de maturité.

Figure 5: Exemple de tableau de bord de suivi de la maturité du soutien à la recherche

(Wuillemin 2018, p.60 – adapté du Australian Data Service 2018, p.3-4)

Cet outil conserve non seulement la force visuelle du modèle de maturité, mais possède aussi une réelle plus-value opérationnelle. Ces deux outils de pilotage, il va sans dire, doivent impérativement être développés par toutes les parties prenantes mobilisées. C‘est pourquoi l’une des recommandations émises lors de ce travail est de charger l’organe de coordination du soutien institutionnel à la recherche de cette responsabilité.

Développer la compréhension des exigences de l’environnement de recherche 

La revue de littérature ainsi que les actualités récentes ont mis en exergue l’importance et le poids des nouvelles exigences de l’environnement de la recherche. À l’ère numérique, dans un contexte où la production de données croît de manière exponentielle, et à la lumière de célèbres cas de falsification de résultats de recherche (voir notes (2) et (3)) qui ont parfois des retombées négatives mais surtout durables dans l’esprit collectif, il est crucial pour toutes les parties prenantes de prendre les nouvelles exigences à bras le corps et de se les approprier en les intégrant à terme dans leurs propres politiques et règlements internes. En effet, même si les changements réglementaires ont principalement été ressentis par les bénéficiaires des institutions de financement de la science, ces changements sont les symptômes d’une transformation générale et profonde dans la manière de mener la recherche scientifique. Le contrôle et la transparence autour de la recherche sont donc des enjeux phares et les exigences vont dans ce sens.

Dès lors, les services de soutien à la recherche ont la responsabilité de répandre les connaissances autour de ce nouveau paradigme au sein de la communauté de recherche afin de l’accompagner activement dans cette période de transformation. L’enjeu est de lui donner les ressources ainsi que le soutien nécessaires pour que cette transition se fasse en douceur et non sous la contrainte ou la peur d’une perte de financement de tiers.

Dans le contexte des institutions d’enseignement tertiaire, il existe généralement des unités et des services institutionnels spécialisés sur les différentes thématiques touchées par ces changements. Au sein de la HES-SO, on citera notamment l’unité Ra&D, et le Research Data Coordination Desk. En l’absence de telles unités ou à titre complémentaire, on peut également faire appel à des experts extérieurs comme ceux du projet DLCM, groupe spécialisé sur le cycle de vie des données de la recherche.

Visibilité des services et de leurs prestations 

Travailler sur la visibilité des services et de leurs prestations est également un point crucial pour l’accroissement des trois piliers du soutien à la recherche. La littérature soulignait la présence de silos institutionnels qui pouvaient freiner la mise en place de services, et l’accroissement de la maturité du processus, mais parfois les services déjà existants sont eux-mêmes méconnus, voire inutilisés. Les chercheurs rencontrés dans le cadre de l’étude avaient des besoins auxquels des prestations préexistantes auraient pu répondre, mais dont ils ignoraient l’existence. Cette non-utilisation implique que les besoins des chercheurs ne sont pas satisfaits et que les services dédient des ressources à entretenir des prestations qui ne sont pas utilisées. Tout le monde est ainsi perdant.

Il est donc nécessaire, avant d’accroître l’offre, de mettre en place des solutions pour renforcer la visibilité de l’existant. Pour cela, il n’est pas forcément nécessaire de réinvestir des ressources particulières ; on peut bien développer des choses que l’on a déjà sans avoir à faire appel à des compétences nouvelles. Une chose aisée à mettre en place est une page dédiée au support à la recherche sur le site institutionnel. Celle-ci devrait regrouper les règlements et politiques institutionnels, mais aussi la liste des prestations dispensées par chaque service, ainsi que des liens renvoyant vers leurs pages. Les pages web des services devraient aussi mettre en exergue leurs offres de prestations. Des renvois vers des ressources externes comme le fameux Research Data Coordination Desk et l’unité Ra&D seraient également judicieux.

Cette centralisation de toutes les ressources à disposition faciliterait la vie aux chercheurs et augmenterait leur connaissance des prestations offertes et, on peut l’espérer, l’utilisation de celles-ci.

Encourager l’entraide et participer à l’épanouissement de la communauté de recherche   

Bien que la communauté de recherche soit au centre de toutes les préoccupations, il peut arriver que les parties prenantes oublient que des actions peuvent également être entreprises pour la stimuler. C’est pourquoi, il est important de connaître son « état de santé » et la façon dont les relations interpersonnelles s’y cartographient. L’hétérogénéité de la communauté de recherche, soulevée dans la revue de littérature, a par ailleurs été vérifiée par les données recueillies sur le terrain. Les niveaux d’expérience et les domaines d’intérêt sont variés et un manque de cohésion a malheureusement été rapporté. Certains des chercheurs nouvellement engagés et qui n’ont pas une grande expérience de recherche se sentent parfois isolés, ou du moins pas très intégrés. La principale raison est que les informations ont de la peine à circuler, notamment concernant les projets sur lesquels les chercheurs travaillent. La diffusion ou la mise en place d’une base de données des projets en cours et passés accessible aux chercheurs, mais aussi au personnel administratif et technique (PAT), permettrait la propagation de ces informations cruciales pour créer des liens entre les chercheurs. Par exemple, un nouveau chercheur pourrait prendre contact avec un chercheur expérimenté travaillant sur une thématique voisine afin de discuter de sa méthodologie ou de demander des contacts. Cette proposition serait également bénéfique pour les relations entre les chercheurs et les membres du soutien à la recherche. En effet, les services de soutien seront ainsi au courant du quotidien des chercheurs et des nouveautés liées à leurs recherches et pourront effectuer des tâches comme de la veille informationnelle, technologique et réglementaire sur les sujets étudiés.

Conclusion

Cet article a fait état de l’écosystème de la recherche et des difficultés rencontrées par les services institutionnels pour soutenir les activités des chercheurs. Le milieu de la recherche a subi des évolutions majeures telles qu’un changement de paradigme – toujours en cours –vers un fonctionnement placé sous le signe de la collaboration, de la promotion de l’open access, du durcissement des exigences des bailleurs de fonds, mais aussi d’une réduction significative des budgets. On a rappelé ensuite l’importance de s’appuyer sur les services institutionnels et sur leur capacité à épauler les chercheurs dans leur travail grâce à des outils et compétences adaptés. Les données présentées dans cet article convergent vers une demande croissante de création et d’utilisation de ce genre de services.

En effet, du fait du foisonnement des activités de recherche, de l’hyper compétitivité et des activités d’enseignement, les chercheurs sont débordés. Les nouveaux aspects de la recherche scientifique, comme la gestion des données de recherche et la diffusion en open access des résultats, sont des soucis supplémentaires qu’il leur revient de gérer alors que le temps et les compétences leur manquent. Or, la littérature et les résultats de la recherche démontrent que les services institutionnels cherchent à prêter main-forte aux chercheurs pour les soulager là où il est possible de le faire. Néanmoins la communication peine bien souvent à aboutir. Cette volonté reste ainsi votive et les chercheurs se démènent en silence.

Les données montrent que la HETS-GE traverse les changements identifiés dans la littérature : les chercheurs HETS sont aussi en contact avec les transformations de l’environnement. Même s’ils ne subissent pas tous les contraintes des bailleurs de fonds, ils reconnaissent les enjeux portés par ces thématiques et la responsabilité de les endosser. Du côté des services, une volonté existe d’être plus proactif dans le soutien et de s’aligner sur les tendances. Mais la bonne volonté ne suffit pas ; il manque encore un maillon pour connecter les prestataires et les bénéficiaires. Il est donc primordial de le créer afin de suivre le paradigme de la recherche et donc de travailler ensemble. Le soutien et la facilitation de la recherche devraient se développer autour de deux pôles : les évolutions des exigences de l’environnement de recherche et les besoins de la communauté de recherche – qui du reste sont intimement liées aux premières.

Suivant ce constat, des pistes de réflexion et des recommandations ont pu être formulées pour surmonter les difficultés constatées et encourager l’épanouissement du soutien institutionnel à la recherche au sein de la HETS de Genève. Un premier constat général est que le soutien à la recherche doit s’efforcer de trouver un équilibre entre trois piliers : la communication, la collaboration et la coordination entre toutes les parties prenantes concernées et mobilisées. Ainsi, la première recommandation pour l’institution mandante est de mettre en place un organe de coordination institutionnel du soutien à la recherche composé d’au moins un représentant de toutes les parties prenantes concernées. Cet organe est incité à se charger d’élaborer un modèle de maturité du processus ainsi qu’un tableau de bord pour en suivre les évolutions et mesurer les progrès. L’avantage de ces deux outils est d’aider à la fois à la planification stratégique de la maturation des activités ainsi qu’à la mise en place des aspects opérationnels et des tâches nécessaires pour y parvenir – le tout en tirant parti de leur force intrinsèquement visuelle.

En parallèlement à ces efforts, il est aussi important de développer la compréhension des chercheurs et des entités qui les soutiennent au sujet des exigences de l’environnement de la recherche. Il s’agit là de comprendre autant les thématiques émergentes que les nouvelles exigences des bailleurs de fonds. La visibilité des services institutionnels et leurs prestations est également un point qui mérite un investissement particulier. Finalement, il est crucial de favoriser un environnement fécond et encourageant l’entraide mutuelle pour que la communauté de recherche puisse s’épanouir au mieux.

L’étude dont le présent article fait la synthèse se voulait être comparative. Or, faute de répondants, elle s’apparente davantage à une étude de cas. C’est pourquoi il serait intéressant d’explorer les divers éléments soulevés par sa méthodologie au sein des trois autres écoles du domaine. Cela permettrait de déterminer si la situation à Genève est un cas isolé ou si elle est commune au reste des institutions de formation et de recherche en travail social, et tout particulièrement de détecter un intérêt potentiel pour la mutualisation de services de soutien.

Plus globalement encore, il est intéressant de constater que les enjeux de soutien à la recherche – pourtant objet des réflexions de la littérature spécialisée depuis plusieurs années déjà – continuent à animer les débats entre professionnels et à faire couler de l’encre, sans pour autant qu’une solution ou une réponse finale ne s’impose. Plus qu’un tournant appuyé par l’évolution du paradigme de la science ou par les pressions financières, les interrogations mises en lumière par le soutien à la recherche dénotent un profond et irrémédiable changement de société vis-à-vis de l’utilisation des médias, de la relation aux données et à la vie privée, ainsi que des exigences de transparence, notamment à propos des investissements de l’argent du contribuable dans le financement de la recherche. Tous ces enjeux n’épargnent pas les métiers de l’information documentaire, qui vont devoir tôt ou tard se positionner sur la nécessité de s’approprier des compétences traditionnellement rattachées à d’autres corps de métiers, avec le risque de remettre en question des savoir-faire historiques ou leur identité même.

Notes

[*] Veuillez noter que cet article reflète uniquement l’opinion de son autrice et n’engage nullement la Haute école de travail social de Genève ou toute autre entité mentionnée.

[**] L’italique dans le texte ne sert qu’à signaler les mots issus de langues étrangères.

(1) Davantage d’informations sur la politique d’open access du FNS sont disponibles à l’adresse:http://www.snf.ch/fr/leFNS/points-de-vue-politique-de-recherche/open-access/Pages/default.aspx

(2) Une étude publiée en 1998 dans la revue anglaise The Lancet argumentait qu’un lien de causalité existait entre la vaccination contre la rougeole et le développement de l’autisme. L’Organisation mondiale de la Santé a néanmoins publié un rapport en 2003 qui dénonçait la fraude scientifique véhiculée par cette publication et The Lancet a depuis réfuté l’article. Néanmoins, cette étude a eu un impact durable sur l’opinion publique et alimente aujourd’hui encore l’argumentaire des personnes en défaveur de la vaccination.

(3) Un exemple plus récent, mais d’un même phénomène est une étude publiée en 2018 dans la revue GSC Biological and Pharmaceutical Studies et co-signée par deux chercheurs suisses. Cependant, celle-ci a été récemment réfutée et retirée de la revue, car un examen a mis en lumière que les données avancées pour corroborer les résultats étaient frauduleuses et avait été manipulées. Voir l’article du Temps : le vaccin Ebola co-signé par des chercheurs suisses

Bibliographie

AUSTRALIAN NATIONAL DATA SERVICE, 2018. Creating a data management framework. Ands.org [en ligne]. 23 mars 2018. [Consulté le 1er août 2018]. Disponible à l’adresse : https://www.ands.org.au/__data/assets/pdf_file/0005/737276/Creatinga-data-management-framework.pdf

BENT, Moira, 2016. Practical tips for facilitating research. Londres: Facet. Practical tips for library and information professionals. ISBN 1-78330-017-5

BERTHAUD, Christine et MAGRON, Agnès, 2013. La Science accessible à tous. Pour la Science [en ligne]. Novembre 2013. N° 433, p. 54-55. [Consulté le 18 juin 2018]. Disponible à l’adresse : https://www.pourlascience.fr/sd/technologie/la-science-accessible-a-tous7600.php

COOMBS, Jenny, THOMAS, Mandy, RUSH, Nathan et MARTIN, Elizabeth, 2017. A Community of Practice approach to delivering research support services in a post-92 higher education institution: a reflective case study. New Review of Academic Librarianship [en ligne]. 9 juin 2017. Vol.23, n° 2-3, pp.159-170. [Consulté le 18 juin 2018]. Disponible à l’adresse : https://www.tandfonline.com/doi/abs/10.1080/13614533.2017.1329750

CORRALL, Sheila, 2012. Roles and responsibilities: libraries, librarians and data. In: PRYOR, Graham (éd). Managing research Data. Londres: Facet, pp.105-133. ISBN 978-185604-756-2

COX, Andrew et PINFIELD, Stephen, 2014. Research Data Management and Libraries: current activities and future priorities. Journal of librarian ship and information science. Décembre 2014. Vol.46, n° 4, pp.298-316. ISSN 0961-0006

COX, Andrew, KENNAN, Mary Anne, LYON, Liz et PINFIELD, Stephen, 2017. Developments in Research Data Management in Academic Libraries: toward an understanding of research data service maturity. Journal of the association for information science and Technology. 25 mars 2017. Vol.68, N°9, pp.2182-2200. ISSN 2330-16

DELANEY, Geraldine et BATES, Jessica, 2015. Envisioning the academic library: a reflection on roles, relevancy and relationships. New Review of Academic Librarianship [en ligne]. 29 septembre 2014. Vol.21, n°1, pp.30-51. [Consulté le 27 juin 2018]. Disponible à l’adresse : https://www.tandfonline.com/doi/pdf/10.1080/13614533.2014.911194?needAccess=true

HOFFMAN, Starr, 2016. Introduction: a vision for supporting research. In: Dynamic Research Support for Academic Libraries. London: Facet Publishing. Mars 2016, pp-XIII-XXI. ISBN 9781783300495

KOLTAY, Tibor, SPIRANEC, Sonja et KARVALICS, Lászlo, 2015. The Shift of information literacy towards research 2.0. The Journal of Academic Librarianship [en ligne]. Janvier 2015. Vol. 41, issue 1, pp.87-93. [Consulté le 22 octobre 2019]. Disponible à l’adresse : https://doi.org/10.1016/j.acalib.2014.11.001

LATHAM, Bethany, 2017. Research Data Management: defining roles, prioritizing services, and enumerating challenges. The Journal of Academic Librarianship [en ligne]. Mai 2017. Vol. 43, n°3, pp. 263-265. [Consulté le 22 octobre 2019]. Disponible à l’adresse : https://www.sciencedirect.com/science/article/abs/pii/S0099133317301453

MINET, Pascaline, 2017. Quand les éditeurs confisquent la science. Le Temps [en ligne]. 19 septembre 2017. [Consulté le 22 octobre 2019]. Disponible à l’adresse : https://www.letemps.ch/sciences/editeurs-confisquent-science

MULLER, Floriane, 2014. Attentes des académiques en matière de services fournis par les bibliothèques des sciences et de médecine : des mutations à anticiper ? [en ligne]. Genève : Haute école de gestion de Genève. Travail de master. [Consulté le 22 octobre 2019]. Disponible à l’adresse : https://doc.rero.ch/record/232840/files/M12_TM_MULLER.pdf

NICHOLAS, David, ROWLANDS, Ian et WAMAE, Deanna, 2010. Charleston Conference Observatory: Are Social Media Impacting in Research? Proceedings of The Charleston Library Conference [en ligne]. [Consulté le 15 Octobre 2019]. Disponible à l’adresse: https://docs.lib.purdue.edu/cgi/viewcontent.cgi?article=1092&context=charleston

PRYOR, Graham, 2014. Options and approaches to RDM service provision. In PRYOR, Graham, JONES, Sarah et WHYTE, Argus (éds). Delivering Research Data Management Services: fundamentals of good practice. Londres : Facet, pp. 21-40. ISBN 9781856049337

QUEEN’S UNIVERSITY LIBRARY, 2019. Researcher Training Program. Queen’s University Library [en ligne]. [Consulté le 15 octobre 2019]. Disponible à l’adresse : https://library.queensu.ca/help-services/researcher-training-program

School of Clinical Sciences at Monash Health, 2019. New Library Resource – Research Lifecycle. SCSeNews [en ligne]. 3 avril 2019. [Consulté le 15 octobre 2019]. Disponible à l’adresse : http://scsenews.blogspot.com/2019/04/new-library-resource-research-lifecycle.html?m=0

SCHÖPFEL, Joachim, FERRANT, Coline, ANDRÉ, Francis et FABRE, Renaud, 2017. Research data management in the French National Research Center (CNRS). Data Technologies and Applications [en ligne]. 23 janvier 2018. Vol.52, n°2, pp.248-265. [Consulté le 22 octobre 2019]. Disponible à l’adresse : https://www.emeraldinsight.com/doi/pdfplus/10.1108/DTA-01-2017-0005

SOEHNER, Catherine, STEEVES, Catherine et WARD, Jennifer, 2010. E-science and data support service: a study of ARL Members Institutions. In: International Association of Scientific and Technological University Libraries, 31st Annual Conference, West Lafayette, Purdue University, 20-24 juin 2010 [en ligne]. West Lafayette : Purdue e-Pubs. [Consulté le 22 octobre 2019]. Disponible à l’adresse : https://docs.lib.purdue.edu/cgi/viewcontent.cgi?referer=https://www.google.ch/&httpsredir=1&article=1015&context=iatul2010

TENOPIR, Carol, TALJA, Sanna, HORSTMANN, Wolfram, LATE, Elina, HUGHES, Dane, POLLOCK, Danielle, SCHMIDT, Birgit, BAIRD, Lynn, SANDUSKY, Robert J. et ALLARD, Suzie, 2017. Research Data Services in European Academic Research Libraries. LIBER Quarterly [en ligne]. Vol.27, n°1, pp.23-44. [Consulté le 22 octobre 2019]. Disponible à l’adresse : https://www.liberquarterly.eu/articles/10.18352/lq.10180/

WUILLEMIN, Claire, 2018. Optimiser les services de soutien à la recherche en travail social : le cas de la Haute école de travail social de Genève. Haute école de gestion : Travail de master.

YU, Holly H., 2017. The role of academic libraries in research data service (RDS) provision: opportunities and challenges. The Electronic Library. Vol. 35, n° 4, pp.783-797. ISSN 0264- 0473

Interroge : le service de référence en ligne des bibliothèques de la Ville de Genève

Susana Cameàn, bibliothécaire chargée de secteur, coordinatrice Interroge

Jürgen Haepers,  bibliothécaire chargé de secteur, coordinateur Interroge

Florent Dufaux, adjoint de direction, responsable d'Interroge

Bibliothèques de la Ville de Genève

Interroge : le service de référence en ligne des bibliothèques de la Ville de Genève

Introduction

Lancé en septembre 2013, le service de questions-réponses en ligne généraliste Interroge a répondu à ce jour à plus de 8500 questions. A l’occasion de son sixième anniversaire, revenons sur sa genèse et plongeons notre regard sur les projets à venir. Si la France a vu, dès 2004, plusieurs créations de ce type de service à vocation encyclopédique par des bibliothèques de lecture publique, en Suisse, Interroge http://interroge.ch/ est alors le premier service de référence en ligne encyclopédique. Les autres services de référence suisses, tels que SwissInfoDesk https://www.nb.admin.ch/snl/fr/home/services/conseils/recherchedienst.html, de la Bibliothèque nationale suisse, ou encore Le Valais en questions https://www.valais-en-questions.ch/, proposé par la Médiathèque Valais, ont une approche plus thématique. Interroge repose sur la collaboration de l’ensemble des bibliothèques de la Ville de Genève qui, pour la première fois, proposent une prestation commune à la population. Ce réseau permet de rassembler des domaines particulièrement variés réunissant ainsi des collections patrimoniales, scientifiques et généralistes.

À ce jour, Interroge reste la seule prestation transversale d'ampleur proposée par l'ensemble des bibliothèques de la Ville de Genève. A ce titre, il a bénéficié d'un soutien important du Département de la culture et du sport (DCS). Ce service s'inscrivait dans les objectifs stratégiques de la législature 2011-2015 pour, d'une part, favoriser les partenariats et les passerelles et d'autre part, développer la culture hors les murs. Il a aussi été porté par les directions des bibliothèques et musées qui composent ce réseau, puis, par les professionnels qui s'y engagent au quotidien pour répondre aux demandes du public. Il représente aussi un guichet unique pour les citoyennes et citoyens genevois qui, dans la complexité des sites administratifs, y trouvent un interlocuteur privilégié. Pendant six ans, la somme des réponses publiées a permis de constituer une base documentaire importante, correspondant aujourd'hui à une part non négligeable de l'utilisation du service et un enjeu important en termes de valorisation.

Historique

Un premier projet transversal pour les bibliothèques de la Ville de Genève

Lancée sous l’impulsion des Bibliothèques municipales (BM) de la Ville de Genève et de la Bibliothèque de Genève (BGE), une réflexion a été amorcée en 2010. Dans un premier temps les BM ont mandaté un travail de bachelor de la filière Information documentaire de la HEG-Genève (Rattazzi, 2010) pour mieux cerner le concept de service de référence en ligne dans leur contexte, partant du fait que ce réseau de lecture publique, contrairement à la BGE ou à la Bibliothèque d'art et d'archéologie (BAA), ne pouvait pas s'appuyer sur l'expérience d'un service de référence en présentiel. Dans un second temps, un mandat pour l'accompagnement du projet a été confié à la Haute école de gestion (HEG) de Genève. En 2011, le rapport final de cette étude (Rezzonico, 2011) a permis de démontrer la faisabilité du projet et de préciser les étapes de sa mise en oeuvre. Un groupe de travail constitué de représentants des différentes bibliothèques et piloté par la Commission des bibliothèques - un organe représentatif des différentes institutions du DCS - a ensuite pris le relais pour affiner et préciser les éléments du projet. Sur la base du rapport de la HEG,  ce groupe s'est notamment appliqué à préciser les éléments suivants :

  • Gouvernance du réseau
  • Organisation des répondants
  • Cahier des charges du système de gestion et de publication
  • Formation des intervenants
  • Promotion au lancement et par la suite
  • Positionnement de la prestation sur les sites web
  • Charte du service

En ce qui concerne le choix du système de gestion, le rapport HEG avait émis une recommandation pour  le système de gestion des références virtuelles QuestionPoint https://www.questionpoint.org, développé par OCLC (Online Computer Library Center), et utilisé par des milliers de bibliothèques dans le monde. En plus des aspects techniques, ce système avait aussi l'avantage de permettre l'accès à la "base de connaissances globale" constituée de l'ensemble des réponses publiées par les bibliothèques clientes, ainsi qu'à un réseau virtuel de réponses 24 heures sur 24, 7 jours sur 7. 

Un réseau de professionnels

Outre l’équipe de coordination, composée de deux bibliothécaires et d'un bibliothécaire auxiliaire, les réponses sont fournies par une quarantaine de bibliothécaires répartis dans les institutions suivantes :

  • Bibliothèque d'art et d'archéologie (BAA)
  • Bibliothèque de Genève (BGE)
  • Bibliothèque des Conservatoire et Jardin botaniques (CJB)
  • Bibliothèque du Musée Ariana
  • Bibliothèque du Musée d’ethnographie de Genève (MEG)
  • Bibliothèque du Musée d’histoire des sciences (MHS)
  • Bibliothèque du Muséum d'histoire naturelle (MHN)
  • Bibliothèque musicale de la Ville de Genève
  • Bibliothèques municipales de la Ville de Genève (BM)
  • Centre d'iconographie genevoise (CIG)
  • Institut et Musée Voltaire (IMV)

Pour des questions plus pointues, ce réseau permet de faire appel à des conservateurs de musées qui peuvent parfois apporter leur expertise. Nous sommes également heureux de collaborer avec Alliance Sud InfoDoc, à Lausanne, pour les questions relatives à l’actualité du développement et de la mondialisation.

Les objectifs d'Interroge déclarés à son lancement consistaient à :

  • Etre disponibles en ligne pour nos usagers et toucher de nouveaux publics par un accès unique aux bibliothèques
  • Mettre en valeur les compétences des bibliothécaires et partager les contenus et connaissances
  • Mettre en valeur les collections et le patrimoine des bibliothèques genevoises
  • Proposer des contenus personnalisés et à forte valeur ajoutée sur le web

Les larges collections des bibliothèques scientifiques et patrimoniales des bibliothèques de la Ville de Genève, associées à la grande audience des BM, avait été identifié comme une force pour ce réseau, permettant de couvrir potentiellement l'ensemble des demandes. Nous avions aussi estimé que la part des questions "grand public" avec un niveau de complexité modéré serait plus importante en quantité. Dès lors, il a été convenu non seulement d'orienter le service dans cette direction - notamment pour la communication - mais aussi d'en confier la coordination aux BM. C'est donc ce service qui a demandé deux postes de bibliothécaires pour la coordination et a mis en place une structure en les plaçant sous l'autorité de la bibliothécaire responsable du catalogage, qui partagerait désormais son temps entre ces deux activités. Dans le contexte des BM, qui devaient donc s'attendre au principal flux de questions, il a en outre été décidé de constituer un réseau de répondantes et répondants volontaires parmi les bibliothécaires en activité. Depuis 2013, ce réseau se compose d'une douzaine de personnes, sur environ 80 bibliothécaires, qui consacrent 10% de leur temps d'activité à Interroge pour rédiger des réponses.

À la BGE, Interroge a pu s'appuyer sur l'équipe du service de référence en présentiel qui lui préexistait, tandis que dans les autres bibliothèques gérées par des équipes plus restreintes, l'ensemble des bibliothécaires pouvait être appelé à répondre.

La coordinatrice et le coordinateur, de leur côté, sont chargés des tâches suivantes :

  • Assurer la coordination du réseau
  • Garantir la qualité des réponses (relecture, corrections et harmonisation)
  • Gérer l’archivage (indexation) et la publication des réponses
  • Développer le service
  • Administrer le logiciel utilisé
  • Assurer la formation continue des participant-e-s au réseau

Lancement

Quel positionnement

Bien que l’option d'un site indépendant - interroge.ch – ait été privilégiée assez naturellement au début du projet, et constitue l'une des recommandations du rapport de la HEG (Rezzonico, 2011), il a semblé plus pertinent au service en charge des publics et de la promotion du DCS que le site soit hébergé sur les pages de la Ville de Genève, afin de répondre à l'objectif de mettre en valeur le patrimoine de la commune. Il s'agit là d'une grande question dans ce domaine : faut-il privilégier le rattachement institutionnel, au risque de contraindre le développement d'une "marque" de nouveau service web, ou justement affirmer cet ancrage qui peut constituer un facteur important de confiance pour le public ? Certainement influencés par les exemples d'Eurêkoi (Bibliothèque publique d'information, Paris) https://www.eurekoi.org/  et du Guichet du savoir (Bibliothèques municipales de Lyon) http://www.guichetdusavoir.org/, nous devons admettre que nous étions partisans du site indépendant. Néanmoins, après quelques années d'exploitation, force est de constater que cette présence sur le site de l'administration municipale a clairement contribué à la visibilité d'Interroge sur le web. Les archives de questions-réponses disponibles sur le site et alimentées par plusieurs questions par jour depuis 2013 sont ainsi particulièrement bien référencées dans les moteurs de recherche, notamment Google, et comme nous le verrons par ailleurs, cet aspect est aujourd'hui loin d'être négligeable.

L’atout de la communication

Pour lancer cette nouvelle prestation, il ne faisait pas de doute qu'une campagne de communication serait nécessaire. Promouvoir un service qui n'était alors qu'une promesse, répondre à n'importe quelle question en 72 heures, n'était toutefois pas chose aisée. L'agence de graphisme mandatée par les BM a alors eu l'idée pertinente de s'adjoindre un rédacteur pour concevoir de "fausses" questions qui pourraient à la fois susciter la curiosité du public et indiquer l'orientation du service, encyclopédique, grand public et de proximité. Bien entendu, ces fausses questions renvoyaient à des réponses rédigées par les bibliothécaires qui se sont ainsi confrontés à leur expérience de "répondant-e". Bien que le nom d'Interroge ait été imaginé et proposé par une bibliothécaire assez tôt dans le projet, son slogan, "la réponse est humaine", a été apporté dans cette phase également, par le rédacteur de l'agence de graphisme. Et sa simple comparaison avec les slogans utilisés lors des phases antérieures de présentation du projet comme "Interroge" : les bibliothèques genevoises répondent à vos questions", suffit à démontrer  tout l’intérêt de professionnels de la communication. 

Le lancement du service a été accompagné d'une grande campagne de promotion avec un affichage dans la rue, des sacs en toile, des affiches et signets dans divers lieux culturels de la ville. Au cours des premières années, plusieurs articles de journaux ont été publiés et nous avons pu constater l'efficacité incontestable de la presse pour la promotion de ce type de services. Un reportage dans l'émission "Nouvo" de la Radio télévision suisse (RTS) http://youtube.com/watch?v=3gQxtbjf5jY ainsi qu'un autre sur la chaîne régionale Léman Bleu a permis de mettre en image notre service. Chaque article dans la presse généraliste a généré un afflux de questions.

Aujourd'hui, les outils promotionnels à disposition sont les affiches placées dans les bibliothèques du réseau ainsi que la présentation du service que les bibliothécaires font directement auprès de leur public. L'équipe de coordination maintient une présence hebdomadaire sur la page Facebook des BM en proposant la lecture de réponses soigneusement choisies. Certaines bibliothèques du réseau (CJB et MEG) publient également sur leur propre page FB les réponses apportées par leurs institutions. En outre, une petite vidéo promotionnelle créée par le réalisateur multimédia des BM est transmise sur les écrans de diffusion des bibliothèques des BM http://youtube.com/watch?v=RxnHGceuJ7E

D'autre part, il semble qu'aujourd'hui la satisfaction des usagers ainsi que le bouche à oreille aient réussi tant à acquérir un nouveau public qu’à le fidéliser. Enfin, comme nous le développerons plus loin, il est évident que le référencement naturel, mais également les réseaux sociaux, représentent des alliés très intéressants pour un tel service.

Fonctionnement

Un élément central : la protection des données personnelles

Bien que l'étude HEG ait pointé cet élément comme important à faire figurer dans la charte du service, l'aspect contraignant de la Loi sur l’information du public, l’accès aux documents et la protection des données personnelles (LIPAD) n'avait pas été perçu. C'est le service informatique de la Ville de Genève, la Direction des systèmes d'information et de communication (DSIC) qui a soulevé cette problématique. En effet, s'agissant d'un service en cloud, la localisation des données revêt une importance particulière. Au-delà de l'aspect contraignant, la réflexion induite par la LIPAD nous a incités à proposer un formulaire simplifié, nécessitant de ne communiquer qu’un minimum d’informations personnelles. Cela offre en outre l'avantage de réduire les barrières d'accès afin de ne pas décourager les personnes intéressées à faire appel à notre service. La conformité de la conservation des données dans QuestionPoint et ses conditions contractuelles ont été soigneusement examinées par le juriste de la DSIC. Les serveurs d'OCLC étant situés aux Etats-Unis, l'un des points importants consistait à ce que les données personnelles, principalement l'email de la personne, soient anonymisées après un délai relativement court de 3 mois. Une fois ces éléments précisés, le projet a été soumis au Préposé cantonal à la protection des données pour un agrément qui a été octroyé (PPDT, 2013).

Le chemin de la question

L'usager se rend sur le site d'Interroge où un formulaire est à disposition. Celui-ci permet de poser une question et d'apporter des précisions quant au profil de l'usager (seuls les mineurs peuvent préciser leur âge) et le but de sa recherche (personnel, professionnel, étude avec possibilité de préciser le niveau d'étude). Il a également la possibilité de choisir s'il veut sa réponse en français ou en anglais, tandis que la question peut être posée également en allemand, en espagnol ou en italien.

L’équipe de coordination est chargée de réceptionner les questions et de les assigner selon leur contenu à la bibliothèque la plus à même d’y répondre. Elle assure la relecture, la mise en forme et l’envoi de toutes les réponses dans un délai de 72 heures maximum.

Les réponses sont ensuite archivées dans une base de connaissances et indexées à l'aide du répertoire d'autorité-matière RAMEAU, pour être ensuite publiées dans les archives en ligne d'Interroge. Cela permet ainsi à d'autres usagers d'y avoir accès et de s'y référer avant de poser leur propre question ou par simple curiosité.

Fournir une référence ou répondre : la formation des bibliothécaires et les compétences à développer

Dès la phase de projet et notamment lors de la rédaction de la charte, des discussions soutenues ont eu lieu quant au type de réponses à apporter. Bien que les participants se rejoignent sur les objectifs cités plus haut, deux visions de la prestation du service de référence ont émergé. Certains pensaient qu'un tel service devait se contenter de fournir des références bibliographiques, tandis que d'autres préconisaient d'apporter une réponse plus complète aux questions posées. Il faut relever que les deux tendances se rejoignaient sur le rôle d'aide à la recherche.

La lecture des réponses publiées dans les archives en ligne confirme aisément que l'option de la réponse complète a finalement été retenue. Si la fourniture de références bibliographiques peut se justifier pour un service de référence en présentiel, il nous a semblé plus pertinent dans le contexte d'un service en ligne de fournir une réponse plus développée.

Aujourd'hui, cette question est encore régulièrement soulevée et la motivation des bibliothécaires pour collaborer à Interroge dépend certainement beaucoup de leur adhésion à cette vision du service.  

Ce nouveau service a entraîné l'utilisation de compétences en lien avec le "savoir répondre" et donc une nouvelle manière de transmettre l'information au public, ceci d'autant plus qu'elle se fait à distance. L'équipe de coordination a dû former les bibliothécaires à l'utilisation de l'outil QuestionPoint ainsi qu'aux procédures lors de la réception de l'assignation jusqu'à l'envoi de la réponse aux coordinateurs.

Des documents d'aide à la réponse ont été élaborés par les coordinateurs. Ces documents peuvent être modifiés et augmentés à tout moment,  au fur et à mesure de l'évolution du service. Par ailleurs, des entretiens individuels ainsi que des réunions de mise à jour sont effectués autant que possible afin de maintenir la qualité et la cohérence du service.

L'accent a surtout été mis sur le développement ainsi que l'exploitation de compétences propres à ce type de service. En effet, la référence virtuelle oblige à transposer, à dépasser des impossibilités, à trouver d’autres voies. C’est pourquoi la ou le répondant-e doit mettre en œuvre les capacités professionnelles et humaines suivantes :

  • Comprendre rapidement, voire immédiatement
  • Accepter la question elliptique, confuse ou mal formulée
  • Faire preuve d’une curiosité permanente
  • Développer une capacité à intégrer des nouveautés et des évolutions
  • Accepter l’imprévu
  • Avoir une capacité d’empathie, de bienveillance et de neutralité
  • Avoir de très bonnes capacités de rédaction et de synthèse

La particularité de ce service est d'être virtuel et, contrairement au présentiel, la ou le répondant-e n'a pas la possibilité d'échanger avec l'usager. Cela implique pour le-la bibliothécaire de faire encore plus preuve d'empathie et de bienveillance envers l'usager et sa question.

Il est important de relever qu’Interroge offre toujours une réponse ou des pistes d’orientation et de recherches si la question s’avère trop spécialisée ou si elle ne relève pas de son champ d’action. A ce sujet, le service s'appuie sur sa charte, outil indispensable pour clarifier ce qu'il ne fournit pas, tel que des prises de positions ou des expertises juridiques, par exemple.

S'il est vrai que la formation et l'expérience jouent un rôle dans l'acquisition de l'ensemble de ces compétences, il semble important de signaler qu'être répondant-e est une tâche exigeante et qu'elle n'est pas faite pour tout le monde. Ainsi, le "volontariat", et donc une grande motivation, semble être la meilleure formule pour s'engager dans cette voie.

Le travail de coordination et de répondant-e au sein d'un service de référence en ligne pourrait sembler relativement simple au premier abord, notamment si on le compare aux exigences demandées par les services en présentiel. Il présente cependant des contraintes propres qui ne sont pas sans générer parfois des tensions, tant en termes de délai, que de la responsabilité de la publication de contenus sur des sites institutionnels. Les multiples compétences évoquées plus haut impliquent un degré d'engagement et d'attention élevés. De plus, du point de vue de la ou du répondant-e, le triple regard du coordinateur qui relira la réponse, de l'usager et enfin, de la publication dans la base de connaissances, constituent une pression supplémentaire.
Enfin, le travail de relecture de l'équipe de coordination constitue une étape sensible tant à l'égard des répondants, qu'en termes de publication de contenus.

Un rythme de croisière

Après 6 ans d'existence, le service Interroge s'est fait une place tant auprès de ses utilisatrices et utilisateurs que sur le web. Néanmoins, il reste toujours très difficile, voire impossible, de prévoir les baisses et hausses quotidiennes dans l'arrivage des questions mais la moyenne de cent questions mensuelles reste stable.
Relevons encore que, hormis la période de fin d'année pendant laquelle le formulaire est exceptionnellement fermé, il reste accessible 24h/24h pendant le reste de l'année.

Animer un tel service et s'assurer de la réponse à une centaine de questions par mois reste un défi dans une organisation en réseau comme celle d'Interroge. Le rôle de l'équipe de coordination est central pour assurer une bonne dynamique d'une part. En outre, le traitement d'une part non négligeable des réponses, soit 60% de réponses traitées directement par les coordinateurs en 2018, est à prendre en compte. Néanmoins, ils ne sauraient se passer des répondant-e-s des bibliothèques du réseau qui constituent le lien indispensable avec une expertise et des collections spécialisées ainsi qu'avec les scientifiques et conservateurs-trices de leurs institutions. Enfin, il est important de relever qu'il n'est parfois pas évident pour les répondant-e-s de maintenir un niveau de pratique permettant de conserver une aisance et une efficacité dans ce travail exigeant. Entretenir cet équilibre, tout autant que la motivation, représente probablement l'un des défis actuels les plus importants d'Interroge.

L'utilisation

Le public d'Interroge

Comme nous l'avons mentionné, le formulaire limite volontairement les données personnelles afin de respecter la LIPAD. Il est donc difficile de cerner le profil d'un-e utilisateur-trice, ce qui peut parfois représenter une contrainte avec des questions sur lesquelles le contexte personnel pourrait avoir une influence. Toutefois, ce respect de l'anonymat reste primordial afin de garantir le libre accès au service.

Dans une dimension plus globale, il apparaît toutefois important de cerner le public d'Interroge, notamment pour vérifier si l'objectif "toucher un nouveau public" est atteint. S'agissant d'une prestation publique il est aussi important de s'assurer qu'elle répond aux besoins de la population genevoise. La plateforme QuestionPoint propose un lien vers un sondage à la fin de chaque réponse envoyée, mais sa mauvaise visibilité génère un taux de réponse trop faible (4% en 2018).

Fin 2016, l'enquête « Profil et satisfaction des utilisateurs » d’Interroge a ainsi été réalisée en collaboration avec un institut de sondage. Pour cela, une invitation a été envoyée par courrier électronique aux 2'639 utilisatrices et utilisateurs ayant eu recourt au service depuis 2013 jusqu’à fin 2016. Le taux de réponse de 22% a été très satisfaisant pour une enquête de ce type et un échantillon valable de 548 réponses nous a ainsi permis d’obtenir des données inconnues jusqu'alors. Nous avons pu constater que le public d'Interroge est légèrement différent de celui des BM. Par exemple, la répartition hommes-femmes est plus égale pour le service de référence en ligne, (cf. graphiques ci-après) alors que dans la répartition des âges, nous trouvons plus d'adultes "actifs" parmi les utilisateurs-trices d'Interroge, que d'enfants.

En ce qui concerne le lieu de résidence, l’enquête a montré qu’un gros tiers (35%) des utilisateurs et utilisatrices d’Interroge habite la ville de Genève et qu’un petit tiers habite le reste du canton (31%). Sur le tiers restant, environ 8% habitent dans le Grand Genève (communes vaudoises proches, Ain et Haute-Savoie), près de 20% dans le reste de la Suisse (surtout romande), et moins de 5% dans le reste du monde. Nous pouvons donc affirmer que, de manière peut-être contre-intuitive, un service en ligne de ce type conserve un ancrage très local et demeure une prestation de proximité.

En ce qui concerne la diversification des publics, il nous importait aussi de déterminer si les personnes qui posaient des questions étaient inscrites dans nos bibliothèques. Un champ "inscrit/non inscrit" a d'ailleurs été ajouté depuis au formulaire, jugeant qu'il était suffisamment important et qu'il ne représentait ni une barrière d'accès, ni un problème en termes de données personnelles. Ainsi, dans l'enquête de 2016, 32% des personnes répondaient ne pas être inscrites dans les bibliothèques genevoises. En 2018 cependant, sur la base des réponses données dans le formulaire de question, cette proportion change de manière importante avec 58% des questions posées par des personnes non inscrites. Ce changement conséquent mériterait d'ailleurs une investigation. La question systématique change-t-elle "naturellement" cette proportion par rapport au public qui avait choisi de répondre à notre enquête, ou le public a-t-il évolué depuis les 3 premières années d'activité ? Un élément peut nous orienter vers cette dernière hypothèse. Alors que dans les premières années d'activité la presse jouait un rôle prépondérant dans la connaissance de la prestation, on a constaté depuis une évolution marquée de la navigation sur le web comme source de connaissance d'Interroge. Nous interprétons cette réponse comme découlant de l'importance croissante de la base de connaissancess.

La satisfaction des usagers

Cette dimension a aussi été examinée lors de l'enquête de 2016 et est testée en permanence dans le sondage accompagnant chacune des réponses envoyées par Interroge. D'une manière générale la satisfaction par rapport au service est excellente et l'enquête de 2016 a démontré que 95% des répondants étaient satisfaits de la réponse apportée.

Réponse à la question "êtes-vous satisfait-e des réponses qui vous ont été données ?"

Les commentaires des personnes "non" ou "plutôt non satisfaites" ont en outre pu nous apporter des pistes d'amélioration ou nous conforter dans l'option choisie d'apporter une réponse la plus directe possible. En effet, nous relevons comme motif d'insatisfaction des réponses parfois trop longues ou le renvoi à de trop nombreuses références bibliographiques non directement accessibles en ligne.

La perception du délai de réponse nous semblait aussi représenter un point intéressant à investiguer. Dans un environnement comme le web où tout semble être basé sur l'immédiateté, notre réponse en trois jours apparaît-elle comme incongrue ? Les réponses données semblent confirmer que le public est prêt à attendre ces quelques heures pour obtenir une réponse de qualité et adaptée à ses besoins. Ainsi, 97% se disent satisfaits du délai de réponse.

Réponses à la question "êtes-vous statistait-e du délai de réponse ?"

Les sondages joints aux réponses d'Interroge et envoyés suite à des réponses entre 2017 et octobre 2019 montrent les mêmes tendances. Sur 243 répondants, 87% se déclarent satisfaits et 5% non satisfaits. Les 7% restants ne répondent pas ou se déclarent "neutres".

Les raisons d'utilisation et la plus-value apportée

Pourquoi faire appel à des bibliothécaires "alors que l'on trouve tout sur Internet" ? La question mérite d'être posée, surtout que cette remarque a été largement entendue dans le cadre de ce genre de service. Au-delà du succès rencontré en termes de nombre de questions posées, il nous a semblé intéressant, toujours dans l'enquête conduite fin 2016, de déterminer plus précisément pourquoi les gens pouvaient faire appel à Interroge. Bien entendu, les réponses étaient cadrées, mais l'écart d'adhésion aux différentes propositions nous donne des indications précieuses sur la confiance et la légitimité accordées aux bibliothécaires.

Au-delà de la satisfaction déclarée, les personnes recourant à Interroge semblent en outre y trouver une véritable valeur ajoutée. Sur les résultats des sondages envoyés entre janvier 2017 et octobre 2019, 86% des répondants déclarent avoir obtenu de meilleurs résultats que dans leur recherche personnelle (n = 243). Cela montre bien que le recours au service de référence en ligne ne représente pas une simple facilité d'usage. Interroge offre une aide à la recherche dans les multiples ressources du web et met surtout l'usager en relation avec les très riches contenus conservés dans les bibliothèques genevoises. 

Typologie des questions

Dès son lancement, Interroge s’est profilé comme un service généraliste. Nous n'avions par ailleurs aucune idée de l'usage que le public ferait de cette nouvelle offre. Si on pouvait imaginer, voire craindre, que les questions de recherches bibliographiques « à l’ancienne » domineraient, nous avons très vite pu constater que les usagers utilisaient Interroge pour poser des questions nécessitant une réponse documentée.

Nous avons également, et ceci dès le début du service, pu voir apparaître de nombreuses questions en lien avec Genève, avec son histoire, ses traditions, ou encore ses particularités régionales. Petit à petit, des questions d'ordre administratif ont commencé à arriver en nombre également. L'explication à cela réside sans aucun doute dans le fait que le service Interroge est hébergé sur le site officiel de la Ville de Genève. Celui-ci est très largement consulté par les citoyen-ne-s pour trouver des informations et démarches administratives et Interroge a été rapidement assimilé à un guichet virtuel de l’administration municipale. De plus, la confusion vraisemblable entre les prérogatives du canton et de la ville par les Genevois génère également de nombreuses questions en lien avec l’administration cantonale.

Bien qu’Interroge se soit toujours profilé comme un service proposé par les bibliothèques, avec des réponses fournies par des bibliothécaires, cela n’a donc pas empêché les citoyens en quête d’aide dans leurs démarches de nous solliciter. Cette situation a ainsi soulevé des interrogations parmi certains collègues, sans pour autant jamais poser de problème majeur. A l’instar de ce qui se fait dans les bibliothèques anglo-saxonnes, il est même considéré comme une évolution normale des usages que la bibliothèque exerce, en tant que service public, un lien naturel entre la ville et sa population.

Mis à part ces deux types de questions, genevoises et administratives, nous trouvons encore les questions de type « vie pratique ». Les internautes font par ailleurs également appel à nous pour démêler le vrai du faux comme dans le cas des « Fake news » par exemple. Ce dernier point est réjouissant car il démontre que les bibliothèques restent une référence en termes de fiabilité et de neutralité pour un grand nombre de personnes.

Pourcentages des questions en fonction des thématiques entre 2014 et 2018

Les partenariats

Malgré le large réseau de compétences constitué par les bibliothèques de la Ville de Genève, il a toujours semblé pertinent de renforcer ce réseau grâce à des partenariats, notamment dans des domaines peu couverts.

En ce sens, la volonté de participer manifestée dès la phase de projet par le Centre de documentation en santé (CDS) de l'Université de Genève a représenté un apport précieux dans un domaine sensible. Le CDS a ainsi pris en charge les questions sur la santé pendant plusieurs années avant de quitter Interroge pour des raisons de réorientation de ses prestations.
Le centre de documentation d'Alliance Sud InfoDoc à Lausanne, https://www.alliancesud.ch/fr/infodoc, a spontanément proposé sa collaboration début 2014 et apporte une précieuse contribution dans ses domaines d'expertise.

Il peut sembler dommage que les partenariats de ce type ne soient pas plus nombreux. Certaines bibliothèques spécialisées ont été approchées et bien que l'enthousiasme soit souvent au rendez-vous, force est de constater que cette nouvelle tâche de bibliothèque répondante se heurte aux contraintes du quotidien et aux projets en cours dans ces institutions.

Des petites actions ont également vu le jour, comme celle avec la Direction de la mensuration officielle du Canton de Genève. Ainsi, depuis 2016, un bouton "Interroge" pointant sur notre site figure sur les pages des "Noms géographiques du canton de Genève" http://ge.ch/noms-geographiques.

Le service Interroge est toujours en recherche de collaborations avec d'autres bibliothèques de Genève ou d'ailleurs.

Questions et migrations

L’archivage des réponses

Lors des débuts d'Interroge nous avons considéré la publication des réponses comme une archive. Il nous semblait important de publier les réponses potentiellement intéressantes pour d'autres personnes ou permettant de donner une vision du type de prestations fournies par notre service. A l'époque, nous ne mesurions pas l'importance que pourrait prendre cette collection. En effet, au fil du temps, le suivi des statistiques de consultation des pages nous a montré que les réponses constituaient une base documentaire très vivante. En 2018, les pages Interroge, alors hébergées sur le site de la Ville de Genève ont cumulé près de 500'000 vues uniques.

La mise en regard des questions reçues et des pages vues nous montre le développement d'une relation directe entre la consultation des archives et le nombre de questions posées. Si au début, hors variations saisonnières, les fluctuations du nombre de questions reçues pouvaient être imputées aux campagnes de communication et à la presse, l'augmentation de la fréquentation des archives semble avoir une influence plus directe.

Nombre de vues mensuelles sur les pages du site superposées aux questions reçues

Depuis le milieu de l'année 2017, on observe que la fluctuation des questions reçues suit assez directement celles des consultations du site. Ce phénomène s'est en outre vérifié - malheureusement - avec la migration intervenue en avril 2019 du site de la Ville vers le site des BM pour des raisons techniques. Le référencement moins favorable du site des BM - sur Google principalement - a provoqué une baisse de la visibilité des archives et par conséquent du nombre de questions reçues. Nous pouvons donc affirmer que la meilleure communication pour un service de référence en ligne repose sur le référencement naturel de ses archives.

Ces aspect nous a amené à conduire une réflexion sur le positionnement d'Interroge, tant dans ce contexte de changement de site que face à l'obsolescence constatée de QuestionPoint. Il nous paraît ainsi judicieux, en termes de positionnement, de retourner dès que possible sur le site de la Ville, mais aussi d'opter pour un nouveau système de gestion. Ce dernier devrait nous permettre une description plus structurée de nos réponses, leur enrichissement avec des documents et des contenus multimédias, ainsi qu'une diffusion de cette création de contenus sur d'autres sites, dans les catalogues, ou encore sur les réseaux sociaux.

L'analyse des réponses consultées nous ouvre aussi d'autres pistes de réflexions et, à l'instar de services de référence en ligne comme Eurêkoi ou le Guichet du savoir, nous permettrait de proposer des dossiers thématiques. Les thèmes choisis pourraient se baser sur la récurrence des questions reçues mais également sur la fréquentation des réponses consultées. 

Quelle place sur les réseaux sociaux ?

Anticipant cela, nous avons déjà entrepris une réflexion et quelques actions autour des réseaux sociaux. Certains services de référence en ligne comme Eurêkoi ont tenté l'expérience de répondre directement sur Facebook mais il semble que l'expérience n'ait pas été concluante. De notre point de vue, il nous semble que les interactions sur les réseaux sociaux sont très différentes de ce que nous avons essayé de mettre en place avec Interroge : l'anonymat des publications n'y est pas possible, le flux continu de l'information ne semble pas propice à un traitement de qualité.

De fait, nous avons pour l'instant opté pour une publication hebdomadaire d'une réponse déjà existante sur la page Facebook des BM. Ceci nous permet d'offrir une visibilité à Interroge tout en diversifiant les contenus de la page des BM.

Conclusion

Après 6 ans d’existence, nous pouvons affirmer qu'Interroge représente un succès et surtout une prestation appréciée et répondant à un réel besoin de la population de Genève et de sa région. En faisant le lien entre les besoins d'information du public, les ressources numériques, les collections des institutions et les compétences des professionnels, Interroge est un projet abouti de médiation documentaire.

En tant que bibliothécaires directement impliqués dans le fonctionnement de ce service, il nous apparaît aujourd'hui comme une prestation de bibliothèque évidente et indispensable et faisant appel aux compétences intrinsèques des professionnels. Toutefois, la difficulté à nouer de nouveaux partenariats et le peu de légitimité que rencontre parfois Interroge au sein même du réseau professionnel démontre que la reconnaissance de ce type de prestations n’est pas encore acquise.

Le travail du service de référence en ligne demande de développer en permanence de solides compétences en recherche, synthèse et rédaction. Clarifier la place de ces activités dans nos institutions et la manière dont les équipes y participent reste aujourd'hui un enjeu majeur. 

Le succès de la base d'archives alimentée par les questions du public et constituant une véritable collection, confirme la véritable valeur apportée par la création de contenus originaux réalisés à l'aide des collections et des sources présentes dans les bibliothèques. De plus, les moteurs de recherche ne s'y trompent pas, et semblent donner un réel poids en termes de référencement. Ainsi, développer, mieux structurer et diffuser ces contenus représente un véritable enjeu pour les années à venir.
Cette base de connaissancess doit également être mieux valorisée. Émanant des besoins d'information directement exprimés par les citoyennes et citoyens, ses contenus doivent nous permettre d'améliorer et d'enrichir les sites institutionnels. Une première expérience a été réalisée en proposant des liens sur les réponses pertinentes depuis les pages "Découvrir Genève" du site de la Ville de Genève, comme par exemple sur la page consacrée au jet d'eau https://www.ville-geneve.ch/faire-geneve/decouvrir-geneve-quartiers/patrimoine-monuments/jet-eau-jardin-anglais/

L'arrivée des technologies d'apprentissage profond et d'intelligence artificielle dans la recherche ne devraient pas réduire la pertinence d'un tel service, tant ces outils seront friands de données structurées et de qualité. Toutefois, les nouvelles compétences nécessaires devront être présentes en bibliothèque pour positionner des services comme Interroge. Cela nécessitera donc, en plus des compétences déjà mentionnées, de développer de nouvelles aptitudes pour l'analyse des données et la mise en œuvre de stratégies de valorisation.

Non seulement le service de référence en ligne constitue une évolution logique des bibliothèques dans l'environnement du web, mais il y représente, à sa modeste mesure, une ressource importante pour le public en termes de qualité et de fiabilité de l'information.

Bibliographie

Bureau des Préposé-e-s à la protection des données et à la transparence (PPDT) (2013). Agrément du 12 mars 2013 : service de référence en ligne pour les bibliothèques de la Ville de Genève. Genève, République et Canton de Genève. Disponible en ligne https://www.ge.ch/ppdt/doc/documentation/agrement_2013_03.pdf, consulté le 16 octobre 2019.

Loi sur l’information du public, l’accès aux documents et la protection des données personnelles (LIPAD) https://www.ge.ch/legislation/rsg/f/s/rsg_a2_08.html

Rattazzi, Rossana ; Rezzonico, Ariane (Dir.), (2010). Un service de référence virtuel en lecture publique : réflexion pour les Bibliothèques municipales de Genève, Genève, Haute école de gestion. Disponible en ligne https://doc.rero.ch/record/20941, consulté le 16 octobre 2019.

Rezzonico, Ariane ; Pasquier, Karine (collab.) (2011). Accompagnement pour le développement du service de référence en ligne des Bibliothèques de la Ville de Genève : rapport final. Genève, Haute école de gestion.

Enquête 2018 sur les besoins non documentaires du public du site Riponne de la BCUL : méthodologie et principales conclusions

Françoise Simonet, responsable des renseignements et formation des usagers, BCUL

Christophe Bezençon, responsable du service des collections, BCUL

Enquête 2018 sur les besoins non documentaires du public du site Riponne de la BCUL : méthodologie et principales conclusions

Contexte et objectifs de l’enquête

La Bibliothèque cantonale et universitaire - Lausanne est une institution publique à vocation patrimoniale, culturelle et académique. Elle déploie ses activités sur six sites complémentaires : les sites Unithèque et Internef, à vocation académique, le site HEP Vaud qui s’adresse aux futurs enseignants, les sites Renens et Provence situés dans des gymnases, et le site Riponne, localisé au centre-ville.

Fin 2018, la BCUL comptait, pour ne citer que quelques chiffres, 19'138 usagers actifs, 425'014 prêts, 1'680'235 visites, 2'683'455 documents imprimés, 15'552 heures d'ouvertures, 1'712 places de travail, 12'959'921 consultations numériques, 222 collaborateurs (Bibliothèque cantonale et universitaire (Lausanne) 2018).

Contexte du site Riponne de la BCUL

Situé au sein du Palais de Rumine, bâtiment abritant également les Musées cantonaux d’archéologie et d’histoire, de géologie et de zoologie, le site Riponne, ouvert à tous, se caractérise par l'hétérogénéité de ses publics et la diversité de ses collections. Son public est composé d’étudiants de diverses universités et hautes écoles, d'élèves des gymnases et des écoles professionnelles, de mélomanes ainsi que d'usagers que l'on qualifie, faute de terme plus précis, de grand public.

Au niveau de ses collections, le site Riponne propose une collection de plus de 800'000 livres, journaux, CD, DVD et e-books dans tous les domaines du savoir et de la littérature. Seul 10% de la collection est accessible directement dans le libre-accès, le reste étant stocké dans des magasins souterrains. En tant que bibliothèque cantonale, l’ensemble des documents en rapport avec le canton sont mis à disposition et les publications éditées ou imprimées dans le canton depuis 1938 en format papier et numérique sont conservées au titre du dépôt légal. La musique est également au cœur des activités avec une collection importante de CD de musiques classique et actuelles, de partitions et d’ouvrages de musicologie, ainsi que par des archives musicales. Des collections numériques sont également proposées, que ce soit via la plateforme de livres numériques eLectures, ou d’autres plateformes, par exemple d’auto-apprentissage en ligne.

Au niveau des espaces et des services, le site Riponne propose une étendue horaire de 43 heures (guichets) et 79 heures (locaux) hebdomadaire du lundi au samedi ; elle offre 240 places de travail. De nombreuses manifestations culturelles y sont organisées, de même que des ateliers d'accompagnement aux outils proposés par la bibliothèque.

Alors qu'une extension est en cours de réalisation sur le site Unithèque avec des travaux qui débuteront en 2020, l'avenir du site Riponne est également en discussion. En effet, pour répondre aux départs successifs du Grand Conseil en avril 2017 puis du Musée cantonal des Beaux-Arts en 2018, qui avaient leurs locaux dans le Palais de Rumine, le Conseil d’Etat vaudois a mandaté les services concernés afin de réfléchir à l’utilisation future et au réaménagement du Palais de Rumine. En collaboration avec les musées cantonaux, la BCUL a poursuivi ses réflexions sur l’avenir de son site grand public et patrimonial au centre-ville de Lausanne. La volonté de la BCUL serait de proposer aux Vaudois une bibliothèque pleinement de son siècle, capable de suivre différents développements et de répondre aux nouvelles habitudes de consommation documentaire ainsi qu’aux nouvelles formes de sociabilité. Elle s’organiserait comme une bibliothèque connectée qui accompagne ses usagers dans la découverte des nouvelles technologies de l’information, une bibliothèque dans la cité ouverte à tous, un lieu d’apprentissage tout au long de la vie, une institution culturelle qui rapproche le livre et la culture du plus grand nombre. Cette nouvelle organisation de la BCUL site Riponne se traduirait par la mise à disposition d’espaces de convivialité et d’échanges, de salles polyvalentes pour la formation, la médiation et les partenariats, ainsi que de salles de travail en groupe et d’espaces de présentation de ses collections hybrides. Pour réaliser cette ambition, au service de la population vaudoise, la BCUL souhaiterait, dans un premier temps, utiliser les espaces libérés au sein du Palais de Rumine. A plus long terme, la progression démographique nécessitera la construction d’un bâtiment moderne et adapté, qui seul permettrait de répondre aux évolutions des besoins du public vaudois, ainsi qu’à la conservation adéquate du patrimoine vaudois dont elle a la charge, dans le cadre des « Lignes directrices de la politique culturelle vaudoise » (basé sur Bibliothèque cantonale et universitaire (Lausanne) 2017, p. 10).

Objectifs de l’enquête

Dans cette optique de changement et d’évolution, il était nécessaire que le site Riponne puisse sonder ses usagers et préciser ou vérifier leurs besoins et attentes en lien avec les locaux, les espaces et les prestations actuelles ou futures, ce afin de pouvoir fixer des orientations et stratégies pour les années à venir.

Concrètement, l'objectif de cette enquête était de pouvoir répondre aux questions suivantes:

  • quel est le profil des publics qui fréquentent le site Riponne de la BCUL?
  • pourquoi viennent-ils sur le site de la Riponne ?
  • quels sont leurs besoins en termes d'espace de travail et de services (hors prêt) ?

Les enquêtes à la BCUL

"[L'étude des publics] est riche d'enseignements, mais doit être intégrée à un projet plus global de pilotage d'un établissement et ne peut être une fin en soi" (Rosenberger, Chékib 2008). La BCU Lausanne, pour remplir au mieux sa mission d’intérêt public, effectue régulièrement des enquêtes afin de mesurer la satisfaction mais surtout répondre aux besoins et attentes de son public. Le plan directeur de la BCUL pour les années 2015-2020 prévoit ainsi, dans son plan d'actions, de "Conduire des enquêtes pour actualiser les connaissances sur les besoins et usages de ses divers publics" (Bibliothèque cantonale et universitaire (Lausanne) 2015).

Sur les sites académiques, une grande enquête avait été menée en 2011 et l’analyse avait été faite par Olivier Moeschler, présentée dans le numéro 13 de cette même revue (Moeschler 2012). Du côté du site Riponne, plusieurs enquêtes sectorielles ont été effectuées ces 10 dernières années : sur les manifestations culturelles organisées par la BCUL, en 2010, sur les non-usagers, en 2011, sur l’utilisation et les attentes relatives à l’offre numérique grand public, en 2012. La dernière enquête généraliste, quant à elle, remontait à 2008 (Wullyamoz 2008). Elle portait sur le profil, les pratiques et les attentes de son public.

Boîte à outils existante

La BCUL s'est dotée de plusieurs outils permettant la mise en place d’enquêtes de type quantitatif. À la suite des enquêtes de 2011, un groupe de travail a été mandaté par la direction pour traiter la question du monitoring des futures enquêtes. Ce travail a permis de valider des options et des principes de base pour l’élaboration et la mise en place des enquêtes. Il a principalement abouti à la création d’un guide interne de l’élaboration de questionnaires pour les enquêtes quantitatives, dont le but est de simplifier la rédaction de futurs questionnaires d’enquêtes, destiné à toute personne susceptible de mener ou participer à des enquêtes BCUL.

Ce guide a été élaboré à l’aide, notamment, du questionnaire réalisé pour l’enquête 2011 de la BCUL Dorigny (Moeschler 2012). Il propose une formalisation à la fois sur des questions de formulations (phrases introductives, nomenclature BCUL) que sur des modèles de questions selon les thématiques (fréquentation, notoriété, utilisation, satisfaction, attentes, etc.). Les questions des échelles de valeurs et celles portant sur le profil socio-démographique ont aussi été traitées, éléments indispensables pour pouvoir exploiter et comparer les résultats entre des enquêtes successives.

Conception de l'enquête

Méthodologie

L'existence de ce questionnaire-type ne devait pourtant pas nous limiter à une démarche identique. Encore fallait-il que nous utilisions le meilleur format possible pour obtenir des réponses aux questions que l'on se posait. Il s'agissait aussi de tenir compte des données déjà connues pour concentrer l'enquête sur ce qu'on souhaitait apprendre ou vérifier. Comme l'écrit Evans (2012), "une enquête de public ne se déploie jamais dans un espace vierge de toute information". Nous avons pris en compte les données du SIGB (Alma de Ex Libris) pour les statistiques de prêt ou les profils des emprunteurs. D'autres données locales ont également été collectées, comme les passages aux portillons antivol et les accès aux ordinateurs publics.

En définitive, le choix s'est porté sur une approche quantitative avec quelques questions ouvertes se rapprochant de l'entretien semi-directif. C'était la méthode qui nous permettait le mieux de faire des liens avec les résultats de l'enquête de 2008.

Elaboration / adaptation du questionnaire

Comme le point fort de l’enquête était lié aux questions d’espaces, un certain nombre de rubriques du questionnaire-type, plus directement liées à l’utilisation des collections, ont été omises, ainsi que celles dont les résultats pouvaient être obtenus par d’autres canaux (par exemple le volume d’emprunt). Des questions spécifiques ont été ajoutées, soit en lien avec des services et prestations introduites au cours des dernières années, soit en lien direct avec la problématique actuelle (priorité d’utilisation des espaces - plus de places de travail ou plus de collections, priorité d’action de développement, perception des bornes de prêt automatiques, etc.). Au final, le questionnaire totalisait 22 questions (Simonet, Bezençon, 2018, pp. 45 à 53). Il a été intégré à l'outil LimeSurvey, afin de faciliter sa passation ainsi que le suivi de l'avancée de l'enquête et l'exploitation des résultats.

Population de référence – échantillonnage

Le sujet de l’enquête a eu une influence sur la population de référence concernée. S'adresser par mail à tous les lecteurs BCUL ? Seule une partie d'entre eux sont usagers du site Riponne. Contacter les usagers ayant emprunté un document sur le site Riponne dans l'année en cours? Oui mais alors on ne touche pas les personnes qui utilisent nos prestations sans être inscrits respectivement sans emprunter de document.

La population de référence définie correspond à l’ensemble des personnes qui fréquentent le site Riponne de la BCUL. Le fait que la personne soit inscrite ou non n’était pas pertinent dans notre cas (on peut accéder aux places de travail, lire sur place la presse et les documents par exemple sans être inscrit). Le lieu d’habitation n’a pas non plus été un critère puisque nous supposions que nos visiteurs n'étaient pas tous lausannois (ce qui s'est vérifié).

L'échantillon, lui, ne visait pas à garantir une représentativité des usagers de la BCUL site Riponne de type quotas, qui n’aurait pas été adéquate pour ce type d’enquête (Evans 2011, p. 67). On a donc procédé par sondage aléatoire simple, en nous adressant aux usagers entrant dans la bibliothèque, en veillant à aborder tous les publics présents ces jours-là, pour éviter des biais comme par exemple interroger des usagers connus pour leur régularité ou leur intérêt pour la bibliothèque (Evans 2011, p. 63).

La mise en place et la phase terrain

Calendrier de l’enquête

Comme les besoins en espaces divergent au cours de l'année, l’enquête a été menée selon le principe des semaines test, 3x 1 semaine : la première fin mai, période où les étudiants sont présents en nombre pour réviser en vue de leurs examens, la deuxième en août, pendant les vacances scolaires, et la troisième en novembre, pour une période qu’on peut qualifier d’« ordinaire ». Chaque semaine, une présence de 50 à 75 heures a été organisée sur 6 jours, couvrant différents horaires de la journée, de l’ouverture à la fermeture des locaux.

Passation des questionnaires

Nous avons décidé de privilégier l'enquête via enquêteur, avec une passation de questionnaires administrés en face à face, afin de valoriser les échanges oraux et les réponses données aux questions ouvertes, en se rapprochant pour ces dernières de la technique des entretiens directifs. Comme le signale Evans (2011, pp. 67-68), le recours à des enquêteurs formés et encadrés est préférable à la simple distribution de questionnaires. « La sollicitation de l’enquêteur permet […] d’expliquer l’intérêt de l’enquête, son contexte et ses modalités bien plus sûrement et efficacement que toutes les introductions écrites figurant sur un questionnaire. L’enquêteur peut aussi motiver à répondre les personnes ayant certaines réticences à se prêter au jeu […]» .

Les entretiens ont été menés par plusieurs collaborateurs volontaires, ainsi que par des étudiants de l'Unil par ailleurs déjà engagés sur le site en tant que surveillants ou pour des tâches de classement. Comme cela a également été organisé dans l'enquête genevoise (Sardi, Aellig 2017), des réunions d’information des enquêteurs ont permis d’expliquer le contexte et les objectifs de l'enquête, de passer en revue la structure du questionnaire, discuter des modes de contact et des aspects pratiques. Un document a été mis à disposition des enquêteurs et un suivi a été proposé tout au long des trois semaines concernées.

Après quelques jours, nous avons également distribué une version papier du questionnaire afin de toucher les visiteurs pressés (en particulier le public étudiant employé fin mai à réviser). Ces questionnaires ont été remplis de manière auto-administrée, retournés dans une boîte à suggestions puis introduits dans le logiciel.

Données récoltées

Nous nous étions fixé un objectif en terme de nombre de retours qui s’est avéré trop optimiste. Notre calcul se basait sur le nombre d’enquêteurs x le temps consacré avec une moyenne de 15 minutes par questionnaire. Dans la pratique, il s’est avéré que certaines heures étaient plus creuses que d'autres et que si 3 enquêteurs étaient présents simultanément ils ne pouvaient pas contacter plus de lecteurs qu’il y en avait de disponibles dans nos locaux. D’autre part même si la réception des usagers était souvent positive, certains n'ont pas souhaité participer à l'enquête. Enfin, certaines personnes interviewées étaient intarissables sur ce qu’elles souhaitaient nous transmettre, et les 15 minutes calculées en test se sont parfois transformées en 30 minutes ou plus.

Au final, nous avons récolté 462 retours (189 en mai, 104 en août et 169 en novembre). La taille de l'échantillon est similaire à celle de l'enquête de 2008 qui avait produit 465 réponses.

Principes dans le traitement et l'exploitation des résultats

Les données récoltées dans Limesurvey ont été ensuite exportées et traitées dans Excel. Afin de vérifier certaines hypothèses en termes d'usages, l'échantillon complet a été divisé, pour comparaison, en deux sous-groupes : celui des apprenants (dont l'activité actuelle était "en formation") et les autres (à savoir les personnes ayant mentionné être en emploi, recherche d'emploi, retraité ou rentier, homme/femme au foyer ou autre). Lors de l'analyse, les résultats ont été comparés lorsque c'était possible avec ceux des enquêtes précédentes et aux chiffres obtenus par d'autres canaux.

Analyses des résultats

Parmi la vingtaine de questions posées dans cette enquête, il nous a paru intéressant de faire ressortir ici trois analyses qui nous semblent plus particulièrement significatives pour d’autres professionnels.

Public assidu

Le premier élément qui nous a frappé et réjoui à la lecture des résultats est la fréquence des visites de nos usagers. En effet, ceux-ci montrent que 25% des usagers interrogés nous visitent plus d’une fois par semaine, ce taux monte à 44% si on ajoute ceux qui viennent une fois par semaine.

Cela signifie que pour une personne sur quatre qui entre dans notre bibliothèque tous les jours, le site Riponne est un lieu qui a intégré sa vie quotidienne. La BCUL, site Riponne, fait partie de ses habitudes et de son environnement familier. En cela, nous nous rapprochons du concept de « third place » décrit par le sociologue Ray Oldenburg en 1989 et adapté en français aux bibliothèques par Mathilde Servet (2010) : « Ainsi, [le troisième lieu] procure aux individus un ancrage physique autour duquel s’articule leur existence quotidienne […] ». Alors que notre bibliothèque n’est pas le prototype-même de la « bibliothèque troisième lieu » telle que décrite dans cet article, force est de constater que, de fait, elle en est un pour une partie très importante de nos usagers.

Ce sentiment est conforté par le fait que 66% des usagers nous rendent visite plus d’une fois par mois, soit plus fréquemment que la durée standard d’un prêt de 28 jours. Il y a donc un attrait qui dépasse simplement le service de prêt de documents.

A noter que ces proportions restent les mêmes également lorsqu’on se focalise sur les réponses des personnes en formation – qu’on aurait pu imaginer a priori venir fréquemment pour utiliser des places de travail – ou sur celles venant des usagers qui ne le sont pas.

Si l’on compare ces chiffres avec d’autres institutions ayant récemment mené ce genre d’enquêtes, on constate que le taux de personnes les visitant plusieurs fois par semaine est généralement largement inférieur. Dans l’étude sur les usages des bibliothèques du Département de la culture et du sport (DCS) de la Ville de Genève (Sardi, Aellig 2017), tout comme dans l’étude sur les bibliothèques municipales en France (Ministère de la Culture (France) 2017), ce taux s’élève seulement à 3%. Ces différences importantes peuvent s’expliquer au moins partiellement par la méthode de récolte des réponses. Dans notre cas, nous avons très largement privilégié des interviews sur site en vis-à-vis. Dans ces deux études, des entretiens ont également été menés par questionnaire et par téléphone pour arriver à une représentativité des publics des bibliothèques concernées. Notre enquête s’intéressant prioritairement aux personnes se rendant physiquement sur notre site, nous aurons logiquement moins capté les usagers moins actifs.

Public non-cloisonné

Dans notre site grand-public et patrimoine faisant partie d’une bibliothèque cantonale et universitaire, nous avons la tendance arbitraire à vouloir cloisonner notre public entre les étudiants d’un côté, qui passent leur temps à des places de travail et qui n’utilisent pas ou peu les ressources documentaires de la bibliothèque, et les autres (en emploi, au foyer, à la retraite, au chômage, etc.) qui empruntent sans jamais vraiment s’arrêter pour « bouquiner ».

Un des enseignements que l’on peut tirer des réponses des usagers va justement à l’encontre de cet a priori. D’abord seuls 18% ne viennent que pour emprunter (9%) ou que pour les besoins de leur formation (9%) (Simonet, Bezençon 2018, p. 17). L’énorme majorité des répondants a donc plusieurs objectifs de visite. Ensuite, la différentiation entre lecture loisirs et d’accompagnement de l’apprentissage n’est pas nette. En effet, près de 60% de toutes les personnes interrogées citent la lecture loisirs dans les usages des documents empruntés ou consultés et 72% se documentent sur des sujets qui les intéressent ou dans le cadre de leur formation. Aucun des deux publics n’a d’usage exclusif pour l’un ou l’autre. Par exemple, plus d’un étudiant sur quatre emprunte également pour ses loisirs (p. 29) et 61% du public non-apprenant utilisent les documents à des fins de formations personnelles, de documentation ou d’auto-formation.

Là où la différence d’usage est la plus marquée, c’est probablement dans l’usage de places de travail. Les ¾ des étudiants les utilisent à pratiquement chacune de leurs visites. Ils ne sont que 6% à ne jamais les utiliser, alors que la moitié des personnes qui ne sont pas en formation n’utilisent jamais ces places. Mais en conclure que seuls les apprenants utilisent ces places serait un raccourci trop rapide car ¼ des personnes non-apprenantes les utilisent à chacune de leur visite. Ce n’est pas négligeable (p.28).

La comparaison avec les bibliothèques de la Ville de Genève est intéressante. En effet, dans cette étude, les raisons de la fréquentation des bibliothèques municipales sont à 89% liées aux loisirs et seulement 24% pour des raisons professionnelles et 16% pour de la formation personnelle (Sardi, Aellig 2017, p. 41). A l’inverse, à l’exception de la Bibliothèque La Musicale, les usagers des bibliothèques scientifiques de la Ville de Genève invoquent des raisons professionnelles ou de formation pour plus de 80% et de loisirs pour plus de 30% (p. 69). Cela veut dire que le public apprenant du site Riponne a le même genre d’usage que les usagers des bibliothèques scientifiques et patrimoniales genevoises, mais que notre public non-apprenant ne peut pas se comparer à celui quasi exclusivement porté sur les loisirs des bibliothèques municipales grand-public genevoises. Cela revient à confirmer l’utilité et le rôle d’institution formatrice de la BCU Lausanne.

Public conservateur

Le troisième constat qu’il nous semblait important de partager, c’est une caractéristique que nous avons également retrouvée à la lecture du rapport d’enquête du DCS (Sardi, Aellig, 2017) : le public de nos bibliothèques semble être assez conservateur. Cela transparait dans les réponses à plusieurs questions.

En effet, à la question libre « Quel est à votre avis le rôle principal d’une bibliothèque aujourd’hui ? » (Simonet, Bezençon 2018, p. 40) – notez que cette question ne concernait pas que la BCU Lausanne mais les bibliothèques au sens large – 55% des personnes y ayant répondu évoquaient l’accès à la culture, à la documentation ; 31% l’offre d’un lieu de travail et 23% la richesse des collections. « Pouvoir prendre un livre dans les mains » ou « Rendre accessible tout support à toutes les couches sociales » (Simonet, Bezençon 2018, p. 40) sont des exemples concrets des réponses obtenues. Ce sont presque systématiquement des services traditionnels de bibliothèques qui sont évoqués.

Ce constat est le même pour les bibliothèques de la Ville de Genève concernant les attente vis-à-vis de ces bibliothèques : « Quatre attentes qui sont selon nous le « cœur de métier » ou la « fonction première » de la bibliothèque occupent nettement le haut du classement totalisant plus de 77% des mentions » (Sardi, Aellig 2017, p. 56) ou pour les bibibliothèques et médiathèques du Val d’Oise : « Nombreuses sont les personnes interrogées qui continuent à conférer à la bibliothèque une symbolique culturelle de changement social, d’éveil, de savoir et d’information. » (Conseil général du Val d’Oise, 2012, p. 64).

La même réflexion peut être faite lorsqu’on analyse les questions liées à l’ouverture des guichets (Simonet, Bezençon 2018, p. 38) ou l’usage de bornes de prêt automatique (p. 39) : le statu quo est satisfaisant.

Il semble donc bien que ce n’est pas du côté des usagers que nous trouverons des propositions disruptives pour placer les bibliothèques dans un nouveau paradigme de leurs interactions avec leurs publics. Si elles veulent se renouveler, les bibliothèques doivent essayer, innover et créer des besoins dont leurs usagers n’ont peut-être pas conscience. Ce n’est en tout cas pas d’eux que va venir spontanément le changement.

Quelques exemples de résultats d’intérêt plus local

Outre ces 3 éléments d’analyses importants issus de cette enquête, on peut encore proposer deux considérations intéressantes mais avec une portée peut-être plus limitée :

Satisfaction

La satisfaction générale envers le site Riponne de la BCUL est bonne avec une note moyenne de 5.9/7 (93% de l’échantillon donne une note supérieure ou égale à 5). Un ensemble de questions de satisfaction ayant trait plus spécifiquement à différents aspects de notre bibliothèque ont été posées avec des notes sur 7 allant de 5.6 pour le confort à 6.5 pour l’évaluation de la compétence des collaborateurs. Il est par contre intéressant de noter que les étudiants notent généralement plus sévèrement que les autres répondants tous les différents critères. Est-ce que cette relative intransigeance est liée au statut d’étudiant ou à une question de génération ? Cette enquête ne peut malheureusement pas y répondre.

L’étude des usagers des bibliothèques municipales et scientifiques genevoises montre également une satisfaction globale très bonne (98% d’usagers très satisfaits ou plutôt satisfaits) avec une satisfaction encore plus grande chez les personnes fréquentant les bibliothèques depuis longtemps et les personnes les plus âgées (Sardi, Aellig 2017, p. 53). C’est peut-être un début de réponse.

A noter que dans les bibliothèques municipales françaises, un taux de satisfaction générale de 82% à 91% est constaté (Ministère de la Culture (France) 2017, p. 54)

Connaissance des services spécifiques

Nous avons soumis les personnes interrogées à des questions portant sur leurs connaissances de l’existence de cinq prestations différentes allant de notre service de prêt de e-books eLectures au fait qu’une majorité de nos collections empruntables sont stockées dans des magasins fermés. La question était posée de savoir s’ils connaissaient ce service, s’ils l’utilisaient ou dans le cas où ils ne le connaissaient pas, s’ils étaient intéressés par un tel service.

Cette question nous a permis de conclure que même avec une communication adéquate (les usagers en ont déjà entendu parler), leur matérialisation et leur localisation dans le libre-accès ont une importance pour convertir les usagers à ces services. Autrement dit, les services uniquement en ligne souffrent de ne pas avoir de présence physique pour convertir à leur utilisation des gens qui pourraient être intéressés.

Groupe de travail

Une fois l’analyse des résultats et le rapport (Simonet, Bezençon 2018) validés par le Conseil de direction de la BCUL, un groupe de travail a été constitué afin de conclure le travail autour de cette enquête. Ce groupe de travail s’est composé de 5 collaborateurs ayant différentes fonctions dans l’institution : deux responsables de collection, une personne de l’équipe des renseignements, un collaborateur du prêt et une stagiaire du prérequis au Master de la HEG. Les discussions ont été menées par les deux responsables de l’enquête.

Ce groupe de travail s’est réuni avec 3 objectifs :

-          Exploiter l’analyse et les conclusions de l’enquête.

Le but premier de cette enquête était de mieux percevoir les besoins de nos usagers, c’est pourquoi le rapport d’enquête a été proposé pour validation avant la mise sur place de ce groupe. Mais il paraissait évident que nous devions ensuite prendre acte de ses conclusions et proposer des améliorations dans la configuration actuelle de la bibliothèque et dans le cadre d’une éventuelle extension de nos locaux dans la Palais de Rumine.

-          Montrer à nos usagers une réactivité.

Après avoir passé une quinzaine de minutes avec plus de 400 usagers, il nous paraissait normal de ne pas simplement diffuser un rapport mais de pouvoir, par la suite, communiquer sur des actions à venir.

-          Autocritique.

Ce genre d’exercice d’analyse en profondeur et en groupe de travail permet aussi de faire ressortir encore des éléments qu’il aurait été intéressant de voir évoquer avec les usagers – par exemple, la durée de chaque visite qui aurait complété notre perception des besoins en équipement des places de travail – ou des imprécisions qui n’auraient pas été perçues au moment de l’enquête – c’est le cas notamment d’une question demandant les autres institutions visitées durant l’année écoulée au Palais de Rumine sans demander la fréquence de ces visites, ce qui ne permet pas de savoir si le site Riponne de la BCUL est la raison principale de la visite dans le Palais de Rumine. C’est donc également une base de connaissance importante à exploiter pour la constitution éventuelle de focus group.

Déroulement

Ce groupe de travail s’est réuni à trois reprises pour des séances de 2 heures environ.

La première session a pris la forme d’un brainstorming où les participants inscrivaient des mots-clés inspirés de leur lecture du rapport d’analyse. Cet exercice a permis de thématiser les notes d’étonnement rapportées et de rapidement les différencier entre celles découlant sur des propositions d’actions et celles devant fournir des lignes directrices sous-tendant les réflexions stratégiques de l’institution. Les notes au sein de ces deux catégories ont ensuite été regroupées en thématique pour continuer de structurer le travail : fonctionnalités des espaces et équipement, mise en valeur des collections et services, pour les propositions d’actions ; et nouveaux publics/fidélisation, attentes des publics et institution pour les éléments de réflexion stratégique.

Les deuxième et troisième séances ont servi à concrétiser en propositions d’actions ces notes et d’évaluer ensuite la temporalité de ces actions : faisables rapidement avec les ressources adéquates mais limitées (par exemple, proposer des places de travail en groupe ou augmenter le nombre de prises électriques) ou à proposer dans le cadre d’une éventuelle extension car impliquant parfois des travaux d’aménagement trop conséquents pour être imaginés immédiatement (création d’une cafétéria ou augmentation du nombre de places de travail).

Les notes portant sur des aspects stratégiques – difficilement transposables en actions à l’échelle d’un seul site – ont été reformulées et seront transmises au Conseil de direction.

Ce qui en ressort

Au moment où un point final est mis à ce retour d’expérience, les responsables de cette enquête sont en cours de rédaction d’une note interne destinée au Conseil de direction de la BCUL reprenant les notes sur des aspects stratégiques ainsi que les propositions d’actions et les mettant en contexte par rapport aux analyses issues de l’enquête.

Pour ce faire, les actions seront présentées dans un tableau décisionnel précisant pour chaque action : ce qui existe déjà, ce qui doit être fait, quelles ressources engagées et la temporalité proposée. Ce sont les critères qui permettront à la Direction de se positionner et de valider ou non ces actions.

Conclusion

En se reportant aux objectifs de l’enquête décrits au début de cet article, il est possible d’affirmer qu’ils ont été remplis et qu’ils donnent les éléments de réponse attendus par la Direction. Cette enquête a ainsi permis de confirmer un attachement à la bibliothèque par ses usagers ainsi que de mieux cerner leurs attentes et leurs profils.

Les résultats à proprement parler sont positifs car ils montrent qu’un public assidu constitue un socle important de nos usagers et que ceux-ci sont généralement satisfaits de l’environnement offert par le site Riponne. Cela dit, le fait qu’il ressorte que de catégoriser les usagers comme étudiants – donc non emprunteur uniquement intéressé par des places de travail – d’un côté et non étudiants – donc emprunteur mais n’occupant pas de place de travail – de l’autre est une généralisation abusive car il apparaît une mixité plus grande qu’imaginée entre les usages travail et loisirs. Cela sonne un peu comme un rappel à l’ordre.

Au-delà des résultats présentés ici et dans le rapport à la direction, une enquête de ce type a surtout permis une prise de contact directe avec nos usagers. Nous avons mené plus de 400 entretiens individuels d’une durée moyenne de 15 minutes avec eux. Cela représente plus de 2 semaines de travail cumulé de tête à tête avec nos usagers. C’est précieux pour les réponses factuelles aux questions posées mais aussi pour « prendre le pouls » de ceux-ci et pour les échanges indirects qu’elles ont générées.

Pour terminer, l’analyse des données et les discussions dans le groupe de travail ont confirmé le besoin de voir ces actions d’enquête menées régulièrement et comparées entre elles pour percevoir l’évolution des usages des publics de bibliothèque que ce soit sur un même site ou entre les sites. Cette répétition permet aussi de mesurer l’impact des changements dans l’environnement des bibliothèques que ce soit dû à des changements technologiques ou à des travaux d’importance.

Bibliographie

BIBLIOTHEQUE CANTONALE ET UNIVERSITAIRE (LAUSANNE), 2015. Plan directeur 2015-2020. Document interne à l’entreprise

BIBLIOTHEQUE CANTONALE ET UNIVERSITAIRE (LAUSANNE), 2018. Rapport annuel 2017 [en ligne]. Lausanne : Bibliothèque cantonale et universitaire. [Consulté le 12.08.2019]. Disponible à l’adresse : https://www.bcu-lausanne.ch/wp-content/uploads/2018/06/20180523_RA2017-BCUL_a.pdf

BIBLIOTHEQUE CANTONALE ET UNIVERSITAIRE (LAUSANNE), 2019. Rapport annuel 2018 [en ligne]. Lausanne : Bibliothèque cantonale et universitaire. [Consulté le 12.08.2019]. Disponible à l’adresse : https://www.bcu-lausanne.ch/wp-content/uploads/2019/05/20190513_RA2018-BCUL_final_web.pdf

CONSEIL GENERAL DU VAL D’OISE, 2012. Les facteurs de réussite des bibliothèques et médiathèques publiques : rapport d’enquête [en ligne]. Mars 2012. [Consulté le 20.08.2019]. Disponible à l’adresse : https://www.enssib.fr/bibliotheque-numerique/documents/67011-les-facteurs-de-reussite-dans-une-bibliotheque-de-lecture-publique.pdf

ETAT DE VAUD. Service des affaires culturelles – SERAC. Lignes directrices de la politique culturelle vaudoise : présentation des lignes directrices de la politique culturelle du Canton de Vaud dans le cadre de la législature 2017-2022 selon la Loi sur la vie culturelle et la création artistique du 8 avril 2014, art. 5 al. 2. [Parution le 24.06.2019]. [Consulté le 12.08.2019]. Disponible à l’adresse : https://www.vd.ch/fileadmin/user_upload/accueil/fichiers_pdf/2019_juin_actus/Lignes_directrices_de_la_politique_culturelle_vaudoise_24_06_19.pdf

EVANS, Christophe (dir.), 2011. Mener l’enquête : guide des études de publics en bibliothèque [en ligne]. Villeurbanne : Presses de l’enssib. [Consulté le 12.08.2019]. La boîte à outils, 22. Disponible à l’adresse :  https://books.openedition.org/pressesenssib/563

EVANS, Christophe, 2012. Panorama des enquêtes de public en bibliothèque : mettre en œuvre la bonne démarche et choisir le bon outil. In : ALONZO, Valérie et RENARD, Pierre-Yves (dir.). Evaluer la bibliothèque [en ligne]. Paris : Ed. du Cercle de la librairie, pp. 45-63. [Consulté le 12.08.2019]. Collection Bibliothèques. Disponible à l’adresse : https://www.cairn.info/evaluer-la-bibliotheque--9782765413738-page-45.htm# [accès par abonnement]

MINISTERE DE LA CULTURE (FRANCE). Direction générale des médias et des industries culturelles, 2017. Publics et usages des bibliothèques municipales en 2016. [Parution le 16.6.2017]. [Consulté le 16.07.2019]. Disponible à l’adresse : http://www.culture.gouv.fr/Thematiques/Livre-et-Lecture/Actualites/Enquete-sur-les-Publics-et-les-usages-des-bibliotheques-municipales-en-2016

MOESCHLER, Olivier, 2012. Les publics d’une bibliothèque universitaire et leurs usages : logiques statutaires, cultures disciplinaires et le rôle du genre. RESSI [en ligne]. Décembre 2012. N° 13. [Consulté le 12.08.2019]. Disponible à l’adresse : http://www.ressi.ch/num13/article_085

ROSENBERGER, Maïa et CHEKIB, Vincent, 2008. Mener une étude de publics : fiche pratique [en ligne]. Villeurbanne : ENSSIB. Mis à jour le 23.01.2014 [Consulté le 12.08.2019]. Disponible à l’adresse : https://www.enssib.fr/bibliotheque-numerique/documents/1755-mener-une-etude-de-publics.pdf

SARDI, Massimo et AELLIG, Urs, 2017. Etude sur les usages des bibliothèques du Département de la culture et du sport de la Bille de Genève – enquête auprès des usagers actifs et des non-usagers [en ligne]. Sur mandat du Département de la culture et du sport – Unité Publics et promotion, Ville de Genève. LINK Institut, étude n° 16.0465. Rapport d’étude. 8 juin 2017. [Consulté le 16.07.2019]. Disponible à l’adresse : http://www.ville-geneve.ch/fileadmin/public/Departement_3/Rapports/bibliotheques-geneve-rapport-2017.pdf

SERVET, Mathilde, 2010. Les bibliothèques troisième lieu : une nouvelle génération d’établissements culturels. Bulletin des bibliothèques de France [en ligne]. Juillet 2010. n°4, p. 57-63. [Consulté le 16.07.2019]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2010-04-0057-001

SIMONET CHATTON, Françoise et BEZENÇON, Christophe, 2018. Enquête 2018 sur les besoins non documentaires du public du site Riponne de la BCUL [en ligne]. Bibliotheque cantonale et universitaire – Lausanne. [Consulté le 16.07.2019]. Disponible à l’adresse : https://blog.bcul.ch/wp-content/uploads/2019/05/Rapport_EnqueteRiponne2018_publ.pdf

WULLYAMOZ, Jean-François, 2008. La BCU/Riponne et son public : profil, pratiques et attentes. Document interne à l’entreprise Bibliothèque cantonale et universitaire – Lausanne

Alignement et enrichissement des données de l’inventaire d’un fonds d’archives en Linked Open Data: le cas du Montreux Jazz Digital Project

Alignement et enrichissement des données de l’inventaire d’un fonds d’archives en Linked Open Data: le cas du Montreux Jazz Digital Project

Introduction

La rédaction du présent article fait suite à la réalisation d’un travail de bachelor effectué dans le cadre de la formation en Information documentaire de la Haute Ecole de gestion de Genève (HEG-GE). Il est question dans ce travail de présenter brièvement la synthèse de quelques résultats obtenus lors de l’alignement et de l’enrichissement de jeux de données extraits de la base de données relationnelle du Montreux Digital Project (MJDP) avec la plateforme Wikidata. Cet article comporte également une revue de la littérature et un compte rendu des diverses méthodes expérimentées au cours du travail de bachelor. Il tente d’apporter une solution pratique à la problématique de l’alignement d’un jeu de données vers un collaborative knowledge graph.

Le cadre de cette étude est le MJDP du MetaMedia Center (MMC) de l’Ecole polytechnique fédérale de Lausanne (EPFL). Depuis 2010, ce centre multidisciplinaire a été mandaté par la fondation Claude Nobs, propriétaire des archives audiovisuelles du Montreux Jazz Festival (MJF) et l’EPFL pour la numérisation, la gestion et la valorisation du fonds d’archives. Depuis l’ouverture du centre, plus de 35 projets externes au MMC ont été réalisés à partir des données et des documents audiovisuels du fonds du MJDP. Ces différents projets ont participé activement à la valorisation des archives du MJF auprès d’un large public (Dufaux & Amsallem, 2017 ; 2019).

Le choix de réaliser un alignement vers Wikidata a principalement été motivé par la grande diversité des concepts décrits et par les nombreux outils disponibles pour le transfert, le traitement et la valorisation des données sur la plateforme. L’impact mondial de Wikidata et la réactivité de la communauté d’utilisateurs concernant la curation des contenus ont été des arguments supplémentaires en faveur de ce choix.

Revue de la littérature

Wikidata est une plateforme de crowdsourcing ou collaborative knowledge graph, créée en 2012 par Denny Vrandečić et la communauté du chapitre allemand de la fondation Wikimédia. L’objectif principal de la plateforme est d’offrir un répertoire centralisé des données pour les projets de Wikimédia. Selon Denny Vrandečić (Vrandečić, 2013 : p. 90), les principales caractéristiques du projet Wikidata comprennent :

  • Un accès libre aux données partagées facilitant la diffusion et réutilisation sous licence Creative Commons CC0.
  • Une édition libre et participative autogérée par les membres de la communauté d’utilisateurs de la plateforme.
  • La création, l’édition, la recherche et la réutilisation de données multilingues.
  • La possibilité de conserver une ambiguïté de sens dans la description des concepts sur la plateforme.
  • La réutilisation des données grâce à l’utilisation de données structurées.
  • La centralisation et l’homogénéisation des concepts décrits dans d’autres projets de la fondation Wikimédia.

Un workflow édité par la communauté GLAM (galleries, libraries, archives and museums) de Wikimédia documente les principales étapes nécessaires à un transfert de données vers les plateformes Wikimedia Commons et Wikidata (GLAM/Resources/Data and media partnerships workflow, 2019). Ce processus est découpé en quatre lots de tâches. Il s’agit des étapes intitulées pré-chargement, chargement, après-chargement et impact.

WikiProject Music (Wikidata:WikiProject Music, 2019) est un projet collaboratif et thématique de Wikidata. Le projet référence les bases de données documentaires et commerciales relatives au domaine de la musique. Une liste des identifiants des propriétés alignés avec la plateforme est régulièrement mise à jour par les membres du projet.

L’API Wikidata reconciliation (Wikimedia toolforge, sans date a) rend possible, du côté client, la réalisation de deux scénarios sur les cinq décrits par Delpeuch (Delpeuch, 2019 : p. 11). Le premier scénario s’apparente au Current OpenRefine reconciliation API proposé par Delpeuch (2019). Dans ce scénario, aucun transfert préalable de données vers une plateforme de crowdsourcing n’est nécessaire afin d’accomplir un alignement vers Wikidata. Le client réalise l’alignement des données directement depuis un poste de travail en local. Les logiciels open source OpenRefine ou l’interface OntoRefine (Ontotext, sans date) du logiciel de base de données de graphe GraphDB peuvent être utilisés afin d’accomplir cette opération.

Le second scénario (Server-side dataset matching) est applicable une fois les données transférées vers Wikidata. L’outil Mix’n’match offre la perspective d’un alignement automatique et/ou manuel par le crowdsourcing des membres de la communauté de Wikidata. Selon Zeng, cet outil constitue une source importante de données culturelles authentifiées (Zeng, 2019 : p. 12). Piscopo et al. (2017 : p. 544) définissent trois principaux types d’autorité sur Wikidata : il s’agit des types individuals (une ou plusieurs personnes directement identifiables), organisations (une entité directement identifiable) et collective (un groupe d’utilisateurs identifié uniquement par son nom d’utilisateur). Le dernier type n’est pas considéré à proprement parler comme une source d’autorité selon Piscopo et al. (2017), puisque les auteurs ne sont pas directement indentifiables. Les résultats obtenus par Piscopo et al. montrent que les institutions GLAM représente 15 % des contributions au référencement de sources dans les publications de Wikidata. La répartition de cette contribution est assurée par des humains (7,7 %) ou à l’aide de robot indexeur (11,9 %). Les agences gouvernementales arrivent en tête des contributions sur la plateforme avec 37,7 %.

Le transfert des jeux de données vers Wikidata peut s’effectuer de manière asynchrone ou synchrone. L’outil QuickStatements (Wikimedia toolforge, sans date b) permet directement le transfert asynchrone d’un lot de données depuis un navigateur web. Le logiciel PAWS: A Web Shell (PAWS) (PAWS, 2019) comprend un éditeur de texte enrichi en langage Markdown et offre la possibilité d’éditer des codes sources en langage python. Cet outil a été développé à partir du modèle de notebook Jupyter et offre la possibilité d’effectuer une synchronisation directe des données depuis une base de données relationnelle en local. Cependant, ce cas d’utilisation est réalisable suite à l’ajout des plusieurs librairies comme décrit sur la page du projet : https://wikitech.wikimedia.org/wiki/PAWS

L’alignement des jeux de données d’un catalogue en local vers Wikidata est décrit dans une preuve de concept réalisée par Allison-Cassin et Scott (2018). Les fonctions proposées par cette preuve de concept sont : l’interrogation distante, l’enrichissement et l’affichage des données relatives à un individu. L’exemple proposé permet d’afficher, à partir du nom et du rôle d’un musicien, différents champs qui incluent le prénom, le nom, la photo, le rôle, l’instrument, le lieu d’origine, les adresses de contacts (site web, réseaux sociaux) et l’identifiant de l’entité Wikidata. De plus, un court extrait résume le contenu de la page anglaise de Wikipédia relative au musicien. Le code source de cette preuve de concept est téléchargeable à partir d’un répertoire Github : https://gitlab.com/denials/wikidata-music-infocard

Alignement et enrichissement des données

La première étape de la méthodologie présentée dans cet article comprend un état des lieux exhaustif de la typologie des documents et des données du MJDP. Cette étape propose la création de trois inventaires distincts comprenant les supports physiques, les formats des enregistrements numériques et les types de données de la base de données. L’analyse des documents et des données permet la création d’une liste de critères quantifiables et non quantifiables du fonds vers Wikidata.

Les risques liés à une fausse manipulation sur la base de données de production sont réduits grâce un export des jeux de données en langage SQL. Le fichier exporté est analysé sur un poste de travail en local à l’aide du logiciel open source MAMP. Ce logiciel permet l’émulation d’un serveur web Apache exploitant le système de gestion de base de données relationnelle (SGBDR) MySQL. Les opérations d’extraction, de transformation et de chargement (ETL) sur les données sont effectuées à partir de l’interface phpMyAdmin.

La seconde étape de ce travail concerne la recherche, le choix et la création d’une liste d’identifiants d’API de bases de données musicales alignés avec Wikidata. Le projet WikiProject Music répertorie un large choix d’identifiants de propriétés concernant cette thématique sur Wikidata. Cependant, il existe une liste complète des identifiants des propriétés de Wikidata répertoriant les différents concepts décrits sur la plateforme :
https://www.wikidata.org/wiki/Wikidata:Database_reports/List_of_properties/all

La troisième étape propose l’application pratique des critères quantifiables et non quantifiables au schéma de la base de données du MJDP. La sélection des tables et des colonnes du MJDP est effectuée, à la suite de trois tours de choix. Ensuite, les colonnes sélectionnées sont reportées dans un tableau en fonction des propriétés sélectionnées manuellement dans l’étape précédente.

La quatrième étape propose l’export en format CSV d’un échantillon des colonnes sélectionnées. Les échantillons exportés sont importés dans la base de données de graphe à partir de l’interface OntoRefine du logiciel GraphDB.

La cinquième étape concerne l’alignement des colonnes importées avec les données disponibles sur la plateforme Wikidata et/ou en provenance d’autres bases de données externes. L’alignement des données est effectué dans l’interface OntoRefine à l’aide de l’API Wikidata reconciliation.

L’interface OntoRefine propose deux cas d’utilisations pour l’alignement vers Wikidata. Le premier cas d’utilisation prévoit l’interrogation directe de l’API Wikidata reconciliation afin de choisir automatiquement et/ou manuellement l’identifiant d’une entité (Qxxx) Wikidata. Il s’agit ensuite de valider l’identifiant se rapprochant le plus sémantiquement des valeurs comprises dans la colonne proposée par l’API. Le second cas d’utilisation est accessible une fois que la colonne est alignée avec Wikidata. Ce deuxième cas d’utilisation offre la possibilité d’ajouter un ou plusieurs identifiants de propriétés (Pxxx) Wikidata aux valeurs comprises dans la colonne.

Le dernier cas d’utilisation concerne l’alignement à partir d’une ou plusieurs colonnes comportant des jeux de données disponibles en local. Le but de cette opération est de contextualiser la valeur du terme recherché. Cette colonne est introduite à l’aide de l’identifiant d’une propriété Wikidata. Ce cas d’alignement est appliqué aux données concernant le nom d’un musicien joint avec les valeurs des instruments de musique décrits dans la base du MJDP. Une fois les données authentifiées et validées par l’utilisateur, les colonnes sont exportées et sauvegardées dans des fichiers CSV séparés. Les fichiers CSV alignés peuvent être ensuite transférés directement vers Wikidata avec l’outil QuickStatements.

La dernière étape de cette méthodologie concerne l’enrichissement des données du fonds MJDP en local comme décrit par la preuve de concept d’Allison-Cassin et Scott (2018). Cet enrichissement est obtenu grâce aux données collectées avec l’API du Wikidata Query Service : https://query.wikidata.org . La preuve de concept est modifiée au niveau des balises html auxquelles sont ajoutés les jeux de données exportés de la base de données du MJDP. Le code source de la requête SPARQL compris dans le fichier javascript est également adapté en fonction de notre besoin.

Résultats

Les inventaires réalisés ont permis d’établir une liste de 27 critères différents correspondant à la répartition suivante : 18 critères quantifiables et 9 critères non quantifiables (tableau 1). 19 identifiants de propriétés de bases de données spécifiques au domaine musical ont été sélectionnés à partir des sources consultées. Des 27 critères définis initialement pour l’évaluation du fonds, 5 critères ont été retenus pour le regroupement pratique des tables de la base de données du MJDP.

Tableau 1 : Liste des critères non quantifiables

Le résultat de l’évaluation du fonds du MJDP a permis de faire émerger un total de 9 colonnes de type chaîne de caractère distribué dans 8 tables, soit 5% des 160 tables de la base de données du MJDP. La taille de l’échantillon comprenant les noms des musiciens exportés de la base de données du MJDP est composé d’un total de 29’554 lignes.

Dans l’interface OntoRefine, l’alignement automatique de la colonne concernant les données d’un musicien (nom, prénom, pseudonyme, initiales) a été identifié par l’API Wikidata reconciliation comme appartenant à l’identifiant de l’entité human (Q5) de Wikidata. La colonne incluant des intitulés d’instruments de musique a été jointe à la colonne contenant les données de musicien avec l’identifiant de la propriété P1303 (instrument de musique).

A la suite du premier alignement de la colonne avec Wikidata, le second alignement montre que l’identifiant de la propriété MusicBrainz artist ID (P434) possède une occurrence avec 90% des valeurs des résultats. Ce résultat s’élève à 30% pour les propriétés Discogs artist ID (P1953) et AllMusic artist ID (P1728).

La figure 1 illustre un extrait du résultat de l’enrichissement des données obtenues à partir du nom de deux musiciens de la base de données du MJDP. On observe dans ce résultat que les identifiants des propriétés MusicBrainz artist ID, Discogs artist ID et AllMusic artist ID ont été ajoutés à la requête SPARQL du code source du fichier javascript de la preuve de concept d’Allison-Cassin et Scott (2018).

Figure 1 : Résultats de l’enrichissement des données du MJDP avec Wikidata


Discussion des résultats

L’utilisation d’un nombre restreint de critères quantifiables et non quantifiables semble être une stratégie à privilégier afin de gagner en efficacité dans l’évaluation. Une classification avec une granularité élevée ne semble pas être optimale dans ce contexte précis. En effet, une majorité des critères précédemment définis a été jugée trop spécifique pour les besoins de l’évaluation pratique du fonds. Ces critères ont été écartés, à la suite d’une première tentative de regroupement. Le résultat de l’évaluation montre avant tout que l’ordre de grandeur des tables partageables pour la base de données du MJDP se situe aux alentours de 5%.

L’alignement manuel d’un échantillon de données du MJDP avec Wikidata a montré une très bonne occurrence concernant les concepts relatifs à des données biographiques de musicien. Les termes désignant des instruments ou des lieux géographiques ont également offerts de bons résultats. Cela montre qu’il existe un intérêt marqué de la part de la communauté pour ces thématiques. Les jeux de données testés concernant les noms des musiciens provenaient de données précédemment authentifiées par des opérateurs humains. En revanche, les noms d’instruments testés étaient lacunaires dans de nombreux cas.

Le paramétrage manuel d’un identifiant de propriété par l’utilisateur dans OntoRefine augmente sensiblement la précision de l’algorithme pour la mesure de la distance de Levenshtein d’un terme aligné avec Wikidata. Le résultat de cette mesure s’affiche dans OntoRefine sous la forme d’un score. Plus le score de l’alignement est élevé, plus le terme aligné possède une proximité sémantique avec l’identifiant de l’entité disponible sur Wikidata.

En revanche, l’API est peut performante lorsque divers concepts sont mélangés dans une même colonne. Dans ce cas de figure, un choix doit être opéré par l’opérateur en faveur d’un identifiant d’entité générique. Ce choix a pour conséquence de favoriser un concept en particulier, au détriment d’autres concepts secondaires compris dans la colonne. Il en résulte une perte de précision importante et l’affichage de résultats lacunaires ou ambigus.

Dans certains cas, on obtient un résultat ambigu pour un même terme aligné avec la valeur d’un ou plusieurs identifiants de propriétés externe à Wikidata. Ce cas de figure a fréquemment été observé à partir de la valeur d’un terme précédemment aligné avec une entité de Wikidata. Ces termes concernaient les identifiants de propriétés externes en provenance d’autres bases de données comme MusicBrainz artist ou Discogs. Ces résultats ambigus peuvent s’expliquer en partie par des erreurs de référencements manuel et/ou automatique des URL de ces plateformes distantes sur Wikidata. La valeur d’un identifiant de propriété externe peut également être très fortement influencée par l’ordre du classement des valeurs référencées pour un même concept. En effet, plusieurs valeurs sémantiquement proches et/ou éloignées d’un même concept peuvent être référencées sur la page Wikidata d’une entité. Dans ce cas, seul l’ordre du classement valide le sens du terme le plus communément accepté par la communauté d’utilisateurs (Vrandečić, 2013 : p. 90).

L’API Wikidata reconciliation utilise un mode de recherche fondé sur la recherche approximative ou fuzz search. Chaque terme recherché est dépendant d’une orthographe définie par la forme retenue du terme correspondant sur Wikidata. Par conséquent, chaque terme ou groupe de termes alignés avec un identifiant d’une entité ou d’une propriété externe nécessite une vérification et une authentification manuelle par un opérateur humain avant validation. En effet, l’API limite significativement l’automatisation de cette tâche, puisqu’elle ne permet pas d’assurer la fiabilité des données alignées à partir d’un score élevé de la mesure de la distance de Levenshtein. Cependant, les récents travaux entrepris par Delpeuch (2019 : p. 12) proposent une amélioration de la précision de l’API Wikidata reconciliation grâce à l’enregistrement et la réutilisation des scores de Levenshtein obtenus par les utilisateurs suite à l’alignement des termes. Cette nouvelle perspective offre la possibilité d’augmenter sensiblement la précision de l’alignement automatique du service et permet une potentielle intégration du machine learning.

La preuve de concept proposée par Allison-Cassin et Scott (2018) a été adaptée avec plus ou moins de succès à notre cas d’utilisation. L’enrichissement des données réalisé avec la preuve de concept a montré la faisabilité d’une utilisation de Wikidata comme un répertoire central d’identifiant et un outil de recherche fédéré vers plusieurs bases de données. Cependant, la requête SPARQL adapté dans la preuve de concept ne semble pas autoriser un mode de recherche approximatif comme cela est le cas pour l’API Wikidata reconciliation. En effet, seul le premier résultat d’une requête SPARQL est retourné sur les dix pouvant être potentiellement affiché dans le fichier html par l’API du Wikidata Query Service. Le nombre de résultat retourné pour une requête est limité pour des raisons de performance.

Si la requête SPARQL ne retourne aucun résultat, rien ne s’affiche dans le fichier html. En revanche, si plusieurs résultats sont disponibles à la suite d’une même requête, seul le premier résultat s’affiche dans le fichier html. Ce mode de fonctionnement limite drastiquement les possibilités d’afficher des résultats ambigus comme, par exemple, plusieurs musiciens possédant un même patronyme. Par conséquent, les noms recherchés sont dépendants de la forme orthographique choisie par l’intitulé anglais de l’identifiant de l’entité Wikidata. Cependant, l’intitulé anglais de l’identifiant de l’entité d’un instrument de musique permet de contextualiser un terme de recherche et de retourner un résultat correct, nul ou erroné.

Une piste pourrait être envisagée avec l’alignement du vocabulaire de l’actuelle taxonomie utilisée pour la description des instruments de musique du MJDP avec des concepts équivalents décrits sur Wikidata. Dans ce cas, une nouvelle modélisation doit être envisagée à partir du diagramme de classes du MJDP concernant les instruments de musique vers le vocabulaire d’ontologie Simple Knowledge Organization System (SKOS). A la suite de la transcription du vocabulaire de la taxonomie en SKOS, un alignement vers le Wikidata Query Service peut être facilement envisageable. La similarité des termes obtenue par cet alignement permettrait d’améliorer significativement la fiabilité de la mesure et la réduction des biais de recherche.

Conclusion

Premièrement, la qualité des données partagées est un élément déterminant pour la réussite d’un alignement vers la plateforme Wikidata. Cela implique un effort important de vérification manuelle des données de la part du producteur, afin d’en garantir l’authenticité et la similarité orthographique avec l’entité décrite sur Wikidata. Il a été démontré qu’il était néanmoins envisageable de procéder à un alignement du côté client et/ou server avec des données peu ou partiellement vérifiées avec les outils OntoRefine ou Mix’n’match.

Deuxièmement, l’opérateur humain est toujours actuellement déterminant lors de l’étape de l’alignement dans le choix, la vérification, l’authentification et la validation de la référence de l’identifiant de l’entité proposée approximativement par l’API Wikidata reconciliation. Nous avons constaté qu’un score élevé de la mesure de la distance de Levenshtein n’était pas une garantie suffisante pour valider de manière fiable une valeur alignée. Cependant, les travaux de Delpeuch (2019) ont montré que l’amélioration de la précision de l’API Wikidata reconciliation pourrait être envisagée grâce à l’utilisation du machine learning.

Nous avons également abordé dans cet article la possibilité d’enrichir les données d’un inventaire local en LOD sans pour autant procéder à un transfert de données vers Wikidata. Dans ce cas de figure, nous avons expérimenté une utilisation de Wikidata comme un répertoire central de données offrant la possibilité d’effectuer des recherches fédérées vers d’autres bases de données.

Les perspectives soulevées par ce travail sont multiples et prévoient une étude statistique, afin de quantifier le taux de données actuelles du MJDP pouvant être directement aligné avec Wikidata et/ou d’autres bases de données musicales ;une implémentation de la preuve de concept à l’actuel framework play du MJDP ; la modélisation de la taxonomie des instruments de musique vers le vocabulaire d’ontologie SKOS ; l’alignement des données concernant les instruments de musique et œuvres musicales des concerts du MJF vers Wikidata ; enfin, le développement d’une interface inspirée du modèle proposé par l’interface visuelle de l’outil Mix’n’match, afin de faciliter la vérification et l’authentification manuelle des données alignées en local par des opérateurs humains.

Bibliographie

ALLISON-CASSIN, Stacy et SCOTT, Dan, 2018. Wikidata : a plateform for your library’s linked open data [en ligne]. 4 mai 2018. Code4lib Journal. Vol. 40. [Consulté le 20 octobre 2019]. Disponible à l’adresse : https://journal.code4lib.org/articles/13424

DELPEUCH, Antonin, 2019. A survey of OpenRefine reconciliation services [en ligne]. 21 août 2019. [Consulté le 8 octobre 2019]. Disponible à l’adresse : https://arxiv.org/pdf/1906.08092

DUFAUX, Alain, et AMSALLEM, Thierry, 2017. Le Montreux Jazz digital project : La sauvegarde des archives audiovisuelles du Montreux Jazz Festival, un patrimoine pour l’innovation et la recherche. Ressi [en ligne]. 20 décembre 2017. [Consulté le 20 octobre 2019]. Disponible à l’adresse : http://www.ressi.ch/num18/article_138

DUFAUX, Alain et AMSALLEM, Thierry, 2019. The Montreux Jazz Digital Project: From preserving heritage to a platform for innovation. Journal of Digital Media Management. 1 janvier 2019. Vol. 7, n° 4. pp. 315-329. [Consulté le 20 octobre 2019].

GLAM/Resources/Data and media partnerships workflow. Wikimedia Outreach [en ligne]. Dernière modification de la page le 22 mars 2019 à 17:53. [Consulté le 20 octobre 2019]. Disponible à l’adresse : https://outreach.wikimedia.org/wiki/GLAM/Resources/Data_and_media_partnerships_workflow

ONTOTEXT, [sans date]. Loading data using OntoRefine [en ligne]. 19 juin 2019. [Consulté le 20 octobre 2019]. Disponible à l’adresse : http://graphdb.ontotext.com/documentation/free/loading-data-using-ontorefine.html

PAWS. MediaWiki [en ligne]. Dernière modification de la page le 14 octobre 2019 à 17:17. [Consulté le 8 octobre 2019]. Disponible à l’adresse : https://www.mediawiki.org/wiki/PAWS

PISCOPO, Alessandro et al., 2017. Provenance Information in a Collaborative Knowledge Graph: An Evaluation of Wikidata External References. The Semantic Web – ISWC 2017. C. d’Amato et al. (Eds.). 4 octobre 2017. pp. 542–558. ISBN 978-3-319-68288-4. Disponible à l’adresse : https://doi.org/10.1007/978-3-319-68288-4_32

VRANDEČIĆ, Denny, 2013. The Rise of Wikidata. 2013. IEEE Intelligent Systems. Vol. 28, n°4. pp. 90-95. ISSN 1541-1672. Disponible à l’adresse : https://doi.org/10.1109/MIS.2013.119

WIKIMEDIA TOOLFORGE, [sans date a]. OpenRefine-Wikidata interface [en ligne]. [Consulté le 20 octobre 2019]. Disponible à l’adresse : https://tools.wmflabs.org/openrefine-wikidata

WIKIMEDIA TOOLFORGE, [sans date b]. QuickStatements [en ligne]. [Consulté le 20 octobre 2019]. Disponible à l’adresse : https://tools.wmflabs.org/quickstatements/#/

Wikidata:WikiProject Music. Wikidata [en ligne]. Dernière modification de la page le 17 septembre 2019 à 02:20. [Consulté le 20 octobre 2019]. Disponible à l’adresse : https://www.wikidata.org/wiki/Wikidata:WikiProject_Music

ZENG, Marcia Lei, 2019. Semantic enrichment for enhancing LAM data and supporting digital humanities. El profesional de la información. Vol. 28, n° 1. eISSN: 1699-2407 [Consulté le 20 octobre 2019]. Disponible à l’adresse : https://doi.org/10.3145/epi.2019.ene.03

Le Projet de Loi 12146 : Infrastructures et services numériques pour la recherche

Pierre-Yves Burgi, Directeur adjoint des systèmes d'information, Université de Genève

Le Projet de Loi 12146 : Infrastructures et services numériques pour la recherche

Introduction

La révolution numérique impacte et transforme la recherche scientifique dans tous les domaines, aussi bien dans les sciences dites dures que dans les sciences sociales et humaines. Les découvertes et avancées scientifiques majeures ne sont aujourd’hui plus possibles sans disposer de services et d’infrastructures informatiques à haute performance permettant la simulation numérique de phénomènes complexes ainsi que la recherche axée sur une exploitation intensive des données numériques (Hey et al., 2009). Afin de répondre à ces nouveaux défis et rester compétitive et attractive, il est impératif que l’Université de Genève (UNIGE) ainsi que les autres HE(1) du canton de Genève puissent mutualiser et développer les services et infrastructures numériques à disposition de tous leurs chercheurs, tout en gagnant en efficience. Cela nécessite des efforts coordonnés et des financements adéquats pour mettre en œuvre des solutions concrètes qui s’intègrent harmonieusement aux environnements des chercheurs et répondent aux exigences des bailleurs de fonds de la recherche scientifique.

Ces développements s’inscrivent dans la vision de l’UNIGE à l’horizon 2025 et contribuent pleinement au projet stratégique transversal de l’Université numérique (https://www.unige.ch/plan-strategique). Il est cependant utile de rappeler l’historique du Projet de Loi 12146, antérieur à cette vision numérique, comme expliqué dans la section suivante.

Historique

Les prémisses du projet de loi remontent à l’été 2011. Avec mon collègue Jean-François Rossignol, alors responsable des infrastructures informatiques de l’UNIGE, nous avions rédigé une première version du projet de loi (PL) sur les thèmes du calcul haute performance (HPC) et du Research Data Management (RDM). Ces deux thèmes avaient déjà été jugés importants, tant l’analyse et la conservation des données scientifiques nous semblaient complémentaires. Sur la base de cette version préliminaire, nous avions organisé le 13 octobre 2011 une présentation à la Commission informatique (COINF) de l’UNIGE des concepts et idées contenus dans ce nouveau projet.

La COINF est la commission consultative du Rectorat en matière de politique institutionnelle des systèmes d’information (SI) et des services numériques qui lui sont associés. Elle oriente l’évolution des SI au sein de l’institution en tenant compte des besoins de l'enseignement et de la recherche ainsi que de l'administration universitaire, tout en veillant à l’optimisation des ressources. Elle favorise une large participation facultaire de par sa composition et son articulation avec les Commissions Informatiques Facultaires (CIF). Aussi, suite à cette présentation, il était naturel de présenter le projet plus largement dans les CIF des différentes facultés. Cette consultation plus large des chercheurs au sein de leur faculté a duré plusieurs mois et a permis de dresser une image qualitative plus précise des besoins en HPC et RDM. Il est cependant intéressant de relever qu’à cette période la question de la gestion des données de recherche n’était pas nécessairement une priorité et que l’information récoltée sur ce sujet n’a pas amené des éléments majeurs dans la rédaction du PL. Tout au plus, cette information n’a pas infirmé ce que nous avions déjà rédigé.

Quant au HPC, les informations récoltées sont venues renforcer une enquête quantitative réalisée précédemment au printemps 2011 qui était axée sur les besoins en calculs scientifiques (simulations, analyse de données, etc.). En effet, durant les 15 années précédentes, le nombre de chercheurs utilisant l’informatique pour la modélisation et l’analyse de données n’a cessé de croître. Plusieurs dizaines de serveurs de calculs ont été acquis et se sont retrouvés dispersés dans plusieurs salles machines de l’Université, voire dans des bureaux et laboratoires. Cette dispersion entraînait de nombreux problèmes et désagréments, notamment de fortes difficultés à assurer une administration système efficace. En vue de regrouper les machines servant au calcul, une enquête des besoins en termes de consommation électrique et d’espace nécessaire pour la période 2012 à 2015 a donc été réalisée. La tâche s’est avérée complexe, car les différentes structures de l’Université sont habilitées à acquérir des machines de calcul de manière décentralisée (achats souvent effectués au niveau des groupes de recherche ou des départements). Par ailleurs, les besoins futurs sont extrêmement difficiles à estimer à priori, vu le caractère hétérogène des applications et des équipements. L’enquête a néanmoins révélé un fort besoin des utilisateurs pour un serveur de calcul centralisé. Les réponses ont indiqué un besoin de plus de 30 millions d’heures de calcul annuel, qui correspond à une ferme de calcul d’environ 4’000 cœurs(2).

L’évolution technologique a été intégrée dans les prévisions des besoins en appliquant la loi de Moore qui prévoit que le nombre de transistors pouvant être placés sur une puce à un prix acceptable est multiplié par 2 tous les 2 ans (Moore, 1965). Le corollaire de cette augmentation de la densité des composants électroniques est que la consommation électrique et la place occupée par processeur sont divisées en principe par 2 tous les 2 ans (mais voir Waldrop, 2006 pour l’évolution de cette loi de Moore qui se modifie dans le contexte technologique actuel). Au vu de ces estimations, on a pu estimer les caractéristiques nécessaires d’une salle machines regroupant tous les serveurs de calcul de l’Université, avec une projection de 35 racks pour une puissance totale de 520 KW en 2015. À noter qu’à ce jour (2019), et grâce aux progrès technologiques, la ferme (serveurs) de calcul de l’UNIGE (dénommée « Baobab ») possède de l’ordre de 4’400 cœurs, occupe 6 racks et consomme environ 60 kWh. L’étape suivante (d’ici à 2020) vise à acquérir 3’000 cœurs de nouvelle génération, plus puissants et donc nécessitant moins de cœurs comparé à la génération précédente, dans 3 racks pour une consommation d’environ 37 kWh.

Ce travail d’étude des besoins, mené sous l’égide de la COINF et en étroite collaboration avec les facultés, a conduit à préaviser positivement en mai 2012 la nécessité d’une part de réaliser ces investissements majeurs en infrastructure pour répondre aux nouveaux besoins de la recherche et d’autre part de consolider à terme des postes d’ingénieur possédant des compétences pointues en HPC, indispensables pour les chercheurs pour mener à bien leurs calculs.

Dans sa séance du 18 juin 2012, le Rectorat a quittancé ce travail et décidé d’aller de l’avant avec le dépôt auprès de l’Etat de Genève du PL pour l’ouverture d’une subvention d’investissement de l’ordre de 15 millions sur 5 ans, couvrant l’achat d’équipements informatiques de calcul et de stockage, ainsi que l’engagement du personnel requis pour le développement et la mise en œuvre des nouveaux services. La procédure de dépôt a été ajustée avec la Présidence du Département de l’Instruction Publique (DIP) en réunion DIP-UNIGE-HESGE(3). La version définitive du « Projet de Loi HPC & DM » a été transmise le 29 novembre 2012 à la division des finances de l’UNIGE pour dépôt auprès de la direction des finances du DIP le 21 mai 2013.

Ce dossier a néanmoins été bloqué jusqu’en juillet 2016, date à laquelle le vice-recteur Denis Hochstrasser, en charge du système d’information de l’UNIGE, a transmis un argumentaire au DIP afin d’appuyer le PL dans le cadre du plan d’investissement de l’Etat. Le dépôt du PL par le Conseil d’Etat est devenu effectif au 21 juin 2017 avec une re-planification du projet sur la période 2018-2022. Le 22 septembre 2017 le Grand Conseil a envoyé la proposition de loi à sa commission des travaux pour être mis à l’ordre du jour du Grand Conseil du 23-24 novembre(4). Elle a finalement été acceptée sans débat le 24 novembre 2017, pour un début officiel qui a été fixé au 1er janvier 2018.

Périmètre

Le périmètre du PL a été conçu afin de répondre au 4ème paradigme de la recherche que représente l’utilisation intensive des données pour progresser dans les découvertes scientifiques et qui vient compléter les méthodes classiques que sont l’expérimentation, la théorie et la simulation (Hey et al., 2009). Cette nouvelle manière de faire ne concerne pas uniquement les sciences dites « dures » (physique, astronomie, génomique, informatique, neurosciences, sciences de l’environnement, etc.), mais également les sciences sociales et humaines. En effet, par le biais de ce que l’on nomme les « digital humanities » (humanités numériques), la puissance de calcul des ordinateurs rend possible l'examen de larges corpus (textes ou autres types de média), y compris de millions de livres numérisés. Bien qu’émergente, cette approche transdisciplinaire, qui bénéficie de l’initiative du libre accès, et plus généralement de « l’Open Science », conduit déjà à de nouvelles connaissances en linguistique, en histoire, en archéologie, dans l’interprétation d’anciens textes, etc. (see e.g., Borgman, 2010).

Ce 4ème paradigme représente donc un élément déterminant pour l’exploration et le progrès de la connaissance en général, ainsi que pour promouvoir une recherche interdisciplinaire à fort potentiel pour résoudre des problèmes scientifiques et sociétaux complexes. Pour faciliter le passage à ce nouveau paradigme, l’évolution des infrastructures et services associés de calcul à haute performance et de stockage long terme afin d’optimiser et faciliter l’utilisation des données issues de la recherche dans les hautes écoles universitaires genevoises constitue l’essence du PL 12146. Aussi, ce PL se décline en quatre objectifs prioritaires :

  1. Mettre en place une infrastructure pouvant répondre de manière optimisée aux besoins en matière de calcul scientifique et de gestion du cycle de vie des données de la recherche (qui comprend également la gestion des données dites « actives ») ;
  2. Mettre en place une architecture de stockage sécurisée construite sur les standards internationaux permettant la conservation à moyen et long terme des données scientifiques ;
  3. Développer des interfaces logicielles qui répondent aux besoins des chercheurs et facilitent l’utilisation de ces infrastructures aussi bien pour le calcul que pour le dépôt, la gestion, et l’accès aux données ;
  4. Concevoir des environnements informatiques favorisant la collaboration entre chercheurs, facilitant l’exploration, la visualisation et le partage des données, ainsi que leur utilisation dans l’enseignement.

Le principe général est de mettre à disposition des membres de la communauté scientifique, au travers d’un « cloud académique », des infrastructures et services mutualisés et sécurisés. En effet, plutôt que de continuer de financer des infrastructures dédiées exclusivement à des domaines scientifiques particuliers, qui s’avèrent souvent insuffisantes, la voie prise par le « cloud académique » est de mutualiser autant que possible les différentes couches de services, à savoir IaaS (Infrastructure as a Service), PaaS (Platform as a Service), et SaaS (Software as a Service), afin d’accroître et d’optimiser l’offre de services.

D’autre part, afin de permettre un usage adéquat de ces nouvelles infrastructures et des logiciels associés, des services d’accompagnement et d’expertise doivent être mis en place pour aider les chercheurs : conseils en HPC, interfaces utilisateurs, environnements informatiques favorisant la collaboration, l’échange de données et leur utilisation en conformité avec les nouvelles exigences des bailleurs de fonds et des éditeurs, etc.

Selon la volonté du DIP, ces infrastructures et services mutualisés, gérés par l’UNIGE, sont ouverts aux partenaires académiques genevois (HES-SO Genève et IHEID). Ils sont également conçus pour s’intégrer dans l’écosystème national, mais aussi au-delà, du fait qu’ils sont basés sur des standards internationaux. À noter que pour des raisons de pérennité des solutions informatiques, les logiciels sous-jacents à ces infrastructures sont pour la majorité des logiciels libres(5) soutenus par des communautés internationales. Il serait en effet illusoire de compter sur des solutions propriétaires, sujettes aux aléas des marchés économiques.

Plus concrètement, ces quatre objectifs prioritaires se déclinent par :

–      Le renouvellement, l’extension et l’amélioration de la ferme de calcul Baobab, à savoir augmenter la puissance de calcul et la capacité de stockage pour les données actives, diversifier le matériel avec l’ajout de GPU(6), et bénéficier des nouvelles technologies de serveurs moins énergivores ;

–      Du « cloud computing » permettant aux chercheurs d’utiliser les ressources d’une manière flexible, selon leurs besoins, à la demande ;

–      Du conseil et de l’expertise en HPC afin de garantir aux chercheurs une meilleure adéquation entre leurs algorithmes et l’architecture des machines disponibles ;

–      L’archivage des données selon des standards internationaux en vigueur dans le domaine archivistique (tels que l’OAIS Reference Model – ISO 14721:2012), permettant la conservation à moyen terme (moins de 10 ans) et long terme (au-delà de 10 ans) des données scientifiques, répliquées sur plusieurs sites dans différentes technologies ;

–      L’accompagnement des chercheurs dans leurs projets d’exploitation de leurs données selon de nouveaux algorithmes, particulièrement dans les sciences sociales et humaines (digital humanities), domaine qui est amené à se développer et dont le potentiel, largement sous-exploité à ce jour, intéresse de plus en plus les chercheurs de l’UNIGE (par exemple, en facultés des lettres, de théologie, de traduction et d’interprétation, et des sciences économiques et sociales) ;

–      Le développement d’interfaces permettant aux étudiants et plus largement aux citoyens d’accéder et de visualiser des données issues de la recherche et rendues spécifiquement compréhensibles pour cette population d’utilisateurs.

La feuille de route (roadmap) de la réalisation de ces objectifs est présentée dans la Figure 1 pour la période 2018 à mi-2020 (le PL doit se terminer en décembre 2022).

 

Figure 1 : Feuille de route intermédiaire

Réalisations

Le PL se concentre sur deux axes principaux : pour commencer, un axe « Infrastructures », dans lequel l’acquisition de matériel est effectuée sur la base d’appels d’offres publics. Cela concerne l’évolution des serveurs de calcul de Baobab avec un objectif de 4'000 cœurs, l’extension du stockage « Network Attached Storage » (NAS) à 3.5 PB(7) (répliqué sur un deuxième site), et destiné au traitement des données actives (Active Data Management), de l’acquisition d’un robot pour le stockage sur bande de grands volumes de données (plusieurs dizaines de PB), ainsi que du stockage de type « S3 »(8) destiné à la préservation long terme.

Le deuxième axe du PL concerne le développement des environnements et interfaces logiciels permettant aux chercheurs de bénéficier des nouvelles infrastructures.

Après deux ans d’activité du PL, nous pouvons citer deux réalisations principales : Yareta, le système d’archivage long terme des données de recherche et la plateforme « DH » (Digital Humanities).

Yareta

Yareta (https://yareta.unige.ch) est le nouveau dépôt de données FAIR(9) (Findable, Accessible, Interoperate, Reusable – Wilkinson et al., 2016) disponible depuis juin 2019 pour la communauté de chercheurs genevoise, permettant de promouvoir le partage des données et la reproductibilité scientifique. « Powered by the DLCM technology » (https://www.dlcm.ch), Yareta se compose d'une architecture OAIS (norme ISO 14721:2012) ouverte et modulaire pour la conservation à long terme (voir Figure 2), qui est centrée sur l'utilisateur afin de faciliter le dépôt des données de recherche. De plus, il a été conçu pour s'intégrer facilement aux systèmes de gestion de l'information des laboratoires et/ou s’interfacer avec des environnements de gestion active des données (« ADM »), puisque basé sur la technologie « Web services » (ou API(10)) (voir Figure 3).

L’architecture est composée de 3 parties : la soumission, l’archivage, et la dissémination, qui correspondent respectivement aux composants « Submission Information Package » (SIP), « Archival Information Package » (AIP), et « Dissemination Information Package » (DIP) de la norme OAIS. Chaque sous-module (Pre-Ingest, Ingest, Archival Storage, Data Management, Access) est indépendant et peut s’exécuter dans le cloud sur des serveurs distincts. Le DOI (Digital Object Identifier) d’un dataset peut être réservé lors du « pre-ingest », ou assigné lors de l’« ingest ». Les métadonnées au format Datacite (https://schema.datacite.org/), complétées par les données administratives PREMIS (https://www.loc.gov/standards/premis/), sont indexées et moissonnables au travers du protocole OAI-PMH. Lorsque les données sont soumises, le processus inclut entre autres le calcul d’un checksum assurant l’intégrité des informations, le contrôle par un antivirus, et l’identification et la qualification du format. Le module « data management » définit les modalités de stockage physique (nombre de réplications, technologie, durée, etc.).

En résumé, Yareta est une solution d’archivage long terme des données de recherche :

  • non-commerciale, sur sol suisse et qui répond aux exigences FAIR du Fonds National Suisse (FNS) ;
  • conforme aux normes internationales pour l’interopérabilité des données (OAIS, DOI, OAI-PMH, PREMISE, Datacite, etc.) ;
  • compatible avec tous les formats en vigueur dans les différentes disciplines scientifiques et qui constitue donc un dépôt générique des données de recherche ;
  • conçue « the swiss way », à savoir décentralisée tout en assurant une indexation à l’échelle nationale ;
  • flexible quant au nombre de copies et leur stockage physique dans différentes technologies pour assurer la pérennité des données ;
  • basée sur une technologie moderne qui s’interconnecte aux environnements des chercheurs (Web services).

Dans les objectifs futurs de développement de Yareta, on peut citer :

  • l’amélioration de l’ergonomie des interfaces utilisateur ;
  • l’extension des fonctionnalités offertes afin de faciliter l'accès aux données de recherche, par exemple le développement de "plug-in" permettant de visualiser les données scientifiques via le module « International Image Interoperability Framework » (IIIF) pour les humanités numériques, un module 3D pour la visualisation de molécules, etc. ;
  • le développement d’un module pour implémenter la politique de préservation permettant de compléter le cycle de vie des données (migration, fin de vie, etc.) et une plus grande souplesse dans le choix du nombre de réplications et des supports physiques ;
  • l’ajout de mécanismes de "data privacy" permettant de gérer les données sensibles.
Figure 2 : Architecture de Yareta

Figure 3 : De l’active data management (ADM) à l’archivage long terme (LTP)

La plateforme DH

La plateforme DH (Figure 4) a été conçue pour que les chercheurs en humanités numériques puissent gérer leurs données en format RDF(11) (Resource Description Framework). Ce format apporte beaucoup plus de possibilités que la forme plus traditionnelle, qui consiste à organiser les données dans des bases de données relationnelles. Développé par le W3C(12), RDF est le langage de base du Web sémantique représenté sous la forme de graphes composés d’associations « sujet, prédicat, objet », dénommées « triplets ». L’avantage d’une telle représentation est de pouvoir faire des requêtes dans un langage de plus haut niveau sémantique que celles des bases de données relationnelles (Structured Query Langage – SQL).

Dans la plateforme DH, deux approches sont proposées pour passer des bases de données relationnelles à la représentation RDF :

(1)   une conversion automatique qui génère des relations sémantiques entre les objets, ces relations correspondant aux liens relationnels existants entre les différents champs de la base de données ; cette manière de faire ne bénéficie pas de tout le potentiel de la représentation sémantique, mais permet de minimiser le travail du chercheur lorsque les bases de données sont préexistantes ;

(2)   la conception d’un modèle de données par les chercheurs avec l’aide d’experts du domaine RDF. Ce modèle est ensuite traduit en RDF.

Le format RDF permet de faire du « Linked data » (« Web des données » en français) qui consiste à publier sur le Web les données structurées non pas sous la forme de silos de données isolés les uns des autres, mais en reliant les données entre elles pour constituer un réseau global d'informations. L’usage d’ontologies prédéfinies disponibles sur le Web permet d’avoir des interprétations communes de ces informations. Cela permet par exemple de décrire des personnes (VIAF) et les relations qu’elles entretiennent entre elles (FOAF), ou des lieux géographiques (GeoNames), ainsi que des réseaux de connaissances (e.g., DBpedia).

Figure 4 : Architecture de la plateforme DH

Les données RDF sont gérées par le logiciel « Fedora Commons », le système avec lequel est construite l’Archive Ouverte de l’UNIGE (https://archive-ouverte.unige.ch/). La mise à jour des données RDF se fait via le logiciel Concrete 5, qui est le Content Management System (CMS) de l’UNIGE et avec lequel les pages Web de l’UNIGE sont gérées. L’avantage d’utiliser des outils institutionnels préexistants est double : parcimonie dans l’exploitation des outils et prise en main plus aisée par les utilisateurs qui les utilisent déjà dans d’autres contextes. Finalement, la préservation sur le long terme de ces données RDF est possible au travers d’un connecteur vers Yareta.

À ce jour (novembre 2019), deux projets pilotes bénéficient de cette plateforme DH : « Turrettini », la correspondance de Jean-Alphonse Turrettini, et « Tronchin », la publication des archives du collectionneur genevois François Tronchin.

Gouvernance

La gouvernance du PL se mène de manière transversale et agile dans laquelle la priorisation des tâches, contenues dans un « backlog », est essentielle (Al-Baik & Miller, 2015). Cette gouvernance, représentée dans la Figure 5, est par ailleurs construite sur la base de trois communautés de chercheurs (HPC, ADM, LTP) qui ont pour vocation d'impulser une dynamique ascendante et interdisciplinaire. Elle nécessite conjointement l'implication de nombreux partenaires et équipes d'expertises diverses (services « recherche », « information scientifique », « système d’information », etc.) travaillant en étroite collaboration afin d’assurer une adéquation avec les besoins des chercheurs des différentes facultés, ainsi que des institutions bénéficiant du PL. Pour ces raisons, une gouvernance impliquant des représentants de ces différentes entités a été mise en place sous la forme d’un comité de pilotage. Ce comité, qui se réunit environ 4 fois par année, est composé d’un représentant de chaque faculté et institution.

Modèle de coûts

Les services couverts par le PL12146 et pour lesquels un financement s’avérera nécessaire afin d’assurer leur exploitation et leur renouvellement à son terme sont les suivants :

  • Le calcul haute performance (HPC) ;
  • Les solutions de type IAAS qui permettent aux chercheurs de bénéficier de « machines virtuelles » sans nécessiter d’acquérir et gérer des serveurs dédiés, souvent sous-exploités ;
  • Le stockage puis l’archivage des données de la recherche ;
  • La maintenance évolutive du portefeuille de solutions logicielles qui seront créées pour la gestion des données actives (e.g. la plateforme « Digital Humanities ») ;
  • Le conseil aux chercheurs sur les infrastructures et services numériques ainsi que l’animation des communautés de pratiques.

Après consultations auprès du Rectorat et du service des finances de l’UNIGE, les tarifs des services numériques issus du PL qui utilisent des ressources de manière exclusive ont récemment été fixés et communiqués à la communauté universitaire du canton. Il s'agit en particulier des services de stockage et d'archivage des données de la recherche, dont les tarifs annuels sont les suivants :

  • stockage disque (backupé) : 75 CHF / TB
  • stockage bande (backupé) : 25 CHF / TB
  • préservation long terme : 100 CHF / TB (copies sur deux technologies différentes)

Afin de limiter le travail administratif et de se conformer aux pratiques du marché, 50 GB sont mis à disposition gratuitement. Ces tarifs seront révisés annuellement afin de rester compétitifs avec les tarifs du marché.

 

Figure 5 : Gouvernance du PL

Appel à projets

Afin de faire participer les communautés de chercheurs à la mise en place de nouvelles solutions numériques pour la gestion des données, un appel à projets a été lancé en novembre 2019. Celui-ci s’adresse à toutes les disciplines scientifiques.

À cette fin, les chercheurs sont appelés à soumettre des propositions de projets informatiques en vue de faciliter la collecte, le traitement, la gestion, le partage ou la diffusion des données de recherche, activités communément désignées sous le terme de gestion des données actives (« ADM », voir ci-dessus).

Les projets proposés doivent s’inscrire dans ce thème et mener à une solution numérique :

  • mutualisable – qui soit utile à plusieurs groupes de recherche, éventuellement de disciplines différentes, et soit suffisamment générique pour être utilisée par le plus grand nombre de chercheurs,
  • institutionnalisable – qui aspire à devenir un service numérique institutionnel complétant l’offre disponible à l’UNIGE et autres HE, ou à étendre un service existant,
  • novatrice – qui se distingue par son originalité, n’existe pas au sein de la communauté de recherche genevoise ou soit développée selon une approche innovante.

Le large périmètre tant technique (développement, intégration, solutions open source, etc.) que thématique de l’appel à projets a pour volonté de favoriser l’innovation et l’expression de besoins au sein des nombreux domaines de recherche constituant la communauté scientifique genevoise.

Synergie avec les projets nationaux

Il est intéressant de relever que l’élaboration du PL en été 2011 coïncide avec la mise en place du programme suisse « accès à l’information scientifique », de la Conférence Universitaire Suisse (CUS) – qui est devenue par la suite swissuniversities (SWU) à partir du 1er janvier 2015 – dont les prémisses des idées et concepts remontent à fin 2010. À cette époque, l’explosion de la numérisation était relevée comme un élément disruptif qui contribuait à placer les universités et la communauté scientifique devant de nouveaux défis en matière d’information scientifique dont il n’était pas encore possible de définir le périmètre de manière définitive. Des mesures urgentes étaient donc jugées nécessaires pour que la communauté scientifique suisse puisse avoir durablement accès aux informations scientifiques dont elle avait besoin tout en limitant les coûts pour l’ensemble du système.

En conséquence, durant le premier semestre 2011, l’élaboration du programme fédéral 2013-2016 a sollicité l’apport de propositions de la communauté universitaire. Dans ce contexte d’appel à contributions, j’ai eu l’opportunité de me positionner sur le sujet du cycle de vie des données dans lequel je précisais qu’il devenait primordial de sensibiliser l’ensemble des chercheurs à la problématique de l’explosion de la quantité de données numériques produites quotidiennement. Il convenait dès la création des données de recherche de mettre à leur disposition des services de « data life cycle management » (DLCM), basés sur les meilleures pratiques professionnelles et adaptés aux différents contextes scientifiques. Il était également relevé que l’accessibilité des données devenait une condition posée par certaines agences gouvernementales de financement de la recherche ainsi que par certains éditeurs.

Dans cette perspective, j’avais introduit le concept de « Scientific Object Repositories » (SOR) visant à une gestion plus efficiente des données numériques avec des mécanismes de stockage, de partage (data sharing), d’accès sécurisé, de catalogage, d’annotation, ainsi que d’archivage à long terme, selon des pratiques qui correspondent à des standards internationaux établis. Le concept de SOR devait reposer sur une architecture distribuée permettant de mutualiser et de capitaliser les efforts et les connaissances. Ce concept devait également permettre une valorisation des données au-delà de celle initialement pensée par les chercheurs, au travers d’outils de data mining, data visualization, mashup, etc. dont les bénéficiaires seront d’autres communautés exerçant leurs activités dans la recherche et l’enseignement et plus largement la société civile. Même si aujourd’hui le terme SOR n’a pas survécu, le concept a été en bonne partie repris dans le projet DLCM (https://www.dlcm.ch).

Concernant le HPC, il était aussi relevé que pour répondre de manière maîtrisée et sécurisée aux besoins émergents de la science vis-à-vis de la croissance exponentielle des données la mise en place d’un « cloud académique » au niveau national s’avérait nécessaire. Afin de faciliter les collaborations à l’échelle nationale et internationale, tout en optimisant les investissements consentis à différents niveaux, ce cloud devait être conçu selon le principe du fédéralisme en mettant à disposition des communautés scientifiques, en modes IaaS et SaaS, les services requis pour soutenir l’évolution de la recherche.

Aussi, après une période de gestation qui a duré jusqu’en 2012, le programme CUS P-2 a pris sa forme finale et son titre : « Information scientifique : accès, traitement et sauvegarde », pour démarrer en 2013. C’est à ce moment que j’ai concrétisé le projet DLCM (Burgi et al., 2017) en prenant contact en novembre 2013 avec des experts du domaine DLCM dans les universités et écoles polytechniques suisses dans le but de former un partenariat avec l’objectif de déposer une proposition de projet CUS P-2 en 2014. Au terme de cette démarche, un partenariat entre les deux écoles polytechniques fédérales (ETH-Z et EPF-L), les universités de Zurich, Bâle, Lausanne, et Genève, la Haute Ecole de Gestion (HEG) de la Haute Ecole Spécialisée de Suisse occidentale (HES-SO), et SWITCH s’est finalement établi, avec à la clé une proposition aboutie et soumise en février 2015. Suite à l’acceptation de cette proposition en juillet 2015, le démarrage officiel du projet a eu lieu le 1er septembre 2015. Cette première phase du projet s’est terminée en juillet 2018, pour être prolongée dans une deuxième phase qui doit se terminer en décembre 2020, et qui implique un nouveau partenaire, la Zürcher Hochschule für Angewandte Wissenschaften (ZHAW).

La naissance du projet de loi dans ce contexte d’effervescence d’idées au niveau national n’est par conséquent pas un hasard, et a fortement bénéficié de cette synergie. Pourtant, comme mentionné dans la section 2, l’agenda politique fédéral et celui du canton de Genève ont chacun suivi leur feuille de route, et il aura fallu attendre janvier 2018 pour initier le projet de loi. Quant au programme CUS P-2, il est entre-temps devenu SWU P5 couvrant la période 2017-2020. Cette resynchronisation des deux projets a néanmoins permis au canton de Genève de dynamiser le développement de la technologie DLCM qui conduira dès juin 2019 à mettre en production le système d’archivage long terme Yareta, mis à disposition des HE du canton, soit avant l’instance nationale (dénommée « OLOS »), qui devrait voir le jour durant le premier trimestre 2020.

Conclusions

Au-delà de fournir des infrastructures modernes et efficientes aux chercheurs, leur permettant ainsi de pleinement exercer leurs travaux de recherche selon le 4ème paradigme, le projet de loi a potentiellement plusieurs autres impacts. D’une part, la mise en place des trois thématiques, HPC, ADM, et LTP, a permis d’activer des communautés de chercheurs, contribuant ainsi à une mutualisation des pratiques et des outils. D’autre part, du fait que le projet de loi concerne toutes les HE du canton de Genève, des synergies entre des institutions travaillant sur des thématiques similaires sont facilitées. Par exemple, la Haute école de santé avec la Faculté de médecine ; la Haute école de gestion avec la Faculté en sciences économiques ; ou la Haute École du paysage, d'ingénierie et d'architecture avec la Faculté des sciences, etc.

Un autre aspect durable concerne la gestion des données de recherche qui, avec la mise en opération de Yareta, permet de franchir une première étape vers l’Open Science dans laquelle l’accès et le partage des données devrait amener à une plus grande transparence de la recherche, et selon des études, une plus grande citabilité des publications, et la promotion des résultats à une plus grande audience (Popkin, 2019). Ce pas vers l’Open Science est cohérent avec le prochain programme de swissuniversities qui va couvrir la période 2021-2028. Le PL « Infrastructures et services numériques pour la recherche » représente par conséquent une excellente opportunité de préparer les HE genevoises à cette nouvelle orientation que prend la recherche suisse.

Remerciements

Je tiens à remercier Alain Jacot-Descombes, directeur de la division des Systèmes d'Information et de Communication (DiSTIC) de l’UNIGE pour ses commentaires constructifs sur une version préliminaire du texte, ainsi que l’équipe du PL12146 et du pôle eResearch de la DiSTIC pour leurs apports (figures, informations, etc.) qui ont contribué à enrichir cet article.

Notes

(1) Hautes écoles (universitaires et spécialisées)

(2) Un cœur (physique) est un ensemble de circuits capables d’exécuter des programmes de façon autonome.

(3) Charles Beer, conseiller d’Etat genevois de 2003 à 2013, en charge du DIP, avait demandé d’inclure dans le périmètre du PL les Hautes Ecoles Spécialisées (HES) du canton de Genève afin de couvrir également leurs besoins en calcul et gestion des données.

(4) Le rapport de la commission, http://ge.ch/grandconseil/data/texte/PL12146A.pdf est passé devant la parlement le 24 novembre 2017, cf. http://ge.ch/grandconseil/sessions/seances-odj/67/?session=48.

(5) Ce point est important du fait qu’un projet de loi concerne uniquement des investissements, et que des coûts de licences (locations) ne peuvent pas être pris en charge dans ce contexte.

(6) Les GPU (Graphics Processing Unit) permettent d’effectuer des calculs plus rapidement dans les domaines impliquant des algorithmes fortement parallélisables.

(7) Un Peta Byte (PB) correspond à 1'000 Tera Bytes (TB).

(8) Le protocole S3 (Simple Storage Service) a été développé par Amazon. Il consiste à stocker l’information sous la forme d’objets, et non plus selon une organisation en fichiers.

(9) Les principes FAIR ont été rédigés en 2015 lors d'un atelier du Centre Lorentz à Leyde, aux Pays-Bas.

(10) API (Application Programming Interface) est un ensemble normalisé de fonctions, méthodes, etc. qui sert de façade par laquelle un logiciel offre des services à d'autres logiciels.

(11) RDF, développé par le W3C, est le langage de base du Web sémantique destiné à décrire de façon formelle les ressources Web et leurs métadonnées, permettant le traitement automatique de telles descriptions.

(12) Le World Wide Web Consortium, abrégé par le sigle W3C, est un organisme de standardisation à but non lucratif, fondé en octobre 1994 chargé de promouvoir la compatibilité des technologies du World Wide Web.

Bibliographie

Al-Baik, O. & Miller, J. (2015) The kanban approach, between agility and leanness: a systematic review, Empirical Software Engineering, 20(6), 1861-1897.
doi :10.1007/s10664-014-9340-x

Borgman, C.L. (2009). The digital future is now: A call to action for the humanities. Digital Humanities Quarterly, 3(4). Retrieved from http://digitalhumanities.org/dhq/vol/3/4/000077/000077.html

Burgi, P.-Y., Blumer, E., Makhlouf-Shabou, B. (2017). Research Data Management in Switzerland: National Efforts to Guarantee the Sustainability of Research Outputs. IFLA Journal [online], 43(1), 5–21. doi:10.1177/0340035216678238

Hey, T., Tansley, S., & Tolle, K. (Eds.) (2010). The Fourth Paradigm: Data-Intensive Scientific Discovery, Microsoft Research

Moore, G.E. (1965). Cramming more components onto integrated circuits. Electronics, 38(8), 114–117.

Popkin, G. (2019) Data sharing and how it can benefit your scientific career, Nature 569, 445-447. doi: 10.1038/d41586-019-01506-x

Waldrop, M.M. (2016) The chips are down for Moore’s law, Nature 530, 144-147.

Wilkinson, M.D. et al. (2016) The FAIR Guiding Principles for scientific data management and stewardship, Scientific Data volume 3, Article number: 160018

Un plan de gestion de sinistres au sein des Archives de Montreux : de la conception à la mise à jour

Ludovic Ramalho, Haute Ecole de Gestion, Genève

Un plan de gestion de sinistres au sein des Archives de Montreux : de la conception à la mise à jourUn plan de gestion de sinistres au sein des Archives de Montreux : de la conception à la mise à jour

Introduction

La gestion des risques ainsi que la mise en place de processus en cas de sinistres dans le domaine des Archives font partie intégrante du processus de préservation des archives. En effet, elles permettent d’identifier les faiblesses de l’institution en matière d’infrastructures, d’optimiser l’efficacité du sauvetage des documents en cas de sinistre ainsi que d’améliorer les infrastructures de conservation et les mesures d’urgence. En d’autres termes, la conception et la mise en place de ces processus permettent, d’une part de mettre en exergue les faiblesses de l’institution face aux aléas qui pourraient la toucher, et d’autre part de se prémunir face à ces derniers ou du moins réduire les effets négatifs potentiels qu’ils auraient sur les collections et le(s) bâtiment(s) de l’institution.

En matière de gestion de risques, il est essentiel de garder à l’esprit que ce processus n’est pas figé dans le temps. En effet, pour permettre sa réduction, un risque se gère bien évidemment avant qu’il ne survienne, mais aussi pendant et après de manière cyclique. C’est en gardant en tête ces trois phases que le travail a été structuré. L’analyse de risques, l’identification des infrastructures déjà en place et les recommandations constituant l’«Avant», le plan de gestion de sinistres le «Pendant» et la méthodologie de mise à jour l’«Après».

Ce sujet de Travail de Bachelor a été proposé par Madame Nicole Meystre, archiviste communale de Montreux, suite au constat du manque de structure et d’opérationnalité du plan de gestion de sinistres des Archives de Montreux. De plus, afin que la situation ne se réitère pas, la mandante souhaitait qu’une méthodologie de mise à jour de ce plan de gestion soit mise en place et intégrée à ce travail.

Méthodologie de travail

Revue de la littérature professionnelle

Ce travail a été initié avec la constitution d’un corpus de sources diverses que l’on peut diviser en trois catégories : les sources théoriques, pratiques et hybrides. Chacune d’entre elles sont connectées aux autres et différenciées uniquement par le but des informations qu’elles contiennent. En d’autres termes, les documents contenus dans la catégorie théorique servent de base pour les documents pratiques et ainsi de suite.

En ce qui concerne les sources principales de ce travail, on peut citer le livre d’Andréa Giovannini intitulé « De Tutela Librorum » (2010), qui est un ouvrage de référence dans les domaines de la préservation, des mesures de prévention et de sécurité des lieux de stockage de documents, qui a été d’une grande utilité, notamment dans l’identification des risques pour les locaux d’archives.

Pour ajouter un aspect plus pratique à ce travail, en plus de tous les documents internes à la Commune et aux Archives de Montreux, des plans de gestion de sinistres d’institutions similaires ont servi d’inspiration, notamment celui des Archives cantonales vaudoises (Karli 2001), de la République et du Canton de Genève (République et Canton de Genève 2017), de la Bibliothèque nationale suisse (Karli 2011) ainsi que de celui de l’Université de Lausanne (Université de Lausanne 2013). Un travail de bachelor analogue de 2006 intitulé « Plan de sauvetage des collections pour la médiathèque Valais » a également été consulté. Celui-ci a servi à l’élaboration et à l’instauration d’un plan de gestion de sinistres pour toutes les institutions qui constituent la Médiathèque Valais.

De manière à comprendre et adopter les méthodes d’analyse de risques, on a consulté un document du Centre d’Éducation permanente de l’État de Vaud (CEP) qui fournit une liste de tous les risques qu’encourent les bâtiments du district de la Riviera-Pays-d’Enhaut. En plus de cette liste, ce document propose une matrice(1) qui permet l’évaluation des risques en question. Pour croiser la méthode exprimée dans ce document avec une source différente, un document de la Protection des Biens culturels (PBC) intitulé « Guide de gestion des risques dans le domaine des biens culturels » a été consulté. Ce dernier propose une méthode similaire à celle présentée par le CEP avec, tout de même, quelques différences, notamment au niveau de la gradation des niveaux de risques.

Pour ce qui est des sources dites « hybrides », il s’agit de documents qui mêlent théorie et pratique, et notamment d’éléments émanant de cours suivis à la Haute école de gestion de Genève, comme le cours de « Conservation des biens culturels écrits » et « Protection des biens culturels documentaires ». 

Analyse des risques

Cette phase est primordiale avant toute élaboration de plans de gestion de sinistres. En effet, elle va permettre de déterminer et d’identifier les forces et les faiblesses de l’institution, tant au niveau physique qu’organisationnel. Elle va aussi servir de base pour créer un plan de gestion de sinistres optimisé ainsi que pour élaborer des recommandations d’amélioration pour l’institution.

Cette partie du travail se décompose en trois phases : l’identification des risques, l’évaluation des risques et l’identification des points critiques.

Identification des risques

Pour identifier les risques qu’encourent les Archives de Montreux, le document du CEP (Centre d’Éducation permanente de l’État de Vaud 2019) ainsi que les risques listés dans l’ouvrage de Andrea Giovannini (Giovannini 2019, pp.149-209 et pp.251–270) ont permis de sélectionner des risques qui menaçaient réellement l’institution. Cette dernière n’étant bien sûr pas figée, elle va sans doute évoluer avec l’environnement.

Évaluation des risques

Suite à la constitution de la liste des risques pour les Archives de Montreux, il a fallu procéder à l’évaluation de ces derniers. Pour ce faire, la procédure fournie avec le document du CEP (Centre d’Éducation permanente de l’État de Vaud 2019) a été mise en œuvre. Celle-ci prend en compte deux paramètres : la probabilité de survenance du risque et l’importance d’impact global de ce dernier sur les archives. En ce qui concerne l’échelle que propose le CEP, cette dernière est composée des deux barèmes suivants :

Tableau 1 : Barèmes servant à l'évaluation de la probabilité et l'impact des risques

Barème d’évaluation de l’impact des       risques

Barème d’évaluation de la probabilité des risques 

Très probable (TP)

Très élevé (TE)

Probable (PR)

Considérable (CO)

Possible (PO)

Modéré (MO)

Improbable (IM)

Minime (MI)

 

De façon à rendre cette évaluation plus représentative de l’état actuel des Archives de Montreux en termes de risques, les données d’analyse ont été élargies en impliquant la responsable des Archives et son collaborateur archiviste dans cette évaluation. Cela a permis de comparer les évaluations et d’échanger les avis sur les divergences à propos de chaque risque.

La pondération des trois évaluations n’étant pas possible avec les barèmes initiaux, les notations qui les composent ont été converties en échelle numérique (exemple : l’évaluation « Improbable » devient la note « 1 »). Voici le nouveau barème qui a permis d’effectuer cette pondération :

Tableau 2 : Barèmes servant à l'évaluation de la probabilité et de l'impact des risques convertis en numérique

Échelle d’évaluation de l’impact des risques

Échelle d’évaluation de la probabilité des risques 

4 (Très probable)

4 (Très élevé)

3 (Probable)

3 (Considérable)

2 (Possible)

2 (Modéré)

1 (Improbable)

1 (Minime)

 

Pour définir une évaluation finale à chaque probabilité et impact, une moyenne des appréciations sur ces deux aspects pour chacun des risques a été effectuée.

Pour conclure cette partie, chaque notation de risque a été analysée au travers de la matrice des risques du CEP. Cette dernière propose un croisement des évaluations du degré de probabilité avec celles de l’importance d’impact, comme le démontre l’image ci-dessous :

Figure 1 Matrice des risques du CEP

Cette matrice distingue trois zones qui déterminent le degré de danger du risque : mineur (zone verte), moyen (zone orange) et majeurs (zone rose foncée).

Identification des points critiques

De manière à distinguer les catégories de risques qui comportent le plus de danger pour les Archives de Montreux, et de ce fait identifier les éléments sur lesquels il fallait se concentrer en priorité dans la partie des recommandations, une partie complémentaire a été ajoutée à cette évaluation, partie qui ne figure pas dans le document du CEP : l’identification des points critiques. Cet ajout fait office de synthèse de l’évaluation des risques.

Dans le but d’affiner cette synthèse, les risques ayant obtenu une évaluation faible ont d’abord été écartés, car il a été considéré que ces risques ne menaçaient pas réellement l’institution. Après cette étape, a été comptabilisé pour chaque catégorie de risques le nombre de ceux évalués comme « moyen » et « majeur ». Les résultats ont été consignés dans un tableau de synthèse.

Figure 2 Extrait du tableau du nombre de risques moyens et majeurs par catégorie de risque

En premier lieu, les catégories de risques qui comportaient le plus d’évaluations « moyen », puis « majeur » ont été identifiées, indépendamment l’une de l’autre. Dans un second temps, un croisement de ces dernières a été effectué. En effet, dans ce raisonnement, les catégories de risques qui comportaient le plus d’évaluation « moyen » et « majeur » étaient considérées comme les points critiques.

Figure 3 Extrait du tableau des risques liés à l’environnement naturel évalué comme moyens

Cette analyse de risques a été considérée comme le point de départ pour la suite de ce travail. En effet, elle permet d’identifier les points faibles de l’institution en termes d’infrastructure, de comprendre quels sont les éléments indispensables à faire figurer dans le plan de gestion de sinistres et de constituer une liste de recommandations d’amélioration pour l’institution en question.
Enfin, pour terminer cette synthèse, chaque point critique a été passé en revue en profondeur, afin d’en analyser les risques qui y sont contenus, leurs probabilités, leur importance d’impact et, de ce fait pouvoir déterminer les raisons pour lesquelles ces catégories ont été identifiées en tant que telles.

Plan de gestion de sinistres

Dans la continuité de l’analyse de risques, l’analyse des plans de gestion de sinistres récoltés lors de la recherche documentaire a été réalisée, afin d’en extraire les lignes directrices utiles pour les Archives de Montreux. En outre, des entretiens avec les mandants ont permis de récolter leurs avis et leurs souhaits à propos de ce qui allait figurer sur leur plan de gestion de sinistres, et pour leur faire un état de l’art.

En ce qui concerne le contenu du futur plan de gestion de sinistres des Archives de Montreux, il s’est vite avéré qu’il fallait reprendre certains éléments existants, comme les traitements et procédures de manipulations des documents selon leurs types ou encore les procédures en cas de sinistres, etc. Ceci est dû au fait que certaines procédures et pratiques font office de référence dans le domaine. D’autre part, certains documents ont été repris tels quels, car jugés bien structurés et utiles aux archivistes de Montreux en cas de sinistres.

Quant à la structure de ce plan de gestion de sinistres, elle a été définie selon l’ordre d’utilité des éléments durant un sinistre. Il a paru logique que ce plan soit structuré de la sorte, afin de permettre aux personnes qui auraient à traiter un sinistre à l’aide de ce document de ne pas se perdre dans les informations, dans le feu de l’action. En effet, lorsqu’un sinistre survient, un certain stress peut s’installer et le fait de pouvoir consulter un document structuré de façon claire peut permettre de diminuer ce stress et par conséquent réduire les effets néfastes qu’aurait une mauvaise gestion du sinistre.

Voici la liste des éléments qui ont été retenus pour constituer le Plan de gestion de sinistres des Archives de Montreux :

  • Les procédures d’alarmes
  • La définition des responsabilités
  • Les procédures à suivre en cas de sinistre
  • La liste des intervenants à contacter en cas de sinistre
  • Le traitement et les procédures de manipulation des documents
  • Le plan des Archives de Montreux
  • Le tableau des documents à déplacer et les étiquettes de déplacement
  • Les fiches des documents prioritaires PBC
  • La structure de la zone d’évacuation
  • Les procédures techniques pour le bâtiment des Archives de Montreux

Les procédures d’alarme

Le premier élément qui figure dans ce plan est la procédure d’alarme, car en cas de sinistre, la gestion des alarmes serait le premier évènement auquel les archivistes seraient confrontés. En plus de consolider le traitement des alarmes en cas de sinistres, cette élaboration a mis en exergue le fait que jusque-là les archivistes de Montreux ne disposaient pas des bons documents de traitement des alarmes. De ce fait, le responsable sécurité des personnes de la Commune de Montreux a été contacté, afin de déterminer les procédures adaptées au traitement des alarmes. Pour ce faire, des simulations des alarmes de montée des eaux, d’incendie et de panne sur le système de climatisation ont pris place. Malgré ces simulations, il n’a pas été possible de définir les procédures pour les alarmes d’ouverture sous contrainte et d’effraction car, lorsque cette procédure s’active, le système d’alarme contacte directement la police de Montreux et il n’est pas possible de le mettre en mode test. Ce problème sera résolu ultérieurement et il a été indiqué dans les recommandations.

Définition des responsabilités

Le second point de ce plan concerne la définition des responsabilités et des rôles en cas de sinistre. En effet, cette partie permet d’identifier de manière claire les personnes chargées de chaque(s) tâche(s). La structure qui figure dans ce travail n’est qu’une proposition de définition des responsabilités tirée de l’ouvrage d’Andrea Giovannini intitulé « De Tutela Librorum » (Giovannini 2010). La version finale sera déterminée ultérieurement, lors d’une réunion entre la responsable des Archives et les autorités de la ville de Montreux.

Procédure à suivre en cas de sinistre

La suite de ce plan concerne les procédures à suivre lors des différentes phases du sinistre. Pour rappel cette procédure est découpée en 5 phases :

  1. Déclaration du sinistre
  2. Intervention des secours,
  3. Stabilisation et contrôle climatique,
  4. Évacuation et mise en sécurité des documents,
  5. Réhabilitation des locaux.

Cette structure a été tirée du cours de Nelly Cauliez, conservatrice-responsable à la BGE et responsable de la coordination de la protection des biens culturels (PBC) de Genève intitulé « Les sinistres en action, la gestion des documents endommagés ». La décision d’intégrer cette partie à ce plan de gestion de sinistres a été motivée par le fait qu’elle paraissait importante pour la gestion stratégique d’un sinistre. En effet, elle permet de « scénariser » cette gestion et ainsi permettre le bon déroulement de cette dernière. En outre, une bonne partie des plans analysés comportaient une partie similaire.

Liste des intervenants à contacter en cas de sinistres

Ce point était le seul qui figurait dans presque tous les plans de gestion de sinistres analysés. Cette liste est centrale en ce qui concerne la prise en charge d’un sinistre. En effet, il est primordial d’avoir à disposition un répertoire regroupant toutes les personnes de contacts auxquels les archivistes pourraient faire appel. En outre, il est intéressant de structurer cette liste par corps de métier, afin de pouvoir optimiser le temps de recherche dans le feu de l’action.

En ce qui concerne la sélection des personnes qui devaient figurer sur cette liste, il revient à la responsable des Archives de faire sa propre sélection de personnes. Cette décision a été prise, car ces informations sont purement opérationnelles et politiques.

Traitement et procédures de manipulation des documents

Malgré le fait que la Protection des Biens culturels possède ses propres procédures, qui doivent être relativement similaires à celles qui se trouvent dans ce plan, il a tout de même été décidé d’intégrer cette partie à ce plan. En effet, le fait de les faire figurer faisait sens, notamment dans le cas où les personnes qui auraient à manipuler les documents sinistrés ne feraient pas partie de la PBC.

Ces procédures ont été tirées du document intitulé « Canevas servant de modèle pour élaborer un plan d’urgence » de la République et du Canton de Genève (2017). Ces procédures ont été reprises telles quelles, car, tout comme les procédures en cas de sinistre, il s’agit de procédures de référence élaborées par des experts dans le domaine.

Plan des Archives de Montreux

Un plan des Archives de Montreux a été intégré à ce plan de gestion de sinistres, car, en cas de sinistre, ce dernier pourrait servir aux archivistes à indiquer aux services de secours la localisation des infrastructures techniques du bâtiment ou encore la localisation du départ du sinistre à traiter. Afin d’obtenir ce plan, nous avons dû contacter l’architecte qui a mené la transformation du bâtiment en locaux d’archives.

Tableau des documents à déplacer et étiquettes de déplacement

Ces éléments ont été intégrés afin de permettre l’organisation de l’extraction des documents ainsi que pour éviter la perte de ces derniers dans la masse, en s’inspirant de ceux présentés lors du cours de Nelly Cauliez intitulé « Les sinistres en action, la gestion des documents endommagés » (Cauliez 2019).

Fiches des documents prioritaires PBC

En règle générale ces fiches ne figurent pas dans un plan de gestion sinistres, car elles sont censées être stockées au service de la Protection des biens culturels de la région de l’institution concernée, étant donné l’importance essentielle de ces derniers dans le processus d’extraction des documents capitaux. En ce qui concerne les Archives de Montreux, ce n’est pas encore le cas. Ces documents sont uniquement stockés sur les serveurs de l’institution et cela peut être problématique pour leur consultation en cas de coupure de courant à cause d’un sinistre. Par conséquent, ils ont été aussi intégrés aux annexes de ce plan afin de pallier cette problématique, en attendant qu’ils soient transmis à la PBC Riviera Pays d’Enhaut(2).

Structure de la zone d’évacuation

En dépit du fait que cette tâche incombe à la Protection des Biens culturels, il a tout de même paru important d’intégrer ce schéma à ce plan, ne serait-ce que pour permettre aux archivistes de comprendre la structure des zones lors d’une évacuation de documents ou pour leur fournir un fil rouge pour la mise en place de cette dernière, dans le cas de figure où la PBC ne le ferait pas. En outre, un schéma de rappel des différents traitements selon l’état du document a été ajouté, afin de faciliter ce processus.

Figure 4 Structure de la zone d'évacuation du plan de gestion de sinistres des Archives de Montreux 

Procédures techniques pour le bâtiment des Archives de Montreux

L’intégration de ces procédures au plan de gestion de sinistres découle d’une discussion avec les archivistes qui trouvaient pertinent de pouvoir avoir accès à des instructions pour couper l’électricité ou encore l’arrivée d’eau en cas de problèmes survenus sur les installations. Le fait de pouvoir effectuer ces coupures au début d’un sinistre pourrait réduire considérablement les dégâts et rendre la zone plus sûre pour l’intervention des secours.

La mise à jour du plan de gestion de sinistres

On a défini les objectifs de la mise à jour afin d’informer les futurs utilisateurs des raisons de son existence ainsi que pour guider les personnes qui seront amenées à l’utiliser vers les résultats escomptés. Le but premier de cette partie est de permettre de cadrer et de garantir la tenue à jour de ce plan afin de préserver son efficacité dans le temps.

Identification des informations amenées à changer

Pour mener à bien cette identification, les questions suivantes ont été soulevées : quels sont les éléments qui composent ce plan de gestion de sinistres et qui seront amenés à changer ? Quelle est la fréquence de ces potentiels changements ? Y a-t-il des informations qui ne changeront pas ? Si ces informations sont amenées à changer, quelles en seraient les raisons ?

Suite à la définition de ces questions, une liste a été dressée. Elle regroupe les parties du plan qui contiennent des informations pouvant être amenées à changer et dont voici le libellé :

  • Les procédures d’alarme
  • Nouveaux processus d’alarme, lors du changement des infrastructures d’alarmes
    • La liste des intervenants
    • Nom, Prénom, Contact, Adresse des intervenants externes aux Archives de Montreux
      • La définition des responsabilités
      • Les mêmes informations que la liste des intervenants
        • Le plan des Archives de Montreux
        • Un changement sur les plans est possible, du fait que les archivistes souhaiteraient agrandir les Archives de Montreux. Par conséquent, les plans s’en trouveraient modifiés.
          • Les fiches de documents prioritaires PBC
          • Il s’agit d’un élément dont le contenu sera mis à jour, lorsqu’un document ou un objet nécessitant une protection par le Bouclier bleu(3)sera versé aux Archives de Montreux.

Définitions des fréquences de mise à jour/vérification 

L’étape suivante de ce processus d’élaboration fut celle de la définition des fréquences de mise à jour adaptées à chacun des points de ce plan de gestion de sinistres. Pour cela, les différents types d’information contenus dans le plan ont été analysés afin d’effectuer une estimation de la probabilité que ces derniers changent en une année. Cela a amené à définir deux types de fréquence de mise à jour:

Tableau 3 Tableau des types de fréquence de mise à jour des informations du plan de gestion de sinistres

Fréquences de mise à jour/vérification

Justifications 

Chaque année (mois d’août)

  • Probabilité élevée de changement des informations en une année
  • Changement pas forcément communiqué aux archivistes

Exemple : changement de la personne en charge de la PBC

  • Le mois d’août a été choisi car il s’agit d’une période où l’activité aux Archives est ralentie

À chaque changement des infrastructures concernées

  • Le changement d’infrastructure serait connu des archivistes

Exemple : changement des infrastructures d’alarmes

Procédure de mise à jour du plan de gestion de sinistres

Pour ce qui est de la procédure de mise à jour, elle se trouve sous la forme d’un tableau avec des emplacements dédiés pour l’intitulé du point à vérifier, la fréquence de mise à jour, les éléments à vérifier sur le document et la manière de procéder (sources pour la vérification et méthode de vérification). Sur cette procédure se trouvent aussi les objectifs de cette dernière. Ce tableau résulte d’un questionnement sur les sources qui seraient le plus enclines à détenir les informations recherchées, pour ensuite procéder à la description de la manière dont il faut s’y prendre pour vérifier leurs mises à jour.

Suivi de la mise à jour

Afin de garantir que des mises à jour soient effectuées et qu’un suivi de ces dernières soit possible, un document a été créé, qui permettra aux archivistes de faire le suivi de toutes les mises à jour et vérifications effectuées depuis la création de ce plan de gestion de sinistres. Il s’agit d’un tableau Excel comportant pour chacun des éléments identifiés au départ, une case qui permettra d’indiquer s’il y a eu une modification, la date, une ligne pour la signature ainsi qu’une partie dédiée aux éventuels commentaires sur ces modifications. En plus de ce document, on a ajouté un cartouche sur la page de titre du livrable qui permet d’indiquer la date de la création du document, la dernière mise à jour et la version de ce dernier.

Conclusion

Dès le début de ce travail, il était clair que l’élaboration de ce plan de gestion de sinistres était d’une importance capitale pour les Archives de Montreux. En effet, ce document a l’avantage de réunir dans un même document toutes les informations stratégiques nécessaires à la gestion d’un sinistre.

Les mandants ont été impliqués au plus tôt dans la démarche, pour faire en sorte que les documents soient entièrement adaptés à leurs besoins et leurs attentes.

Ce document devrait pouvoir servir de base d’informations pour la gestion d’un sinistre. Et suite à l’analyse des risques effectuée, des recommandations permettant de diminuer les risques pour les Archives de Montreux ont été faites, comme par exemple l’installation d’une digue amovible devant la porte principale des Archives ou encore l’achat de matériel d’urgence en cas de sinistres etc.

Un bon plan de gestion de sinistres étant un plan qui évolue et qui s’adapte, une méthodologie de mise à jour a été intégrée, ainsi que de recommandations de test de ce plan.

Notes

(1) Matrice des risques du CEP

(2) Service de la Protection des biens culturels en charge de la région de Montreux

(3) Le Comité international du Bouclier bleu (CIBB) : Organisme de protection du patrimoine culturel du monde menacé par les guerres et les catastrophe naturelles

Bibliographie

ARCHIVES DE MONTREUX, 2016. Alarme effraction et centrale et valeurs climat. Août 2016. Document interne à la Municipalité de Montreux

Association Vaudoise des Archivistes, [sans date]. Archivistes [en ligne]. https://www.archivistes.ch/boite-a-outils/gestion-des-catastrophes/

BÉDA, Claude, 2015. La rivière la Baye de Clarens sera sécurisée. Le 24 heures [en ligne]. 29 septembre 2019. [Consulté le 21 mai 2019]. Disponible à l’adresse : https://www.24heures.ch/vaud-regions/riviera-chablais/La-riviere-la-Baye-de-Clarens-sera-securisee/story/22186631

BERGER, Yves, LAFFELY, Constantin, MORISOD, Maxime, 2006. Plan de sauvetage des collections pour la Médiathèque Valais [en ligne]. Genève : Haute école de gestion de Genève. Travail de Bachelor. [Consulté le 19.02.2019]. Disponible à l’adresse : http://doc.rero.ch/record/6538

BODER ; Alexandre. 2019. Protection des biens culturels documentaire [document PDF]. Support de cours : Cours « Préservation et protection des documents et biens culturels », Haute école de gestion de Genève, filière information documentaire, année académique 2018-2019

BRULEAUX, Anne-Marie, GIOVANNINI, Andrea, 2011. Module 8 – Préservation et Restauration [document PDF]. 14 novembre 2011. Support de cours : Préservation Restauration, Portail International Archivistique Francophone

CENTRE POUR L’ÉDUCATION PERMANENTE, 2019. Analyse des risques.2019. Document interne à la Municipalité de Montreux  

Cartoriviera, 2015. Cartoriviera [en ligne]. 2015. 2019. [Consulté le 01.05.2019]. Disponible à l’adresse : https://map.cartoriviera.ch

CAULIEZ, Nelly. 2019. Préservation et protection des documents et biens culturels, définitions, fabrication et nature des matériaux, facteurs de dégradation [document PDF]. Support de cours : Cours « Conservation des biens culturels écrits », Haute école de gestion de Genève, filière information documentaire, année académique 2018-2019

CAULIEZ, Nelly. 2019. Principes et méthodes de la conservation: Phase préparatoire et opérationnelle, facteurs de dégradation [document PDF]. Support de cours : Cours « Conservation des biens culturels écrits », Haute école de gestion de Genève, filière information documentaire, année académique 2018-2019

CAULIEZ, Nelly. 2019. Les sinistres en action, la gestion des documents endommagés [document PDF]. Support de cours : Cours « Conservation des biens culturels écrits », Haute école de gestion de Genève, filière information documentaire, année académique 2018-2019

CATNAT, 2019. Catnat [en ligne]. 2001. 2019. [Consulté le 04.06.2019]. Disponible à l’adresse : https://www.catnat.net/ 

COSADOCA, 2003. Cosadoca [en ligne]. 2003. 2019. [Consulté le 01.05.2019]. Disponible à l’adresse : https://www.cosadoca.ch/fr/

DELAFOI,Florian, 2018. Orage à Lausanne : « Quand les Suisses nettoient, ce n’est pas pour rire!». Le Temps [en ligne]. 12 juin 2018. [Consulté le 21 mai 2019]. Disponible à l’adresse : https://www.letemps.ch/opinions/orage-lausanne-suisses-nettoient-nest-rire

EGLOFF, Gregor, HUBER, Max, GÖSSI, Anton, 2007. Archivbauten in der Schweitz und im Liechtenstein 1899-2009. Baden : Hier und Jetzt. 252 p. ISBN 978-3-03919-047-8

Établissement d’assurance contre l’incendie et les éléments naturels du canton de Vaud, 2016. Eca-Vaud [en ligne]. [Consulté le 25.04.2019]. Disponible à l’adresse : https://www.eca-vaud.ch

Établissement d’assurance contre l’incendie et les éléments naturels du canton de Vaud. Wikipédia: l’encyclopédie libre [en ligne]. Dernière modification de la page le 17 septembre 2018 à 23h44. [Consulté le 29.04.2019]. Disponible à l’adresse : https://fr.wikipedia.org/wiki/%C3%89tablissement_d%27assurance_contre_l%27incendie_et_les_%C3%A9l%C3%A9ments_naturels_du_canton_de_Vaud

GIOVANNINI, Andrea, 2002. Pour un plan de prévention et d’intervention en cas de catastrophe. Arbido [en ligne]. 2002. [Consulté le 16 avril 2019]. Disponible à l’adresse : https://www.e-periodica.ch/digbib/view?pid=arb-013:2002:17::363#8

GIOVANNINI, Andrea, 2010. De Tutela Librorum: La conservation des livres et des documents d’archives. 4e éd. Baden: Hier und Jetzt. 569 p. ISBN 978-3-03919-144-4

GRANGE, Didier, 2008. Risques et catastrophes : une approche en trois phases et trois plans. Revue électronique suisse de science de l’information [en ligne]. 30 avril 2008. [Consulté le 2 avril 2019]. Disponible à l’adresse : http://www.ressi.ch/num07/article_047

International Federation of Library Associations, 1999. Prévention des sinistres dans les bibliothèques et les centres d’archives [en ligne]. IFLA. Paris. 1999. [Consulté le 13.05.2019] Disponible à l’adresse : https://archive.ifla.org/VI/6/dswmedia/fr/pdf/txt_sini.pdf

KARLI, Chantal et al. 2001. Plan de prévention, d’intervention et de réhabilitation [en ligne]. Archives cantonales vaudoises. Lausanne, 2001. [Consulté le 04.03.2019] Disponible à l’adresse : https://www.cosadoca.ch/media/filer_public/2018/12/29/cosadoca_2019_planenvigueurplantronque01012019.pdf

KARLI, Chantal. 2011. Plan d’intervention: Mesures conservatives d’urgence lors de dégâts d’eau et de feu. Bibliothèque nationale suisse. Berne, 2011. [Consulté le 30.04.2019] Disponible à l’adresse : https://www.nb.admin.ch/dam/snl/it/dokumente/erhalten/studien_und_berichte/katastrophenplan.pdf.download.pdf/piano_d_interventoinfrancese.pdf

MEYSTRE, Nicole/MUNICIPALITÉ DE MONTREUX, 2011. Visite A. Giovannini – 8 décembre 2011. 08.12.2011. Document interne à la Municipalité de Montreux

MARTI, Michèle, 2016. Seismo [en ligne]. 2016. 20 mai 2019. [Consulté le 14.05.2019]. Disponible à l’adresse : http://www.seismo.ethz.ch/fr/home/

Magnitude (sismologie). Wikipédia: l’encyclopédie libre [en ligne]. Dernière modification de la page le 20 mars 2019 à 14:59. [Consulté le 14.05.2019. Disponible à l’adresse : https://fr.wikipedia.org/wiki/Magnitude_(sismologie) 

Office fédéral de la protection de la population, 2008. Matériel et engins de la section d’appui Partie 6: Transport d’eau usée et d’eau propre [en ligne]. Berne : Office fédéral de la protection de la population. [Consulté le 30 avril 2019]. Disponible à l’adresse : https://www.protection-civile.ch/documents/telechargement/1508-00-1-06-f-a5-materiel-engins-section-appui-partie6-transport-eau-usee-propre.pdf

Office fédéral de la protection de la population, 2019. Fiches de la Protection des Biens culturels. Montreux, Office Régional de la Protection de la Population.

Office fédéral de météorologie et de climatologie MétéoSuisse, 2019. Meteosuisse [en ligne]. 2000. 2019. [Consulté le 03.06.2019]. Disponible à l’adresse : https://www.meteosuisse.admin.ch/home.html?tab=alarm 

ORGANISATION INTERNATIONALE DE NORMALISATION, 2014. Information et documentation – Évaluation du risque pour les processus et systèmes d’enregistrement. 1ère éd. Genève : ISO, 15 mars 2014. ISO/TR 12128

ORGANISATION INTERNATIONALE DE NORMALISATION, 2013. Technologies de l’information – Techniques de sécurité – Systèmes de management de la sécurité de l’information – Exigences. 2e éd. Genève : ISO, 1er octobre 2013. ISO/CEI 27001Ornicom, 2017. Ornicom [en ligne]. 1989. 2017. [Consulté le 25.04.2019]. Disponible à l’adresse : https://www.ornicom.com/fr/produits/indicateur-d-action-a-led-irk-e-si.html

PONCET, Laurine. 2017. Les matériaux d’emballage [en ligne]. Gollion : Protection des Biens culturels Vaudoises. [Consulté le 29 avril 2019]. Disponible à l’adresse : https://protectioncivilevd.ch/images/stories/documents_articles/CC_cant_2017/Emballage.pdf

République et Canton de Genève, 2017. Canevas servant de modèle pour élaborer un plan d’urgence [en ligne]. Genève : 2017. [Consulté le 01.03.2019] Disponible à l’adresse : http://ge.ch/archives/media/site_archives/files/imce/pdf/procedures/procedures_en_cas_de_sinistre_v_13_2017.pdf

SALVI, Pierre/MUNICIPALITÉ DE MONTREUX, 1998. Commune de Montreux : préavis de la Municipalité au Conseil communal. 19.03.1998. Document interne à la Municipalité de Montreux

Société suisse pour la protection des biens culturels. Guide de gestion des risques dans le domaine des biens culturels [fichier PDF]. Disponible à l’adresse : https://www.curesys.ch/download/publikationen/

The World Air Quality Index project, 2019. Aqicn [en ligne]. 2008. 2019. [Consulté le 04.06.2019] Disponible à l’adresse : https://aqicn.org/map/switzerland/fr/#@g/46.4655/6.8559/10z

Université de Lausanne, 2013. Plan de sauvetage des documents en cas de sinistre (eau et feu) [en ligne]. [Consulté le 07.05.2019] Disponible à l’adresse : https://www.unil.ch/uniris/files/live/sites/uniris/files/documents/unites/UNIRIS_Plan_sauvetage_archives_historiques.pdf

VAN DER SCHUEREN, Yannick, 2019. À Notre-Dame, les pompiers ont été appelés trop tard. Le 24heures [en ligne]. 24 avril 2019. [Consulté le 26 avril 2019]. Disponible à l’adresse :https://www.24heures.ch/monde/europe/notredame-pompiers-appeles-tard/story/20914259

Retours sur le congrès IFLA 2019

Florence Burgy, Haute Ecole de Gestion, Genève

Matthieu Cevey, Haute Ecole de Gestion, Genève

Benoît Epron, Haute Ecole de Gestion, Genève

Michel Gorin, Haute Ecole de Gestion, Genève

Anouk Santos, Haute Ecole de Gestion, Genève

Retours sur le congrès IFLA 2019

Introduction

S’il est un congrès auquel un bibliothécaire se doit d’assister une fois dans sa vie, c’est bien celui de l’IFLA. C’est à Athènes, l’une des plus anciennes villes du monde, que les bibliothécaires du monde entier se sont rencontrés cette année, pour assister à plusieurs centaines de conférences, dont certaines seront relatées dans les lignes ci-dessous. Nous étions en effet une petite délégation de la Haute école de gestion de Genève à nous rendre en terres helléniques pour confronter notre vision à celle de milliers d’autres, et la faire évoluer bien entendu. Présentation de la nouvelle stratégie de l’IFLA, retours sur les conférences, caucus et discussions, le congrès 2019 fut très riche, et très chaud, malgré les salles climatisées.

Ouverture du congrès

Hormis les discours d’usage, parmi lesquels celui de la présidente de l’IFLA, Gloria Pérez-Salmerón, qui a ouvert le congrès en s’exclamant « I am proud to be a librarian ! », cette cérémonie a été l’occasion de découvrir quelques chiffres intéressants : plus de 3600 délégués présents, en provenance de 140 pays, pour assister à plus de 250 sessions proposées par plus de 500 conférenciers !

La conférence d’ouverture, proposée par Loukas Tsoukalis, professeur émérite à l’Université d’Athènes, a porté sur les multiples changements (sociétaux, économiques, climatiques, etc.) auxquels nous faisons face et plus particulièrement sur l’interdépendance globale qu’ils engendrent. Cette dernière nécessite, selon l’orateur, des règles et une gouvernance communes, ainsi que des sociétés inclusives libres, informées et suffisamment en confiance pour s’engager avec les autres en vue de résoudre les problèmes générés par ces mutations en cours.

Dans ce contexte, les bibliothèques jouent un rôle-clé : « a strong and united library field powering literate, informed and participative societies ». C’est toujours bon de se l’entendre dire !

Nouveau plan stratégique de l’IFLA

Processus

L’IFLA, à l’instar de toutes les organisations internationales, fonde son action sur une stratégie, document de référence à la fois pour elle-même, ses membres et tout le domaine des bibliothèques. C’est à Athènes qu’a été dévoilée, en grandes pompes, la Stratégie de l’IFLA 2019-2024 (https://www.ifla.org/strategy, avec PDF en français et en allemand), qui représente l’aboutissement d’une démarche participative engagée en 2017 déjà.

Il y a deux ans, l’IFLA avait en effet commencé par examiner les défis et opportunités qui se présentent aux bibliothèques, au travers des contributions de 190 États membres de l’ONU, lesquelles avaient démontré que dans le monde entier, les objectifs et valeurs des bibliothèques sont globalement partagés.

Les défis auxquels sont confrontées les bibliothèques, les enjeux qu’ils représentent, ne peuvent être surmontés que par une réponse globale et inclusive, proposée par des bibliothèques unies entre elles. Forte de ce constat, l’IFLA a lancé par la suite un large processus de discussion et réflexion au sujet d’une vision globale, dont les résultats sont accessibles à l’adresse https://www.ifla.org/node/11905 (avec PDF en français et en allemand). Un atelier de lancement, des ateliers régionaux et un appel à idées sur une plateforme en ligne, en 2018, suivis d’une analyse et de l’élaboration de propositions d’action concrètes fin 2018 et début 2019, ont abouti au lancement de la stratégie 2019-2024. Cette dernière est par conséquent le fruit d’une véritable « conversation globale » à laquelle ont participé 1474 bibliothécaires de tous les continents.

L’objectif étant que les actions aux niveaux international et régional soient coordonnées pour être efficaces, il a été jugé essentiel de prendre en compte les caractéristiques et exigences régionales. Les ateliers et la plateforme en ligne ont ainsi permis de réunir des idées du monde entier, grâce auxquelles il est possible de percevoir le rôle que peuvent jouer les bibliothèques de tous types, dans toutes les régions du monde.

Toutes ces idées ont, au final, permis à l’IFLA de définir sa stratégie, accompagnée de différents plans d’action, dont le but est de transformer la vision globale en une réalité, dans les cinq ans à venir.

Une vision et une mission

« Un domaine des bibliothèques fort et uni au service de sociétés instruites, informées et participatives », dans le but d’« inspirer, mobiliser, rendre actif et connecter le domaine des bibliothèques à l’échelle mondiale » : voici la vision et la mission telles que mentionnées dans la Stratégie de l’IFLA 2019-2024. Différentes valeurs viennent s’ajouter à cette vision et à cette mission, parmi lesquelles l’adhésion aux principes figurant dans l’article 19 de la Déclaration universelle des droits de l’homme (https://www.un.org/fr/universal-declaration-human-rights/) et la conviction que nos sociétés ont besoin d’un « accès universel et équitable à l’information » pour assurer leur bien-être, accès que les bibliothèques contribuent à garantir.

Des orientations stratégiques

1.    Renforcer la voix des bibliothèques dans le monde

2.    Inspirer et améliorer la pratique professionnelle

3.    Relier entre elles et rendre autonomes les communautés sur le terrain

4.    Optimiser notre organisation.

Langue de bois ? Manque d’ambition ? L’objectif clairement affirmé de l’IFLA étant de fournir un document qui puisse être utilisé comme cadre autour duquel développer des actions concrètes, afin de contribuer à concrétiser sa stratégie, chaque orientation stratégique est déclinée en quatre « initiatives-clés ». Que l’IFLA nous invite à découvrir, en prenant impérativement connaissance de la Stratégie de l’IFLA 2019-2024, puis en développant les actions correspondantes nécessaires dans toutes nos bibliothèques, à notre échelle et selon nos moyens.

Le nouveau slogan de l’IFLA, dévoilé lui aussi à Athènes (« Inspire, Connect, Engage, Enable ») reflète et accompagne par ailleurs cette stratégie, au sujet de laquelle son Secrétaire général Gerald Leitner, lors de sa présentation à Athènes, s’est exclamé : « A vision without execution is hallucination ! ».

Retours sur les conférences

Les 20 ans de FAIFE

« Freedom of Access to Information and Freedom of Expression (FAIFE) » est l’un des six programmes stratégiques de l’IFLA, chargé de défendre et de promouvoir les droits fondamentaux définis dans l’article 19 de la Déclaration des droits de l’homme (https://www.un.org/fr/universal-declaration-human-rights/). À ce titre et par l’intermédiaire d’un groupe de travail spécifique, c’est FAIFE qui est à l’origine du code d’éthique promulgué en 2012 par l’IFLA, lui-même à l’origine du code d’éthique de Bibliothèque Information Suisse, actuellement en phase de mise à jour pour devenir, en 2020, le code d’éthique de Bibliosuisse.

Les interventions qui ont été proposées dans le cadre de ce vingtième anniversaire ont, entre autres, permis de (re)mettre en lumière deux documents essentiels, produits pour l’IFLA par FAIFE :

Augmenting reality

Cette session a, entre autres, été l’occasion de découvrir le Centre culturel Sitterwerk à St-Gall, qui propose un étonnant catalogue (https://www.sitterwerk-katalog.ch/). Le classement des livres bénéficie d’un « rangement dynamique » grâce au RFID, permettant de retrouver l’emplacement d’un document, quelle que soit sa place. En outre, le système permet de combiner, sur une table équipée de huit antennes, des recherches sur des matériaux et des livres. Par exemple, tous les liens effectués entre ces documents lors des recherches étant conservés et demeurant accessibles, tout en pouvant être annotés et surtout partagés.

Le catalogue montre donc les tranches des livres, leurs métadonnées et toutes les informations relatives à leurs utilisations successives : assez bluffant, bien au-delà du simple gadget ! Et il a fallu aller à Athènes pour découvrir cet outil qui est un exemple réussi d’emploi de la réalité augmentée !

Une autre présentation a retenu notre attention : celle d’une action de « user experience design » en cours à l’Université de Paris-Saclay, afin de créer un learning center sur un nouveau campus, avec ses futurs usagers. Sur la base de plans, une réflexion globale est menée sur les espaces publics, les espaces de travail et les espaces professionnels. Dans un tel cas, la réalité virtuelle permet un réel changement pour les usagers : ils sont au courant du projet, ils rencontrent le personnel du futur learning center, ils partagent leurs idées et leurs pratiques, ils sont impliqués durablement dans un projet qui les concerne et, au final, ils influencent très favorablement la création des espaces : plus confortables, plus colorés, plus personnalisés.

Nouvelles technologies

L’une des conférences traitait de la technologie blockchain fréquemment associée au bitcoin et à la problématique des cryptomonnaies, mais dont les fonctionnalités, bien plus vastes, commencent à intéresser les professionnels de l’information. Lors de cette conférence, un panel de spécialistes est venu présenter de futurs usages possibles de cette technologie, dont voici trois exemples : création d’un bookcoin pour gérer les paiements des prêts entre bibliothèques à l’international (en évitant, entre autres, les problèmes de taux de change) ; création d’une carte de bibliothèque universelle, qui gérerait à la fois les différents règlements de prêt mais aussi les « privilèges » (droits élargis, etc.) ; aide à la conservation à long terme dans différents formats numériques pour les archivistes. À ce jour, aucun service d’information ne travaille avec la technologie blockchain, mais l’avenir nous dira si elle a sa place parmi les outils des spécialistes de l’information… ou non.

Une autre technologie, mieux connue, est l’intelligence artificielle (IA), dont l’usage est déjà monnaie courante dans bien des services.  Plusieurs conférenciers présentaient son importance pour le data mining, à l’image de l’outil Yewno des bibliothèques de Stanford, qui extrait automatiquement des entités et concepts de publications scientifiques et présente des liens avec d’autres publications scientifiques sous forme de graphes. À la bibliothèque nationale de Singapour, le data mining est utilisé pour repérer des autorités du catalogue dans des documents numérisés, afin de lier les collections physiques aux numérisations. L’IA trouve aussi son utilité sous la forme d’assistants virtuels permettant de recommander automatiquement des ouvrages aux lecteurs, comme c’est le cas à la bibliothèque Oodi à Helsinki – nommée meilleure bibliothèque publique de l’année – ou encore avec l’appli Bibblix, développée en Suède et visant un public de 6 à 12 ans.

Enfin, réalité augmentée (AR) et réalité virtuelle (VR) font largement parler d’elles. Dans une bibliothèque jeunesse à Taiwan, par exemple, une appli permet aux enfants de localiser facilement un document dans les espaces physiques de la bibliothèque grâce à la réalité augmentée. La réalité virtuelle, quant à elle, fait son entrée dans les bibliothèques de lecture publique, et attire toutes les générations. Une conférencière de Madrid mentionnait que son public senior ne se lasse pas de jouer avec Google Earth en VR, non pas pour « visiter » des contrées lointaines, mais bien pour zoomer chez ses voisins. Ces technologies semblent avoir de beaux jours devant elles.

Nouveau management et advocacy

Gérer ses équipes et gérer son image, deux problématiques au cœur des préoccupations de toute entreprise ou institution. Au cours d’une présentation à propos des futurs managers et leaders en bibliothèque, une conférencière, ex-manager générale des bibliothèques d’Auckland, présentait la différence entre ce qu’on attendait d’un bon manager dans le passé, et ce qu’on en attend maintenant. Avant, un manager en bibliothèque se devait d’être le preneur de décision, « celui qui sait », un quasi-autocrate s’appuyant sur la hiérarchie pour faire respecter les procédures mises en place sur la base de son expertise. Le manager du futur est celui qui travaille avec ses équipes et ses collaborateurs en étant à leur écoute, en respectant leurs compétences propres et en les valorisant, tout en acceptant qu’il n’est pas le seul expert ; celui qui apprend de ses collaborateurs et fait preuve d’empathie dans sa gestion du changement. Cette nouvelle vision du manager interroge… et rassure.

L’advocacy, quant à elle, est sur toutes les lèvres. Il faut que les bibliothèques s’affirment, qu’elles montrent qu’elles existent et qu’elles ont leur rôle à jouer. Comme l’a dit Gloria Pérez-Salmerón dans l’un de ses discours « Libraries are an investment, not a cost ! ». Des idées sont échangées, comme la mise en place dans plus de 1000 bibliothèques françaises de petits cubes présentant des actions concrètes permettant de réaliser les fameux SDGs (les objectifs développement durable), ou encore l’organisation d’edit-a-thon, où des bibliothécaires se lancent le défi d’éditer des articles Wikipedia sur la base de sources sûres. 

Diversité des publics

Certaines conférences, dans la droite ligne de la thématique Dialogue for Change, traitaient plus spécifiquement de l’inclusion de publics mis à l’écart de la société. Plusieurs présentations montraient le rôle que peuvent jouer les bibliothèques dans l’inclusion et l’autonomisation (ou empowerment) des femmes et des jeunes filles. Au Nigeria, la bibliothèque Wordoc organise des formations et des camps pour les femmes et les jeunes filles afin de les sensibiliser aux rôles qu’elles peuvent et doivent jouer dans la société et dans les décisions politiques, ainsi que pour leur rappeler leurs droits et renforcer leur indépendance. En Jordanie, des bibliothécaires travaillent activement dans des camps de réfugiés syriens afin d’offrir une éducation, un accès à l’information et des espaces sécurisés aux femmes et aux jeunes filles.

Les bibliothèques jouent également un rôle important dans l’inclusion de la communauté LGBTQ+, en informant la population à son sujet, en valorisant sa culture et en offrant des lieux où les membres de cette communauté peuvent exister en toute liberté. Par exemple, la bibliothèque publique de Montreuil, en région parisienne, a mis sur pied une « Semaine LGBT ». Lors de ces quelques jours, de nombreuses activités ont été organisées : rencontres avec des acteurs de la scène culturelle LGBT, avec des auteurs LGBT, conférences sur cette communauté par ses membres etc. En outre, des jeux queers et féministes étaient proposés au jeune public, ainsi que des ateliers de maquillage et de lecture organisés par des drag queens, que les enfants ont adorés. Plus de cinq cents personnes ont participé aux activités de cette semaine spéciale, et les retours étaient unanimement positifs… malgré la quantité de paillettes retrouvées partout, et surtout dans la section jeunesse, aux dires de la conférencière !

Marketing et réseaux sociaux

Le point d’orgue de cette session était la présentation de Bonnie Mager, bibliothécaire à la Invercargill City Libraries and Archives (NZ). Cette institution s’est fait connaître sur les réseaux sociaux ces dernières année, notamment en 2017 avec une publication Facebook intitulée Keeping Up With The Librarians (https://www.facebook.com/invlibrary/photos/a.361402647203435/1731469186863434/?type=3&theater) qui parodiait la couverture d’un tabloïd où figurait la famille Kardashian, au moment de la célébration du dixième anniversaire de l'émission de télé-réalité Keeping Up With the Kardashians. L’impact de cette publication a été énorme : « 1 million people reached ; 212,000 engaged users ; 12,000 reactions ; 1700 comments ; 5500 shares » (Mager 2019) et elle a bénéficié d’une large couverture médiatique mondiale. Ces chiffres feront probablement tourner la tête de la plupart des bibliothèques, qui ne remportent pas un tel succès sur la toile, si elles y sont présentes. 

Passé l’effet d’admiration, Bonnie Mager a prodigué des conseils pour la réalisation de publications qui plaisent sur les réseaux sociaux. Nous retiendrons surtout que le contenu doit être authentique et propre à l’institution. Pour que le succès soit au rendez-vous, il faut que les publications soient adaptées à l’institution, son environnement géographique ou politique, son personnel, son offre, son public, etc. Il ne sert à rien de reproduire à l’identique ce qui marche chez les autres. En l’occurrence, ce qui marche pour la Invercargill City Libraries and Archives, c’est d’emprunter les thématiques et les codes des tabloïds, de la culture des mèmes ou encore de la pop culture, par exemple dans une vidéo comique qui met en scène le personnage de Dark Vador comme utilisateur de la bibliothèque (https://www.facebook.com/invlibrary/videos/1947771565233194/). Les actualités, comme les compétitions sportives mondiales, sont aussi une occasion pour le personnel de se mettre en scène à la bibliothèque. Pendant les Jeux olympiques d’été de Rio en 2016, l’équipe a créé une vidéo nommée Synchronised Shelving (https://www.facebook.com/watch/?v=1268966316447059) dans laquelle trois bibliothécaires s’illustrent dans cette discipline et espèrent être sélectionnés pour Tokyo 2020. L’équipe a également repris des formats de vidéos qui tournent sur le web, par exemple la lecture de tweets méchants, ici à propos de bibliothécaires dans le clip Librarians Read Mean Tweets (https://www.facebook.com/invlibrary/videos/1495497153793973/).

Pour finir, la keynote speaker a insisté sur l’importance d’avoir du plaisir et de s’amuser lorsque l’équipe réalise ces contenus : si les contenus sont drôles à réaliser, il y a beaucoup de chances que cela soit aussi comique à regarder que cela marque l’esprit des internautes. Cette conférence, une des premières du matin, fut un concentré d’énergie et de bonnes idées qui ont enchanté tout l’auditoire. Les autres interventions de la session n’étaient pas moins inspirantes, avec, en Finlande, la venue des nouveaux membres du gouvernement dans les bibliothèques locales pour se présenter ainsi que dévoiler leurs projets, faisant des bibliothèques une sorte de nouvelle « place du village ». Rapportons également le premier prix du concours de Management et Marketing, remporté par la bibliothèque de l’Université de Colombie Britannique à Vancouver. Cette dernière propose d’utiliser ses collections iconographiques anciennes numérisées comme livres de coloriage numérique (https://about.library.ubc.ca/colour-our-collections/). Un projet à découvrir, pour s’en inspirer à nouveau… ou juste pour colorier !

Evaluation de l’impact des programmes en bibliothèques municipales

L'évaluation de l’impact des bibliothèques a de nombreuses vertus, notamment en termes d’advocacy, de gestion des ressources et de retour sur investissement. 

En Catalogne, le Planning and Evaluation Service du Conseil provincial de Barcelone suit depuis quelques années une stratégie d’évaluation de l’impact des programmes du Municipal Library Network (MLN), un réseau de 227 bibliothèques (Benet, Feliu, Orte 2019, p.2). Pour eux, l’évaluation de l’impact des programmes proposés en bibliothèque diffère de la simple analyse des indicateurs de performance ou du lancement d’enquêtes de satisfaction, méthodes assez traditionnellement utilisées lorsqu’on veut évaluer l’impact d’une bibliothèque. Leur axe de recherche découle d’un constat sur le rôle des bibliothèques : « The raison d'être of public services is the benefit they can provide for the people who use them and for the societies they serve. A public library service therefore does not exist to make many loans, schedule many activities or train many people, but instead public libraries were established as an instrument to educate citizens and to ensure universal access to information and culture. In short, they contribute to individual and social development in the direction that is considered desirable at any given time, according to a society's specific social and political vision. » (Benet, Feliu, Orte 2019, p. 2). Dans cet article, nous allons résumer trois études d’impact récentes de programmes qui ont été présentées au Congrès de l’IFLA et qui nous ont particulièrement marqués.

Easy-to-read clubs

Ce programme est destiné aux adultes qui ont des difficultés de lecture, du fait d’un handicap mental ou d’un manque d’alphabétisation. L’évaluation de son impact a été réalisée à la fois sur les plans cognitif et social. Les participants ont été interrogés via un questionnaire avant et après avoir participé à un de ces Easy-to-read clubs. L’étude montre qu’il y a eu 54% d’amélioration dans les habitudes de lecture, 18% d’augmentation des compétences liées au langage, 9% d’augmentation des relations sociales (par le fait de créer des relations sociales entre les participants) et 8% d’augmentation de l’utilisation de certains services de la bibliothèque. En revanche, l’impact sur les activités culturelles des participants ou leur bien-être personnel est pratiquement inexistant (Benet, Feliu, Orte 2019, p.6).

Formation au numérique pour les plus de 55 ans

L’édition 2016 de ce workshop consistait en trois modules : « comment marche un smartphone », « photos et vidéos avec votre mobile, montrez votre créativité » et « apps et WhatsApp, la communication instantanée en utilisant votre téléphone ». L’évaluation a été réalisée via un questionnaire rempli lors de la préinscription et à nouveau, 4 mois après le dernier cours. Les deux questionnaires ont été soumis à des participants au cours et à des non-participants, soit ceux auxquels une place n’a pas été attribuée, et qui forment donc le groupe de contrôle. Les principaux résultats démontrent que suivre les formations provoque une augmentation de 15% dans l’utilisation des apps liées à la communication, ainsi que 18% d’augmentation de l’usage d’internet à des fins de loisirs. En revanche, l’étude a montré que les formations ont eu un impact direct sur les thématiques couvertes par les leçons, mais pas d’impact indirect sur d’autres utilisations, par exemple l’usage d’internet pour d’autres activités que les loisirs, ou l’augmentation de l’utilisation des services de la bibliothèque (Benet, Feliu, Orte 2019, p.7-8).

« Velocirepte » : un programme de promotion de la lecture

L’édition 2018 du programme « Velocirepte » a duré de janvier à décembre 2018 et avait pour objectif la lecture par les participants d’au moins un livre par mois sur un sujet spécifique. Le but de l’évaluation était de savoir si, suite à la participation à ce programme, les prêts aux usagers avaient augmenté. Pour répondre à cette question, une méthode quasi expérimentale a été utilisée. Deux groupes ont été créés : le groupe des participants et un groupe de contrôle, constitué de non-participants. Or, ce groupe de contrôle comportait des individus dont chacun avait des caractéristiques personnelles identiques (âge, genre, nationalité, quartier de résidence) à un individu participant au programme. De plus, le participant et son alter ego dans le groupe de contrôle avaient également des caractéristiques identiques en matière d’utilisation du service de prêt. L’étude a montré que la moyenne des prêts par usager, semblable dans les deux groupes en 2016 et 2017, ne l’était plus en 2018, année du programme en question. En effet, la moyenne de la différence entre les deux groupes se montait à neuf prêts de plus pour les participants au programme, prouvant l’impact positif de ce dernier sur l’utilisation du service de prêt.

Cette approche de l’évaluation de l’impact des bibliothèques est particulièrement intéressante dans le contexte de remise en question du modèle traditionnel des bibliothèques publiques. Elle répond au besoin grandissant de prouver que les bibliothèques municipales contribuent de manière efficace et efficiente au développement personnel et collectif des usagers (Benet, Feliu, Orte 2019, p.2). Mais attention, pour réussir à mesurer l’impact de tels programmes, l’évaluation doit être prise en compte lors de leur conception, afin d’avoir un système de suivi et de contrôle générant des données exploitables dès le début (Benet, Feliu, Orte 2019, p.11).

The Migration of Books

La session 189, intitulée « The Migration of Books : Cultural Heritage (objects) and Ideas on the Move - Rare Books and Special Collections (SI) », reflétait une réalité que parfois, en tant que professionnels, nous oublions, à savoir la matérialité du livre. Un livre matérialise une ou plusieurs idées, il est le véhicule de la pensée de son auteur et permet dès lors de l’affranchir des frontières à la fois géographiques et temporelles. Cet objet, si spécial et commun à la fois, a joué un rôle plus que prépondérant dans la diffusion du savoir, à tel point que connaissance et objet se confondent dans l’imaginaire, et dans la réalité lorsque l’on se souvient des contraintes d’accès aux bibliothèques au travers des âges.

Depuis l’invention de l’écriture, et plus particulièrement depuis que l’imprimerie a vu le jour, des connaissances sous forme matérielle ont été vendues, échangées et copiées de par le monde entier. L’écrit est un véritable pont entre les cultures et les générations (pensons à la Pierre de Rosette), et le commerce d’ouvrages en tant que réceptacles de savoirs a créé un réseau permettant de connecter l’humanité. Les livres se déplacent à travers l’espace et le temps, beaucoup ont survécu jusqu’à présent et, après maintes pérégrinations, ont leur(s) propre(s) histoire(s) à raconter, ajoutant la richesse de leur parcours à celle de leur contenu.

Des objets présentant un intérêt patrimonial circulent donc sur les marchés, légaux ou non, depuis des dizaines, voire des centaines d’années, changeant de mains, de contextes, d’interprétations et évidemment de zones géographiques. Le contrôle de ces marchés, déjà difficile à l’échelle d’un pays, devient presque impossible au niveau mondial, particulièrement dans les cas de territoires affectés par la violence ou les troubles politiques.

Dès lors, quelle meilleure occasion que ce congrès rassemblant des spécialistes du domaine venant des cinq continents pour exposer ces problématiques, en discuter et faire émerger des actions communes permettant à un public plus large de profiter des réflexions faites ? Les études et cas présentés lors de cette session ont dès lors pour objectifs d’identifier les besoins globaux de la communauté internationale des bibliothèques et archives, de même que de proposer ou présenter des projets, des outils, des stratégies et des réseaux offrant une réponse à ces besoins communs.

Unification numérique à la BNF

Isabelle Nyffenegger et Anaïs Basse ont présenté une étude de cas basée sur la collection du patrimoine commun de la Bibliothèque nationale de France (BNF), lancée en 2018. Mme Nyffenegger portait ce jour-là une triple casquette : à la fois Directrice déléguée aux relations internationales de la BNF, membre du National Libraries Standing Committee et surtout membre de l’IFLA Digital Unification Working Group. Mme Basse, quant à elle, représentait également la BNF en sa qualité de coordinatrice de la collection du patrimoine commun (Shared Heritage Collection). Leur présentation, basée sur leur article (http://library.ifla.org/2462/1/189-nyffenegger-en.pdf), examinait l’unification numérique comme moyen de sauvegarder, diffuser et améliorer les collections dispersées de par le monde et au travers du temps. Des artefacts ou collections liés au patrimoine culturel d'une civilisation ont pu, suite à des circonstances plus ou moins improbables, se frayer un chemin jusqu’à un point si éloigné de leur origine qu’il en devient extrêmement difficile d’en retracer l’histoire, voire de les affilier à la bonne culture, à la bonne époque. Heureusement, les progrès technologiques de ces dernières décennies offrent la possibilité de recréer des collections numériquement et donc de présenter un panorama beaucoup plus complet des relations entre les cultures et l’histoire en général, sans oublier bien sûr d’assurer une meilleure accessibilité pour les chercheurs et le grand public.

Le groupe de travail de l’IFLA pour l’unification numérique, créé en avril 2017, élabore depuis un ensemble de recommandations pour permettre la mise en œuvre de projets collaboratifs sur le sujet. Ces projets ont pour points communs « d’être des initiatives de coopération internationale et de se concentrer sur la reconstitution ou la compilation numérique d'ensembles de documents dispersés dans des collections transfrontalières et représentant soit une unité documentaire, en termes de patrimoine national, langue, religion ou culture, soit une unité géographique issue d'une histoire commune » (http://library.ifla.org/2462/1/189-nyffenegger-en.pdf). Mme Nyffenegger et Mme Basse nous ont ainsi présenté l’enquête menée en 2017 et ses résultats en matière de besoins, ainsi qu’une étude de cas sur la collection Patrimoines Partagés de la BNF (https://heritage.bnf.fr/), réunissant des documents témoignant des interactions entre la France et le reste du monde.

Listes rouges, ILAB et politiques obsolètes

Le sujet de cette seconde conférence portait sur l’influence des différentes législations nationales et règlements étatiques dans le commerce des livres anciens. M. Fabrizio Govi, vice-président de l’International League of Antiquarian Booksellers (ILAB), a abordé le sujet au travers de son expérience de libraire et n’a pas manqué d’illustrer ses propos par de nombreux exemples. Les différentes législations, variant énormément d’un pays à l’autre et étant parfois contradictoires, génèrent d’importants problèmes en matière d’exportation et d’importation, mais également en ce qui concerne la lutte contre le vol et la contrefaçon.

Historiquement, l’intérêt commercial pour les collections de livres rares a commencé au XVIe siècle, comme l’attestent des ventes aux enchères d’incunables aux Pays-Bas, et la multiplication des foires du livre à travers l’Europe. Le commerce du livre ancien, tel que nous le connaissons, a pris forme dans la seconde moitié du XIXe siècle, époque à laquelle ont été fondées les grandes librairies spécialisées dans le domaine, dont certaines subsistent encore aujourd’hui. Dès le début des années 1900, ces marchands commencent à se regrouper en associations nationales pour mieux défendre leurs intérêts, et internationales suite à la fin de la Seconde Guerre Mondiale. L’après-guerre était l’occasion de poursuivre un but plus que louable : établir la paix internationale par l’échange culturel et l’ouverture des marchés, en utilisant le livre comme terrain d’entente, à l’heure où le chauvinisme était de mise et où le niveau de communication entre pays était au plus bas. C’est ainsi que l’ILAB a vu le jour, grâce aux efforts de M. Hertzberger.

Depuis lors, cet organisme chapeaute 22 associations représentant 37 pays et s’occupe de questions délicates générées par les règlements conflictuels sur les politiques relatives aux biens culturels, le droit de prescription, les confiscations, le droit de préemption et bien entendu le trafic légal, et illégal. Ainsi, nous apprenons que l’Italie possède une législation tellement spécifique et réglementée qu’elle encourage dans un certain sens son contournement, alors que celle de l’Allemagne est si permissive qu’une grande partie des ouvrages volés dans le monde se retrouvent vendus sur son territoire, sans que les autorités étrangères ne puissent intervenir. De nombreux cas sont évoqués, du scandale Aristophil en France, au cas de Marino Massimo De Caro de la Bibliothèque Girolamini à Naples, qui a fait couler beaucoup d’encre, en passant par l’investigation auprès de la maison de ventes aux enchères munichoise, Zisska und Schauer, accusée de détenir plusieurs centaines d’ouvrages volés en Italie, aux Etats-Unis et au Japon.

Dans leur article et au travers de ces exemples, M. Govi et Sally Burdon, présidente de l’ILAB, souhaitent mettre en évidence « comment des politiques mal conçues ou obsolètes en matière de biens culturels peuvent porter préjudice aux acteurs du marché ainsi qu’à la conservation et à la valeur des livres eux-mêmes » (http://library.ifla.org/2458/1/189-govi-en.pdf). L’ILAB a d’ailleurs créé une « liste rouge » recensant les ouvrages volés (https://stolen-book.org/), mais tant qu’aucune unification, ou même une simple coordination, ne sera mise en place à un niveau international, la vente d’objets volés restera favorisée par ces quiproquos et conflits juridiques.

Le cas du Nigéria

La troisième conférence présentait les problèmes de pillage et trafic de biens culturels au Nigéria. Godwin Nwachukwu Arua, bibliothécaire responsable au Federal College of Education à Eha-Amufu, nous explique le cas particulier de ce pays où le patrimoine culturel a depuis des siècles été l’objet de trafics et pillages pour être revendu à l’étranger. Pire, pour des raisons d’ignorance, de croyances religieuses, de conflits internes et même par négligence, ces richesses transmises de génération en génération ont parfois simplement été détruites. M. Arua insiste sur la mise en place d’instruments normatifs et législatifs pour sauvegarder - et récupérer – le patrimoine nigérian, à l’image de la Convention pour la protection du patrimoine mondial, culturel et naturel établie par l’UNESCO. Le pillage, le vol, le trafic illicite et la destruction d’œuvres d’art et d’antiquités sont des réalités actuelles au Nigéria, et M. Arua déplore que ces problèmes soient l’une des formes de criminalité les moins reconnues et analysées (http://library.ifla.org/2512/1/189-arua-en.pdf).

Groupe d’Experts contre le vol, le trafic et la falsification - EGATTT

La dernière conférencière, Arda Scholte, venait au nom de l’ICA (Conseil International des Archives) présenter le groupe d’experts contre le vol, le trafic et la falsification (EGATTT(1)) nouvellement créé, ainsi que ses missions (http://library.ifla.org/2459/1/189-scholte-en.doc.pdf). Celles-ci se déclinent en quatre axes principaux, à commencer par la mise en place d’une coopération entre différentes autres organisations internationales, comme l’IFLA justement, mais également le Consortium of European Research Libraries (CERL), l’International Council of Museums (ICOM) et l’UNESCO, et certains services chargés d’appliquer la loi, comme l’Organisation Mondiale des Douanes (OMD) ou Interpol. Un autre axe est celui de la mise au point d’instruments et de méthodes pour définir et signaler des objets volés et/ou faisant l’objet d’un trafic, en commençant par une réflexion sur les dispositifs en matière de listes rouges. A ce sujet, un travail de Master sera effectué par l’un des soussignés à la Haute école de gestion de Genève, sous la responsabilité de M. Didier Grange, président de l’EGATTT, ce qui démontre bien le bénéfice qu’offre la participation à des congrès professionnels.

La prévention est évidemment une des approches à préconiser, au sein des organisations, mais également au travers de formations. La sensibilisation du public, des institutions, des professionnels et des forces de l’ordre est bien entendu nécessaire pour la constitution d’un réseau efficace. La collaboration entre les associations et institutions des domaines liés au patrimoine culturel est donc indispensable pour contribuer à la lutte contre le vol et le commerce illicite.

Francophonie : Caucus, Stand et AG AIFBD

Le salon des exposants du congrès de l’IFLA 2019 à Athènes a offert aux visiteurs un stand inédit, celui de l’AIFBD. Il s’agissait d’un stand occupé et financé conjointement par l’AIFBD et par le projet de recherche PLACED (projet de recherche européen sur la médiation des activités dans les espaces des bibliothèques et regroupant des partenaires français, suédois et danois). L’AIFBD est l’Association internationale francophone des bibliothécaires et documentalistes. Cette association est issue d’une réflexion amorcée au congrès de l’IFLA en 2004 qui a abouti à la création formelle de l’association en 2008.

En proposant un stand à l’IFLA, l’objectif de l’association était évidemment de faire sa promotion et celles des différentes actions dans lesquelles elle est investie. Cette année, c’est un dispositif de médiation sur le rôle des bibliothèques et des centres de documentation autour des objectifs de développement durable qui a été mis en avant.

Ce stand dans les allées de l’IFLA a également eu un effet positif secondaire inattendu : il a permis à la communauté francophone de se retrouver. On a pu observer tout au long du congrès, une utilisation de ce stand par l’ensemble des francophones présents comme un point de rencontre et d’échanges entre les visiteurs de l’IFLA pratiquant la langue française.

En effet, bien qu’il fasse partie des sept langues officielles de l’IFLA (comme l'arabe, le chinois, l'anglais, l'allemand, le russe et l'espagnol), le français doit trouver sa place dans cette manifestation internationale, comme les autres langues, à l’exception de l’anglais.

Il le fait au travers de différents dispositifs, comme des bourses, ou le Caucus francophone (dont l’organisation a été repensée avec succès, cette année), mais son usage au sein de l’IFLA reste une problématique bien présente. Symboliquement, la politique des langues de l’IFLA est bien présente en français pour sa version 2007 (https://www.ifla.org/files/assets/hq/languages/language-policy-fr.pdf) mais pas pour la version 2019 de sa Language Policy, proposée seulement en anglais, espagnol et allemand (https://www.ifla.org/language-policy).

Ainsi, à l’exception de certaines sections spécifiques, comme celle dédiée à l’Amérique latine et aux Caraïbes qui utilise par défaut l’espagnol, les autres sections travaillent très majoritairement en anglais. Ce choix (par défaut) peut se comprendre, tant les contraintes logistiques et financières d’une solution de traduction semblent importantes, mais il est rarement explicite sur les sites des sections. Il limite, de fait, la participation aux sections aux personnes maîtrisant suffisamment l’anglais.

Dans le même registre, la possibilité offerte, lors des sessions plénières, de bénéficier de traductions simultanées n’est pas forcément communiquée ou prise en compte par les intervenants. On a donc pu assister à des présentations faites en anglais par des francophones et retraduites en français par la traduction simultanée !

Ces quelques exemples ou anecdotes reflètent bien la difficulté de faire exister le multilinguisme en général, et le français en particulier, au sein d’une organisation comme l’IFLA.

Dans ce contexte, le stand de l’AIFBD a clairement répondu à un besoin latent de la communauté francophone, en constituant tout au long du congrès un espace de discussions et d’échanges pour une communauté qui a par ailleurs peu d’occasions de se retrouver à un niveau international. Elle partage pourtant un espace documentaire francophone commun, d'autant plus grâce aux facilités de circulation qu'offre la dématérialisation. Elle se retrouve également autour de problématiques communes, comme la traduction ou la visibilité des productions francophones.

Forts de cette expérience, nous ne pouvons qu’espérer que l’AIFBD trouvera les moyens de proposer à nouveau un stand pour les prochaines éditions de l’IFLA. Un espace de ce type permettrait assurément de renforcer la visibilité de la communauté francophone au sein de l’IFLA, ainsi que celle des projets ou réalisations issues de ses acteurs, en mutualisant ainsi les coûts inhérents à un tel stand.

L’expérience réalisée au cours du congrès de l’IFLA de cette année devrait alimenter la réflexion sur les moyens qui peuvent être mis en œuvre pour renforcer la visibilité et la place de la communauté francophone dans le milieu des bibliothèques et de la documentation.

Conclusion

Ces rencontres nous permettent également de découvrir une réalité différente, sur le terrain. Athènes, ville exceptionnelle par l’importance de son histoire, nous a ouvert ses bras de pierre blanche sur le fond bleu de la Méditerranée, et nous avons plongé dans ses musées et institutions culturelles témoignant de plusieurs millénaires de culture, à commencer par la Bibliothèque Nationale.

Cet imposant écrin, baigné de soleil et d’eau, offre au visiteur une ombre bienvenue par l’étendue de ses jardins, et de son toit accessible et surprenant. La vue y est magnifique, et sa situation géographique, au cœur d’un ancien quartier portuaire en pleine réaffectation, en fait le lieu de rencontre des jeunes, des moins jeunes, et des familles, qui viennent y chercher la fraîcheur en fin d’après-midi, et bien sûr admirer le coucher de soleil sur l’une des plus anciennes villes du monde.

Nous avons également eu l’occasion de participer à quelques visites de bibliothèques, notamment la bibliothèque publique d’Agia Paraskevi qui a pour particularité d’être rattachée au musée d’Alekos Kondopoulos, un peintre grec du XXème siècle. Les deux institutions se trouvent dans le même bâtiment, une moitié étant occupée par la bibliothèque et l’autre, conservée en l’état après le décès de l’artiste, par le musée dédié à la vie et l’œuvre de Kondopoulos. 

Si cette bibliothèque ne se distingue pas d’une autre bibliothèque municipale du point de vue de ses espaces et de ses collections, c’est la quantité d’événements qu’elle organise qui est frappant. En effet, selon les vœux de Kondopoulos, la donation du bâtiment à la bibliothèque inclut un montant qui lui est alloué annuellement de manière immuable, et ce bien avant la crise économique. Les bibliothécaires font usage de ce budget confortable pour faire vivre l’institution et sa communauté. Par exemple, cinq clubs de lecture hebdomadaires sont animés à la bibliothèque, chacun visant un public différent, et rencontrent un franc succès. Des cours d’écriture et de storytelling pour les adultes et pour les jeunes sont organisés régulièrement, et de plus gros événements, nécessitant la fermeture de la rue qui longe l’établissement, ont également lieu fréquemment. Si les bibliothécaires déplorent le manque de place qui ne leur permet pas de développer leurs collections autant qu’elles le souhaiteraient, elles sont ravies du succès que remportent tous les événements organisés. Cette bibliothèque a vraiment su trouver sa place au sein de sa communauté.

Ce déplacement professionnel fut extrêmement enrichissant. Chacun d’entre nous a rapporté dans ses bagages, en plus d’une bouteille d’ouzo, de tsipouro ou de mastika, des connaissances nouvelles et une vision différente, élargie, de son domaine professionnel. Des amitiés sont nées, des idées ont germé et des théories ont été échangées. L’importance des congrès dans notre domaine n’est plus à prouver : tous ceux qui y participent – régulièrement ou non – y trouvent généralement leur compte, et font ensuite profiter leur institution des connaissances acquises et du réseau développé à cette occasion. Pour conclure, nous ne pouvons que vous encourager, vous, lecteurs, à participer à ce genre d’événements, à vous impliquer dans votre milieu professionnel, et surtout, à rester ouverts et curieux à la nouveauté.

Bibliographie

BENET, Enric, FELIU, Toni, et ORTE, Andreu, 2019. IFLA WLIC, Athènes, 24-30 août 2019 [en ligne]. 28 juin 2019. [Consulté le 28 octobre 2019]. Disponible en ligne : http://library.ifla.org/2488/1/272-benet-en.pdf

BIBLIBRE et IFLA, 2018. Media release : IFLA International Marketing Award Winners 2018. www.ifla.org [en ligne]. [Consulté le 15 octobre 2019]. Disponible à l’adresse : https://www.ifla.org/files/assets/management-and-marketing/newsletters/media_release_2018.pdf

MAGER, Bonnie, 2019. Werk. Slay. Yas Queen ! Embracing the confusing world of social media. IFLA WLIC, Athènes, 24-30 août 2019 [présentation orale].

Première journée Open Science de la HES-SO

Première journée Open Science de la HES-SO

Une matinée dédiée à l’Open Access

Donnant le coup d’envoi de la journée, Madame Luciana Vaccaro, Rectrice de l’institution, relève plusieurs des avantages de l’Open Access à l’instar de la démocratisation du savoir, de la visibilité accrue des résultats de la recherche ou encore en matière de reconnaissance du chercheur. Sylvie Vullioud, informatrice et soutien à la publication scientifique, renchérit. Elle évoque l’augmentation des échanges scientifiques ainsi que les gains en termes de visibilité et de citation pour le chercheur, autant de facteurs d’’impact pour ses publications. Elle rappelle que si, à ses débuts, l’Open Access constituait un idéal inscrit dans la Budapest Open Access Initiative, sa mise en œuvre relève du pragmatisme : si les bénéfices de l’Open Access sont notables pour la société et pour le monde scientifique, les défis sont nombreux. Luciana Vaccaro évoque les résistances au mouvement et la nécessaire adaptation à la diversité des domaines de la recherche scientifique. L’Open Access implique un profond changement culturel, évolution qui n’est pas conciliable avec une vision à court terme.

Gabi Schneider, cheffe de projet Open Access de swissuniversities rappelle que l’Union européenne sollicite, tout comme le FNS, le 100% d’Open Access en 2020. Les hautes écoles suisses tendent à s’aligner sur la stratégie nationale suisse sur l’Open Access ayant en ligne de mire l’horizon 2024. La raison de cette mise en œuvre plus flexible au niveau helvétique est entre autres politique. La loi sur l’encouragement et la coordination des hautes écoles (LEHE), accorde une grande autonomie à ces dernières. La Confédération et les cantons assurent quant à eux le pilotage. On observe dès lors une certaine disparité dans le rythme de mise en œuvre de l’Open Access selon les institutions. Les universités bénéficient, pour la plupart, de structures déjà bien développées. Swissuniversities, par une active coordination, cherche à gommer cette hétérogénéité. Gabi Schneider parle également de gouvernance qui se décline sur trois niveaux. Premièrement, il y a la stratégie nationale « information scientifique » 2013-2024 de swissuniversities. Elle contient trois programmes spécifiques : le Programme P2 (2013-2016) visant la « concentration des forces » ; le Programme P5 (2017-2020) qui se concentre sur la « mise en place du réseau de services » ; et le prochain programme (2021-2024), en cours d’élaboration. L’Open Access en fera incontestablement partie. Vient ensuite la volonté, exprimée et partagée dès le début de cette année, de former une « Open Access Alliance ». Sous le pilotage stratégique de swissuniversities, celle-ci regroupera les différentes parties prenantes à l’échelle nationale. Sa mise en place semble avoir été quelque peu retardée, mais Gabi Schneider informe l’auditoire que le projet est bel et bien d’actualité. La gouvernance est en constant développement. Aussi avons-nous la confirmation, pour ne citer que ces exemples, de la volonté d’élargissement des réflexions et actions à l’Open Research Data ou encore de la consultation des hautes écoles par swissuniversities, en partenariat avec le FNS, quant aux réflexions soulevées par le Plan S.

Le développement de l’Open Access au sein de la HES-SO s’inscrit dans les mouvances nationale et européenne. Dans sa stratégie Open HES-SO, l’institution exprime sa volonté de s’adapter aux exigences du programme H2020, du FNS et de la stratégie nationale suisse. Isabelle Lucas, cheffe de projet Open Science au sein de la HES-SO indique que l’objectif est d’atteindre le 100% de publications en Open Access en 2024. Luciana Vaccaro précise la volonté d’avoir recours à une approche bottom-up afin d’aiguiller la stratégie institutionnelle. Le questionnaire qui sera prochainement envoyés à tous les chercheurs de la HES-SO s’inscrit dans cette approche. Il leurs permettra d’exprimer leurs besoins et leurs éventuelles craintes. L’adhésion des chercheurs est évidemment une condition sine qua non à une mise en œuvre effective de l’Open Access. Isabelle Lucas reprend certains des arguments qui poussent l’institution à promouvoir le libre accès : renforcer la visibilité et le partage des résultats de recherche. L’archive institutionnelle ArODES permet le dépôt des publications tant en Green Open Access qu’en Gold Open Access. Madame Lucas rappelle certains des objectifs de ladite archive : amélioration de la visibilité des publications, garantie d’une diffusion large et rapide ainsi que l’archivage pérenne. Elle rappelle les modalités et les conditions de dépôt dans ArODES. Puis précise les trois types d’accès : public, restreint, non diffusé. Enfin, un tableau synoptique souligne qu’entre 2016 et 2018, le nombre de visites de l’archive institutionnelle a été multiplié par cinq et le nombre de téléchargements multiplié par trente-huit. Isabelle Lucas précise que pendant cette même période, les visites émanant d’Asie et d’Amérique du Nord ont-elles aussi augmenté.    

La matinée dédiée à l’Open Access a aussi rappelé les négociations en cours avec les éditeurs ainsi que la nécessaire vigilance face aux éditeurs prédateurs. Silvie Vullioud a rafraîchi la mémoire des auditeurs quant aux différentes licences avant de souligner l’importance de la qualité et de la rigueur au moment de la publication Open Access.

Une après-midi dédiée à l’Open Data

Pablo Diaz du groupe Data Promotion du centre suisse d’expertise en sciences sociales FORS évoque les données de recherche comme un matériau qui sert de preuve pour étayer l’exactitude des résultats de recherche. Sa collègue Alexandra Stam, responsable dudit groupe, met l’accent sur la nécessaire planification de la gestion des données au quotidien. Elle rappelle que celle-ci est constituée de différentes pratiques qui se déploient selon les étapes du cycle de vie de la recherche. Parmi les six étapes du cycle de vie des données, il y a d’abord la (i.) planification qui passe par le Data Management Plan (DMP). Ensuite, viennent la (ii.) récolte des données (qui ne peut pas se faire sans le consentement éclairé des enquêtés), et la (iii.) préparation des données qui comprend leur transcription et nettoyage, voire leur anonymisation. Une fois les données (iv.) analysées, se pose la question de leur (v.) préservation. Enfin, le dépôt des données constitue l’étape de leur (vi.) archivage, associé, lorsque cela s’avère pertinent, à leur promotion.

Lionel Perini, collaborateur scientifique à la division Humanities and Social Sciences du FNS rappelle les FAIR Data Principles. Le caractère « FAIR » de la base de données de l’Observatoire des élites suisses (OBELIS) sera analysé plus tard dans l’après-midi par le Professeur associé Felix Bühlmann et le doctorant Roberto di Capua.

Lionel Perini rappelle le principe du partage des données qui doit se faire le plus rapidement possible. Alexandra Stam et Pablo Diaz insistent sur la nécessité d’anticiper l’archivage et les possibles réutilisations des données. Le chercheur doit en premier lieu pouvoir identifier les données partageables. Leur échange doit en effet répondre au respect des normes éthiques et juridiques. Il n’existe à l’heure actuelle pas encore de mécanismes de sanctions, mais une personne qui s’intéresse aux données de tiers disponibles dans les dépôts doit accepter les conditions juridiques de consultation et d’utilisation. Les effets de la transposition du RGPD dans le droit helvétique pourraient engendrer un certain nombre de nouvelles obligations, telles que l’amendement ou la suppression de données si tel est le souhait de la personne dont elles émanent (sondés…). Alexandra Stam et Pablo Diaz précisent que le stockage consiste en une gestion à court ou moyen terme des données contrairement à l’archivage qui s’inscrit dans le long terme. La question du format de sauvegarde des données doit être anticipée selon la durée de conservation souhaitée. A l’instar de l’organisation de documents et de fichiers, l’arborescence doit aussi être réfléchie.

Lionel Perini mentionne un groupe de travail de Science Europe qui discute de l’harmonisation de la gestion des données entre les différentes disciplines. Cette même association a publié un guide pratique d’alignement au niveau européen. Il présente les critères de base du DMP et renseigne les chercheurs quant au choix d’un dépôt digne de confiance. En effet, comment parler de gestion des données de la recherche sans traiter la question du DMP. Monsieur Perini conseille vivement d’en tenir compte dès le moment de la soumission du projet de recherche. S’il est indépendant de l’évaluation de la recherche, l’octroi de fonds émanant du FNS est corrélé à sa soumission. Il doit donc être plausible, tout en sachant qu’il pourra être amené à évoluer au cours de la recherche. Sa version définitive sera remise avec le projet de recherche puis partagée sur une base de données publique du FNS. Lionel Perini informe encore l’auditoire du fait que le FNS est agréablement surpris de la qualité des DMP qui lui parviennent. Conscient du fait que nous n’en sommes encore qu’au début du processus, le cadre théorique est toutefois déjà posé et les règles définies. Quand bien même, certaines adaptations pourraient être apportées au regard des besoins et des constats à venir. Notons que le FNS peut, dans certains cas, participer aux frais de l’open research data jusqu’à concurrence de 10'000 francs suisses. Les chercheurs peuvent également déposer une demande de subsides dans le cadre des Scientific Exchanges.

Revenons sur la Fondation pour la recherche et centre de compétences en Sciences sociales. Basée à l’UNIL, FORS a plusieurs missions allant de la gestion des données à leur archivage en passant par leur mise à disposition. Le service de données sur la recherche DARIS comprend quant à lui une plateforme de dépôt, de préservation et de valorisation de données nommée FORSbase. Elle permet l’accès direct à plus de 500 jeux de données et 11'000 descriptions de projets.

Enfin, deux membres de l’équipe de l’OBELIS (Observatoire des élites suisses au XXe siècle), le Professeur associé Felix Bühlmann et le doctorant Roberto di Capua, ont présenté cette base de données conséquente. Celle-ci contient diverses informations sur près de 30'000 personnalités. Elle a pour objectif l’étude des élites – économiques, politiques, académiques et administratives – suisses au XXe siècle ainsi que celle des rapports de pouvoir au sein de la société helvétique. Destinée tant aux chercheurs qu’au « grand public », la base de données de l’OBELIS est gérée selon deux types d’accès. Des informations restreintes sont librement accessibles au public tandis qu’une base de données hors ligne, plus complète, n’est à ce jour pas disponible en Open Access. Enfin, celui qui souhaite exporter une quantité importante de données peut entrer en contact avec l’équipe de l’observatoire des élites suisses. Personne, à ce jour, n’a demandé le retrait d’une fiche d’un individu inscrit dans la base de données. Les réclamations les plus fréquentes concernent plutôt un complément du profil du ou une amputation de quelque information.

Comme le rappellent Alexandra Stam et Pedro Diaz, les chercheurs ne peuvent faire fi des considérations éthiques et légales. Le traitement juridique des données dépend bien évidemment de leur nature. Faut-il rappeler aux chercheurs qu’ils doivent informer et obtenir le consentement (ndlr éclairé) des personnes auprès desquelles ils investiguent. Abordant les questions d’anonymisation, pseudo-anonymisation, de codage et de confidentialité, ces deux intervenants nous rappellent qu’il ne s’agit pas moins que de procéder à du risk management.

En concluant cette riche journée, Christine Pirinoli, Vice-rectrice Recherche et Innovation de la HES-SO relève que maintenant que la stratégie Open HES-SO a été adoptée, l’institution entre dans la phase de sa mise en œuvre. L’interdisciplinarité qui caractérise ses hautes écoles doit pouvoir servir favorablement la recherche. Si le chemin vers l’Open Science est encore long, Madame Pirinoli souligne la ferme volonté de travailler de concert avec tous les acteurs concernés.

Si personne ne prétend pouvoir faire le tour de l’Open Science en une journée, ce 18 mars 2019 confirme une fois encore l’importance de la communication et de l’échange autour des divers thèmes et nombreuses questions qu’elle englobe. Ces rencontres sont autant d’opportunité de partages et de retours d’expérience. Votre chroniqueuse reste convaincue de leur apport positif pour le mouvement Open. Ne voyons-nous pas progressivement sa silhouette se dévoiler, ses contours s’affiner ? Ces réunions et partages forment ostensiblement un fil conducteur et sont autant d’opportunité d’élaborer de concert les bonnes pratiques et conduites de la science de demain.

Forum annuel des bibliothèques HES-SO, 22 août 2019 : les données de la recherche « un marché à occuper »

Elise Pelletier, Haute Ecole de Gestion, Genève

Forum annuel des bibliothèques HES-SO, 22 août 2019 : les données de la recherche « un marché à occuper »

Le 22 août 2019, l’ECAL accueillait le douzième forum annuel des bibliothèques de la HES-SO, consacré à une thématique actuelle : « La gestion des données de la recherche et les bibliothécaires de la HES-SO : de la vision stratégique aux dispositifs opérationnels ». Cette journée était organisée par le Groupe de répondant-e-s Bibliothèques de la HES-SO, en partenariat avec la filière information documentaire (ID) de la Haute Ecole de Gestion de Genève (HEG-Genève).

A l’heure de la transition vers l’Open Data et l’Open science, quels rôles ont à jouer les bibliothèques académiques pour soutenir les chercheurs et quelles compétences peuvent-elles faire valoir dans la gestion de leurs données ? La question est récurrente et les bibliothèques de la HES-SO n’y dérogent pas.

Dans son introduction à la journée, Michel Gorin, expert-métier en ressources documentaires de la HES-SO, donnait le ton en parlant des données comme d’un « marché à occuper ». D’un côté, les enjeux stratégiques et financiers liés à la gestion des données de la recherche ne sont pas négligeables avec, par exemple, l’obligation pour les chercheurs de produire un Data management plan (DMP) pour toute demande auprès du Fonds national suisse (FNS). De l’autre côté, la transition vers le numérique a eu tendance à questionner la légitimité des bibliothèques des hautes écoles encore souvent identifiées aux collections papier. La « vision stratégique » pourrait sembler évidente car comme le souligne René Schneider, responsable de la filière Information documentaire de la HEG-Genève, dans un entretien accordé à la revue Hémisphères, les bibliothèques et services d’archives ont un rôle à jouer dans la gestion des données de la recherche (GDR). Néanmoins, « les dispositifs opérationnels » nécessaires sont multiples et les bibliothèques doivent pouvoir y accorder les ressources adéquates pour en assumer l’intégralité.

Pour poser le cadre et comprendre les enjeux liés aux données de la recherche, Christine Pirinoli, vice-rectrice Recherche et Innovation est tout d’abord revenue sur la Stratégie Open HES-SO. Validée en décembre 2018, cette stratégie accompagne institutionnellement les profondes transformations actuelles de la recherche. Avec l’Open science, la HES-SO vise :

« un décloisonnement des connaissances, un échange de savoirs entre les chercheuses et chercheurs ainsi qu’une visibilité et une mise à disposition accrues des données et des résultats dans le but que la connaissance puisse être diffusée, réutilisée, partagée pour le bénéfice de la communauté scientifique et plus largement de la société » (la Stratégie Open HES-SO, p.2)

Au-delà d’une nouvelle stratégie, c’est un « changement de paradigme » pour tous les acteurs de la recherche, souligne Christine Pirinoli. Pour cette raison, il est essentiel que cette mutation soit la mieux accompagnée possible. Outre la « Première journée Open science », la HES-SO a mis en place un plan d’action avec trois axes. Le premier « Communication, sensibilisation et formation de la communauté HES-SO aux notions et aux enjeux Open Science » a notamment abouti à la mise en place d’un site dédié Open HES-SO. Le deuxième axe « Transition vers l’Open Access et l’Open Data» est marqué par la signature en mars 2019 de la Déclaration de San Franscisco sur l’évaluation de la recherche, DORA. Le déploiement d’ArODES, archive institutionnelle de la HES-SO, est aussi un élément phare de cet axe particulièrement en adéquation avec la thématique de la journée, puisque c’est l’Infothèque de la HEG-Genève qui en est propriétaire métier. Enfin, le troisième axe « Mise en place, gestion et mutualisation des infrastructures » apporte un soutien organisationnel avec, par exemple, l’adhésion à ORCID. Ainsi, à compter de janvier 2020, des identifiants pérennes de type DOI, pourront être attribués par le biais de la HES-SO. Même si la HES-SO ne prévoit pas pour l’instant d’infrastructure de dépôt de données, ce premier pas s’inscrit clairement dans la volonté de respecter les principes du FAIR (findable, accessible, interoperable, reusable). A travers cette présentation, Christine Pirinoli a ouvert tout un champ des possibles pour les bibliothèques de la HES-SO, du moins pour celles qui ont les ressources à disposition pour relever le défi.

Suite à cette première présentation, Cynthia A. Germond et Jonathan Donzallaz, des étudiants du Master en sciences de l’information de la HEG-Genève sont venus présenter les premiers résultats de leur projet de recherche sur les Stratégies Open Access. A l’instar de la HES-SO, de nombreuses universités modifient leur stratégie vers une vision « Open » de la recherche. Un des premiers pas vers cette ouverture est la question de l’Open Access (OA). De manière synthétique, cela correspond à rendre accessible les résultats des chercheurs notamment par le biais de leur publication. Une des premières constatations présentées par les étudiants est liée aux difficultés d’implémentation de ces nouvelles stratégies OA. Même si le concept de « Open » s’affiche sur le fronton de nombreuses institutions, les chercheurs, premiers concernés, restent parfois frileux vis-à-vis de l’OA. Cynthia A. Germond et Jonathan Donzallaz ont repéré chez les chercheurs quatre freins redondants : risque de porter atteinte à leur liberté académique, charge de travail supplémentaire, défense du droit d’auteur et rejet par les éditeurs des auteurs qui publient en OA. Toutes ces interrogations soulignent l’importance de « créer une culture OA dans l’institution ». Le changement de paradigme doit être généralisé et intégrer l’ensemble des acteurs de la recherche, comme les bibliothèques des hautes écoles. Dans la suite de la présentation, les exemples de stratégie étaient majoritairement issus de grandes bibliothèques dont les ressources permettent d’en faire des acteurs très actifs dans le domaine (Harvard Library, University of Southampton, Rice Fondren Library…). Malheureusement, les bibliothèques plus modestes ne sont généralement pas vues par les chercheurs comme des acteurs de la recherche. C’est en tout cas, un constat fort qui est ressorti des différentes interventions des bibliothécaires de la HES-SO présents à la journée.

Si, visiblement, les chercheurs méconnaissent les services offerts par les bibliothèques, à l’inverse, les bibliothécaires ont souvent une connaissance partielle du processus de recherche, ce qui limite par conséquent leur possibilité d’interaction. Basma Makhlouf Shabou, professeure dans la filière Information documentaire de la HEG-Genève, a pris le temps d’expliquer en quoi consistait réellement la GDR. Pour elle, la GDR « est la prise en charge de ces [données] durant la totalité de leur cycle de vie depuis la création et la capture jusqu’à la réutilisation, en passant par le traitement et la pérennisation ». En la décrivant comme un processus avec plusieurs étapes, Basma Makhlouf Shabou met en exergue que la GDR demande à chacune des étapes des compétences opérationnelles spécifiques. Par conséquent, elle est le lot de plusieurs professionnels, records manager, archivistes, curateurs de données et … bibliothécaires. De plus, ce processus a des particularités liées aux différents domaines d’études et également aux milieux académiques. Les objectifs des bibliothécaires sont donc d’identifier les potentiels partenaires et de comprendre les besoins spécifiques des chercheurs de leur institution. En ce qui concerne les HES, les principales caractéristiques de la recherche au sein de ces institutions sont liées à leurs particularités intrinsèques. Tout d’abord, ce sont des acteurs récents et ils s’orientent majoritairement vers une visée pratique des résultats de leur recherche. Ces deux éléments ont pour conséquence un positionnement parfois difficile vis-à-vis des bailleurs de fonds, habitués à des acteurs plus classiques de la recherche (universités, écoles polytechniques…). Cette récence et la diversité des cultures institutionnelles entre HES ont également pour conséquence un manque de coordination de l’ensemble des services, des projets et infrastructures proposés aux chercheurs. A ces caractéristiques s’ajoutent des lois cantonales différentes et « une grande hétérogénéité dans les domaines académiques couverts, ce qui impact[e] directement la typologie des données ». Face à ces défis, tous les acteurs de la recherche sont mobilisés et les bibliothécaires ne sont pas exempts de cette réflexion, même si le périmètre de leur intervention reste encore à bien circonscrire. De même que les activités au sein du cycle de la GDR sont multimodales, les compétences attendues chez les bibliothécaires sont variées. Dans un premier temps, les bibliothécaires ont un rôle à jouer pour accompagner ce changement de paradigme amorcé par la transition vers l’Open Science. Leur capacité d’analyse des besoins et leurs compétences en matière de médiation sont des atouts dans cette première phase. Ensuite, il est possible d’envisager le développement de nouveaux services spécifiques pour la GDR comme l’aide à la réalisation du Data Management Plan (DMP) ou la promotion de vocabulaires standardisés pour les métadonnées. Une fois les services de GDR stabilisés, d’autres compétences peuvent être valorisées : veille, mise en réseau, formations… Dans tous les cas, le premier palier vers l’implication des bibliothèques de la HES-SO dans la GDR et plus largement dans l’Open Science est un rapprochement entre les bibliothécaires et l’ensemble des acteurs de la recherche. Cette simple marche reste haute à franchir, car les bibliothèques de la HES-SO restent majoritairement vues comme des outils uniquement au service de l’enseignement et donc des étudiants. Difficile pour ces structures de modifier cette perception sans s’appuyer sur des partenaires mieux reconnus pour leur action dans l’accompagnement des chercheurs et, comme le conclut Basma Makhlouf Shabou, sans aller chercher des compétences techniques dans tous les corps de métier des sciences de l’information.

La dernière partie des présentations a été consacrée aux « services, ressources et facilités à disposition des bibliothécaires HES-SO pour la gestion des données de la recherche ». Pour débuter cet inventaire, Silas Krug, assistant HES, a présenté le projet Data Life Cycle Management (DLCM) dans lequel Basma Makhlouf Shabou et lui-même sont parties prenantes. Soutenu par le Programme « information scientifique » de swissuniversities, DLCM est un projet commun de l’Université de Genève, la HES-SO, la HEG-Genève et la Haute école spécialisée des sciences appliquées de Zurich - ZHAW. Ce projet vise à aider les chercheurs à gérer leurs données de recherche, de leur création à leur archivage. Dans ce cadre, DLCM propose des ressources (modèle de DMP, research data policy…) et services (formations, comparatifs d’Electronic Lab Notebooks, ELNs…) aux chercheurs. Un dépôt pour les données de la recherche « OLOS » va prochainement venir enrichir les services offerts par le DLCM. L’objectif est également de devenir un service de référence sur toutes les questions qui concernent la GDR, notamment par le biais d’un « Coordination Desk » qu’il est possible de contacter via l’adresse : dlcm@hes-so.ch. Cette possibilité de poser directement des questions à des experts du domaine a été visiblement très bien reçue par les bibliothécaires présents. D’autres ressources issues du programme « Information scientifique » de swissuniversities ont été successivement présentées : Train2Dacar (modules de formation à la GDR), CCdigitallaw (Base de connaissances sur les questions juridiques en lien avec les données de la recherche), EnhanceR (Conseils et outils pour l’analyse des données), etc. Tous les services et projets mis en place par le programme sont visibles sur le site de swissuniversities. Un autre acteur incontournable a été mentionné, le FNS, qui précise logiquement sur son site ses directives sur le sujet et diffuse des informations sur l’importance du respect des principes FAIR. Il indique également des solutions de dépôt pour les données de la recherche. La recherche suisse n’est pas la seule à évoluer vers l’Open Science et c’est logiquement que de nombreuses ressources et sites de référence sont disponibles à l’international : DCC (Digital Curation Center), le programme européen Horizon 2020…

Le développement de tous ces services et ressources montre à quel point l’Open Science vient bouleverser les modèles de recherche bien établis. A l’image de nombreuses bibliothèques des hautes écoles, les bibliothèques de la HES-SO semblent parfois démunies et pas tout à fait prêtes à assumer le rôle qu’on attend d’elles. Cette journée - avec notamment les ateliers de l’après-midi - était assez révélatrice de cette dichotomie. En effet, suite aux présentations de la matinée, l’assemblée a été invitée à participer à deux ateliers sur des thématiques pratiques : la création d’un service de GDR et le support au chercheur tout au long du cycle de vie des données. Ces ateliers ont été l’occasion de revenir plus concrètement sur certaines thématiques abordées durant les différentes présentations. Un des points intéressants à observer était le fossé qui séparait les participants, entre ceux, majoritaires, qui n’avaient aucune connaissance sur la GDR et les autres, qui avaient suivi des formations ou, pour quelques-uns, se trouvaient être d’actuels ou d’anciens chercheurs. Pour les premiers, la journée était porteuse d’un constat non négligeable sur l’obligation de déployer des formations conséquentes sur la GDR, afin d’envisager un réel engagement de leur bibliothèque auprès d’autres acteurs de la recherche. Pour l’instant, hormis le Master en sciences de l’information de la HEG-Genève, peu de formations de base en Suisse romande intègrent ces questions dans leur plan d’études. Le Bachelor ID devrait logiquement intégrer prochainement la GDR dans ses cours, sous une forme et dans une ampleur qui restent à définir. Cependant, si l’on revient au public de cette journée d’étude, ce sont majoritairement des questions de formation continue qui se posent. La HES-SO, par l’intermédiaire de son expert-métier en ressources documentaires, a raison de mettre en place ce type de journée d’étude. Elle marque le début d’un accompagnement à construire pour garantir que le réseau de bibliothèques de la HES-SO soit un acteur incontournable dans le déploiement de l’Open Science.

Aujourd’hui, les bibliothèques des hautes écoles ont tout intérêt à « occuper le marché » des données de la recherche. Tout d’abord, car elles ont des compétences en matière de gestion, d’analyse et de médiation à faire valoir, même si elles les ont développées sur d’autres supports que les données. De plus, leur proximité avec d’autres spécialistes de la gestion de l’information, comme les archivistes, leur permet d’assurer un dialogue constructif pour l’accompagnement des chercheurs tout au long du cycle de vie des données de la recherche. Enfin, lieux de convergence de nombreux acteurs au sein des HES, elles ont un positionnement idéal pour permettre une « ouverture » de la recherche à un public élargi dans l’esprit du Citizen Science.

De la veille classique au social listening : compte rendu de la 16ème journée franco-suisse sur la veille stratégique et l’intelligence économique, 20 juin 2019, Genève

Hélène Madinier, Haute Ecole de Gestion, Genève

De la veille classique au social listening : compte rendu de la 16ème journée franco-suisse sur la veille stratégique et l’intelligence économique, 20 juin 2019, Genève

La 16ème journée franco-suisse en veille et intelligence économique s’est tenue jeudi 20 juin 2019 à la Haute école de gestion de Genève sur le thème du social listening.

Intitulée « De la veille classique au social listening : expérimenter et comparer les outils et les méthodes », elle a rassemblé environ une quarantaine de personnes, et comportait à la fois des conférences et des témoignages de praticiens, ainsi que des démonstrations d’outils de social listening, en l’occurrence Digimind social et Brandwatch.

Après quelques mots de bienvenue des représentants de la Ville de Carouge et de la HEG-Genève, c’est Christophe Thil, consultant, gérant de l’agence Blueboat à Mulhouse, qui assurait la conférence d’ouverture intitulée  «Social listening, veille «traditionnelle», même combat ?»

Après avoir donné plusieurs définitions du social listening, (activité de veille et d’analyse des messages publiés sur les médias sociaux et des forums/sites d’avis de consommateurs pour un sujet donné, écoute et analyse des propos concernant principalement une marque) Christophe Thil proposait de revenir aux définitions de base : la veille implique de rester éveillé, à l’affût, et l’intelligence économique, de savoir établir des liens entre les informations, savoir leur donner du sens. Il distingue 4 grands flux d’information :

  • Les informations anticipatives
  • Les informations fragmentaires
  • Les informations incertaines – à remettre en question-
  • Les informations qualitatives

À Présence Suisse, la veille sert clairement à la décision et à l’action.

Ce qui est fondamental, c’est de comprendre les besoins du client en termes d’utilisation, notamment en ayant recours à la méthode « QQOQCP » (qui, quoi où, quand, comment, pourquoi) , et de comprendre que le parcours du client est désormais transformé : quand il rencontre le commercial, il en sait quasiment autant que lui, car il s’est renseigné sur le produit ou le service, grâce aux moteurs, à la collecte d’avis, de vidéos etc…

Par ailleurs, il faut savoir que la veille est difficile sur les réseaux sociaux fermés (comme LinkedIN ou Facebook) et que le social listening ne doit pas se limiter aux réseaux sociaux, mais doit inclure la consultation des Webs visible et invisible. Et la veille elle-même n’est pas une finalité. On ne fait pas de la veille pour faire de la veille, mais pour un objectif précis : ce qui compte c’est d’avoir des objectifs clairs, et que l’information trouvée et analysée réponde de manière adéquate à un besoin, quel que soit le canal ou le mode de veille. Finalement, malgré la nécessaire utilisation d’outils performants, il ne faut pas négliger l’importance de l’analyse humaine des informations, qui permet de contextualiser et de donner un sens à celles-ci.

Ensuite, Laurent Berthelot, consultant en stratégie marketing et publicité proposait un témoignage sur l’industrie du luxe, à savoir ”Social listening et veille classique : une nécessaire complémentarité pour l’identification d’audiences dans l’industrie du luxe

Une des tendances du luxe est de vendre de plus petites pièces, moins cher. Dans ce domaine, il faut d’abord savoir où regarder pour identifier et analyser l’audience à atteindre ; la cible-clients : mettre en place des persona permettant d’identifier et de catégoriser ce que recherche la cible-clients, ensuite analyser les secteurs similaires, puis analyser les industries sur le même marché. Il faut savoir que la communication s’adapte au comportement des clients : elle devient aujourd’hui « omnicanale », c’est-à-dire présente sur tout type de dispositif (mobile ou non), d’applications (site, réseaux sociaux), ce qui multiplie les points de contact avec les clients – clients qui sont aussi « slashers », terme signifiant qu’ils ont plusieurs activités et ont une durée d’attention assez courte.

Ce social listening pratiqué avec des outils de monitoring dédiés, qui vient ici compléter une veille concurrentielle, une veille marché et une veille technologique, permet d’avoir une idée de la perception de la marque, d’identifier des ambassadeurs possibles, d’observer les changements de comportements, et de prendre part aux conversations. Donc d’être mieux informé, plus précis, plus efficace. Mais ces différents moyens de veille impliquent un flux de données considérable et nécessitent d’une part de choisir les bons indicateurs, et d’instaurer un partage de connaissances en interne, qui ne peut qu’être profitable pour une entreprise, car permettant de casser les silos, et de co-créer de nouveaux produits, via l’expérimentation et le design thinking.

Le témoignage suivant concernait Présence Suisse, organisme dépendant du Département fédéral des Affaires étrangères (DFAE) et responsable de l’image de la Suisse à l’étranger. Il était présenté par Renée Bäni, responsable des réseaux sociaux pour Présence Suisse, et avait pour titre : Au-delà des montres des montagnes et du chocolat : l’image de la Suisse à travers le social listening

La surveillance de l’image de la Suisse à l’étranger se fait d’abord à travers les médias classiques, les médias sociaux dans 20 pays, et à travers des enquêtes. L’objectif est de suivre et d’ajuster la communication en fonction des informations recueillies et synthétisées. Les outils de collecte utilisés sont Adwired, Meltwater et Factiva et les outils dédiés au suivi et à l’analyse des médias sociaux sont BuzzSumo et Brandwatch. Buzzsumo permet de trouver les contenus les plus partagés sur Internet, et Brandwatch envoie des alertes dès qu’un influenceur (un utilisateur de Twitter avec plus de 500 000 abonnés) poste un message sur la Suisse. Pour le social listening, un bilan est effectué chaque semaine et si un thème remonte particulièrement, il est mis sous surveillance et une action de communication est entreprise.

Certaines difficultés ont été explicitées. D’une part, il est difficile de faire du monitoring sur Facebook et Instagram ; de l’autre, les outils d’analyse ont aussi leurs limites –l’ironie peut être considérée comme positive alors que le contenu est négatif – et l’analyse humaine garde ici toute son utilité. Par ailleurs, si Présence Suisse est convaincue de la nécessité de suivre les médias sociaux pour surveiller l’image de la Suisse, l’organisme est également conscient que tout le monde n’est pas sur Twitter et que ces contenus ne sont pas forcément représentatifs de l’opinion publique. Il faut donc relativiser l’importance donnée aux informations identifiées, et notamment aux fake news. 

L’intervention suivante, intitulée Exploitation de la donnée d’opinion dans la veille et les études,   était présentée par Emeline Charles, chargée d’études et de veille sociale au Cabinet Boléro à Lyon, entreprise de conseil en stratégie digitale et influence. Son travail de prestataire de veille l’amène à offrir deux types de livrables : de la veille et des études.  Pour la veille, les outils de collecte utilisés sont des outils de veille et de suivi de médias sociaux (Talkwaker, Brandwatch, Linkfluence etc…), des outils de collecte de données sur le parcours et le comportement des internautes (Google analytics, Adwords etc...) ; les sources de données sont des données ouvertes (open data) d’actualités, d’études et également des enquêtes. Emeline Charles illustrait sa méthode en donnant l’exemple d’une veille sur le secteur de la bière : une marque souhaitait lancer un nouveau produit correspondant aux attentes des internautes. Il fallait alors identifier les types de consommateurs, les modes et les occasions de consommation, en partant des médias spécialisés puis en suivant les principaux influenceurs, les forums pertinents, et également s’intéresser au volume annuel des retombées, aux volumes de recherche Google. Vu la volumétrie, un échantillonnage est ici nécessaire.

Le dernier témoignage, présenté par Véronique Malan, directrice Canaux Marketing & Vente à l’Ecole hôtelière de Lausanne (EHL) portait sur l’utilisation du social listening dans le secteur de l’enseignement supérieur. Intitulé Le Secteur de l’Education : Nirvana ou Cauchemar pour le Social Listening? , il présentait la pratique originale du Social Media Listening à l’Ecole Hôtelière de Lausanne (EHL).

La restauration et l’hôtellerie, domaines d’enseignement de l’EHL, sont des secteurs dans lesquels les réseaux sociaux sont particulièrement utilisés. Or, s’il faut deux heures à une personne pour donner son appréciation sur un restaurant, deux jours pour une nuit d’hôtel, il faut quatre ans pour former des étudiants à l’EHL, donc pour que des anciens étudiants puissent donner leur avis sur l’école.

Mais il n’y a pas que les anciens étudiants et les nouveaux diplômés qui sont à écouter avec le social media listening (SML), il y a aussi les futurs étudiants : le réseau social est le premier point de contact avec des candidats, futurs étudiants. C’est au travers des réseaux sociaux que l’école se fait connaître.

Donc, l’écoute des réseaux sociaux a plusieurs fonctions : recruter de nouveaux candidats, développer les compétences sociales des étudiants en interagissant avec eux, et prévenir les étudiants contre le mobbing et le harcèlement.

L’EHL n’utilise pas de plateformes de social media listening, considérées comme trop chères et inadaptées, mais utilise des groupes privés et sécurisés, Facebook Transparency pour la publicité, et interroge régulièrement son audience à l’aide de sondages/boîtes à idées. Elle a également recours à des ambassadeurs, qui font partie des communautés privées. De manière générale, l’école recherche l’interaction (l’engagement) avec les étudiants, et entreprend des actions de sensibilisation à l’utilisation des réseaux sociaux.

Finalement, deux démonstrations de plateformes de veille sociale ont complété ce panel de témoignages : Digimind social (http://www.jveille.ch/wp-content/uploads/2019/06/DS-June-2019-CHIHUAILAF.pdf) et Brandwatch (http://www.jveille.ch/wp-content/uploads/2019/06/Brandwatch_Journee-franco-suisse_Geneva-20-June-2019.pdf )

À la fin de la journée, Frédéric Martinet, consultant, fondateur et gérant d’Actulligence Consulting, a synthétisé très clairement chacune des interventions en y ajoutant un point de vue de praticien, et en mettant en garde contre certains des aspects liés à l’écoute des médias sociaux, comme par exemple la difficulté à trier ou masquer les influenceurs qui sont surreprésentés, et l’importance de privilégier l’idée et l’information sur la représentativité.

Ce que le numérique fait aux livres

Benoît Epron, Haute Ecole de Gestion, Genève

Ce que le numérique fait aux livres

Au moment d’entamer la rédaction de cette recension, nous avons constaté que l’ouvrage dont il est question a déjà fait l’objet d’une recension récente dans la Revue française des sciences de l’information et de la communication sous la plume de Nicolas Pélissier. Nous renvoyons donc le lecteur à ce texte disponible sur le site de la RFSIC et proposons ici un regard complémentaire, en nous focalisant sur certains aspects de l’ouvrage qui nous semblent faire écho à notre propre réflexion sur le livre numérique. Bertrand Legendre est professeur en sciences de l’information et de la communication à l’Université Paris XIII. Il dirige également le LabSIC et le laboratoire d’excellence ICCA (Industries Culturelles et Création Artistique)

Note : la présente recension ayant été effectuée sur la base de la version numérique de l’ouvrage, les numéros de page des différentes citations ne peuvent être indiquées.

La structure de l’ouvrage « Ce que le numérique fait aux livres » proposé par Bertrand Legendre aux Presses Universitaires de Grenoble est organisée autour de trois chapitres qui couvrent respectivement les enjeux relatifs à l’évolution de la chaîne de valeur dans les différents secteurs éditoriaux, l’évolution de la critique et de la promotion autour d’un livre devenu numérique et enfin, les jeux d’acteurs à l’œuvre dans la recomposition du paysage éditorial.

Le premier mérite de cet ouvrage est, à notre sens, de replacer l’évolution numérique du livre dans un temps long. Cette approche est d’autant plus indispensable que le secteur du livre, parmi tous ceux des industries culturelles, se caractérise par un temps d’appropriation et d’évolution bien plus étendue. Il suffit, pour le mesurer, de considérer la cadence des changements de supports pour la musique ou l’audiovisuel, par rapport au livre dont la symbolique se construit dès l’école, et dont la transformation numérique ne peut s’appréhender que sous l’angle d’une évolution lente et dans la durée. En ce sens, l’ouvrage de Bertrand Legendre convoque à plusieurs reprises des éléments importants de l’histoire du secteur pour éclairer les évolutions ou la permanence des fonctions éditoriales ou auctoriales. Il permet également de mieux appréhender les jeux d’acteurs en rappelant le poids des épisodes passés (l’investissement dans les CD-ROM par exemple ou le poids qu’ont pu avoir les encyclopédies dans l’économie du livre) et donc de mieux comprendre les logiques suivies par les personnes travaillant dans ce secteur, pour la majorité entrées en fonction avant le livre numérique.

C’est un aspect qui aboutit, et la partie sur l’édition scolaire en donne en bon exemple, à voir « les initiatives et expérimentations numériques portées par des acteurs initialement étrangers au groupe très réduit des éditeurs engagés sur ce marché ». Cette facette de l’analyse que propose Bertrand Legendre revient à plusieurs reprises. Ainsi, l’évolution du secteur des encyclopédies dans les années 1990 marque l’intérêt pour l’édition d’acteurs étrangers attirés par les logiques de diffusion multi-supports qui émergent à cette époque. Dans le secteur de la bande dessinée, Bertrand Legendre constate, en référence à l’évolution numérique, que « [c]ette situation évolue néanmoins, mais de l’extérieur, via l’engagement d’acteurs étrangers à la filière du livre, tels que les opérateurs téléphoniques proposant des accès illimités à une offre éditoriale, comme Orange en partenariat avec la FNAC, maison mère d’Iznéo depuis 2016, ou Leclerc, en France, avec la plateforme de vente et de lecture Sequencity qui prévoit de permettre l’accès à 20 000 titres et de devenir le premier « distributeur omnicanal » de bandes dessinées en France. ».

Plus généralement, Bertrand Legendre pointe trois glissements induits par le développement du livre numérique : « le remplacement de l’expert par le contributeur ; celui de l’édition par l’industrie des logiciels ; celui de l’encyclopédie et des ouvrages de référence par le Web. ». Ces trois facettes de l’évolution numérique du livre, faites dans la partie sur l’édition du savoir mais largement généralisables à d’autres genres éditoriaux, présentent un point commun qui est celui du questionnement inhérent à l’édition numérique sur le déplacement de la fonction éditoriale, portée essentiellement, pour l’imprimé, par les éditeurs. Cette fonction de sélection intellectuelle et de « façonnage » du livre est largement remise en cause avec le numérique.

Ce « déplacement de la fonction éditoriale » est un point-clé de ce premier chapitre avec un glissement de celle-ci vers l’auteur dans une partie des secteurs éditoriaux ou une « diversification » avec un abaissement des barrières à l’entrée sur le secteur de l’édition. Globalement, Bertrand Legendre souligne « que ce qui reste central, ce n’est non pas le travail éditorial mais la capacité de la structure à labelliser les contenus et à les positionner dans l’ordre des discours. ».

Au cours du deuxième chapitre intitulé « Tous critiques ? Tous promoteurs ? » Bertrand Legendre se penche sur la critique et plus largement sur les mécanismes de recommandation et d’évaluation à l’œuvre dans le secteur de l’édition. L’analyse proposée rejoint celle qu’offre Olivier Donnat dans son étude sur l’évolution de la diversité consommée sur le marché du livre (Donnat 2018) citée par l’auteur en introduction de son ouvrage, avec dans le même temps une croissance de la part des ouvrages les plus vendus et de ceux vendus à très peu d’exemplaires. A contrario, les ouvrages avec des niveaux de vente considérés comme moyens connaissent, depuis une décennie environ, une baisse tendancielle de leurs volumes de vente.

C’est dans ce chapitre également que la question des plateformes de vente en ligne (à la différence de celles dédiées à la littérature scientifique) émerge comme une problématique majeure de l’édition. En effet, une part importante de la production d’avis ou de critiques sur les productions éditoriales a lieu sur des plateformes. La prise en charge d’une fonction d’évaluation par ces plateformes peut prendre plusieurs formes : la gestion d’influenceurs par Amazon : « [qui] propose à ces derniers de constituer leur propre espace de recommandation et d’être rémunérés en fonction des achats effectués par les internautes via cet espace » ou encore le rachat de Goodreads (réseau social littéraire) par Amazon en 2013.

Bertrand Legendre souligne bien la double tension qui pèse sur la critique littéraire. Ainsi, « L’ancrage historique [des] liens ambigus entre critique et promotion se double couramment, et de longue date, d’un discours dénonçant la dilution radicale de la première dans les intérêts personnels et commerciaux. ». C’est bien une problématique récurrente des acteurs de la vente du livre et donc des principales plateformes ; les usagers sont demandeurs d’évaluations et de recommandations pour leurs achats d’ouvrages mais celles-ci doivent également ne pas subir d’influence commerciale. Découlant de la confusion entre ces deux fonctions, critique et promotion, « on assiste à des mutations qui, en prolongeant le glissement de la critique vers la promotion, transforment les acteurs de la recommandation en prestataires de services soumis à l’évaluation de leur efficacité. ».

Le titre du troisième et dernier chapitre résume bien l’ensemble de l’analyse de Bertrand Legendre : « Une redistribution des cartes ? ». Dans ce chapitre, trois aspects sont principalement traités : les phénomènes de concentration, la définition des nouveaux modèles d’organisation de la filière du livre numérique et enfin le cadre législatif.  Le phénomène de concentration n’est pas propre au secteur du livre, il touche l’ensemble des industries culturelles. Il s’inscrit pour l’édition dans une perspective historique bien plus ancienne qui remonte au début des années 1980. En passant par un récit précis des différents phénomènes de concentration qu’a connu le secteur du livre, cette partie s’achève sur un constat relativement pessimiste : « […] l’idée de la disqualification des industries culturelles traditionnelles dans le sens où il apparaît bien qu’elles, du moins l’édition pour ce qui nous intéresse ici, ne sont plus en mesure d’agir de manière significative sans se placer sous domination technologique et financière d’autres industries. ». Cette conclusion conditionne bien l’avenir du secteur dans sa capacité à la fois à maitriser les enjeux techniques de l’édition de livres numériques et à peser dans les jeux d’acteurs avec les autres secteurs, notamment les plateformes de vente de livres numériques.

Les six modèles d’organisation de la filière proposés dans la dernière partie permettent de lire l’évolution du secteur à l’aune d’une bascule possible de la filière autour du point d’équilibre que pourrait constituer l’éditeur. Du modèle 1, une désintermédiation totale entre l’auteur et le lecteur aux modèles 5 et 6 construits autour de plateforme d’agrégation et d’intermédiation, on lit bien l’étendue des possibles offerts par le livre numérique et les enjeux pour l’acteur central de la filière, l’éditeur.

La conclusion confirme évidemment à la fois la complexité de l’évolution d’un objet et d’un secteur à l’histoire si longue et au poids symbolique si conséquent et le niveau d’incertitude fort qui pèse à l’heure actuelle sur les acteurs du livre numérique.

La lecture de cet ouvrage intéressera tous ceux qui souhaitent appréhender le livre et l’édition dans leur rapport au numérique. Il propose notamment une approche transversale qui explique les enjeux d’un secteur en se basant sur son histoire et les acteurs qui le composent. L’essai de Bertrand Legendre s’appuie de façon salutaire sur une connaissance très précise du secteur et de ses enjeux. Il donne ainsi à voir de l’intérieur ce que le numérique fait au livre et à ses professionnels.

Bibliographie

Ouvrage : LEGENDRE Bertrand. Ce que le numérique fait aux livres. Grenoble : Presses Universitaires de Grenoble, 2019. 144 p. ISBN : 978-2-7061-4195-9.

La médiation : un concept pour les sciences de l’information et de la communication – Jacqueline Deschamps, 2018

Elise Pelletier, Haute Ecole de Gestion, Genève

La médiation : un concept pour les sciences de l’information et de la communication – Jacqueline Deschamps, 2018

Avec cet ouvrage, Jacqueline Deschamps inaugure la série « Des concepts pour penser la société » aux éditions ISTE. Dirigée par Valérie Larroche de l’ENSSIB, cette série a pour objectif de donner un cadre théorique à des concepts régulièrement utilisés en Sciences de l’information et de la communication (SIC) en montrant leur transversalité avec d’autres disciplines. À « la médiation » se sont désormais ajoutés « le pouvoir » d’Olivier Dupont, « le dispositif » de Valérie Larroche et « le discours » de Jean-Paul Metzger. En tout, douze ouvrages devraient constituer cette série.

Enseignante à la Haute école de gestion de Genève jusqu’en 2009, Jacqueline Deschamps s’est notamment intéressée aux questions d’identité professionnelle des spécialistes de l’information. Dans cette lignée, il est assez cohérent que la thématique de la médiation vienne accroître ses publications. En effet, le rôle de médiateur des bibliothécaires et/ou archivistes est traditionnellement vu comme une évidence, de par leur rôle d’intermédiaire entre les collections et les usagers. Néanmoins, la réalité de ce concept disparaît parfois derrière une image floue qui englobe aussi bien l’animation que la communication. De plus, ce rôle d’intermédiaire est plus difficile à circonscrire dans un environnement numérique où les questions de médiations peuvent sembler assez désuètes. Ce livre re-pose donc de manière très utile les bases de la médiation en SIC.

Deux parties composent cet ouvrage. La première est consacrée aux « fondements épistémologiques » en s’appuyant sur les apports d’autres disciplines. La seconde partie replace la médiation et ses implications au sein des SIC.

L’auteure souligne dans l’introduction de la première partie, que le concept de « médiation » dépasse largement le cadre des SIC et est utilisé dans d’autres disciplines. Il a également envahi notre société et s’affiche dans l’espace public « comme une sorte de remède miracle pour régler des conflits de toute nature et à tous niveaux. » (Deschamps 2018, p.7). En réalité, la médiation a une « définition rigoureuse » basée sur une structure ternaire précise autour de ces éléments : « un tiers », « une relation » et « des sujets ». Ces trois éléments sont indispensables et c’est l’équilibre entre eux qui va garantir l’acte de médiation. L’auteure vient ensuite définir précisément ces éléments constitutifs. Elle explique, par exemple, que le positionnement neutre du tiers est central. S’il vient imposer aux sujets un choix moral, juridique ou autre…, alors on se trouve plutôt dans un cadre de conciliation, d’arbitrage ou même d’enseignement. Le tiers n’a aucun pouvoir de décision et n’est pas forcément une personne physique. Il peut prendre différentes formes: humaine, institutionnelle, symbolique. Le langage, par exemple, est une forme de tiers dans la médiation « c’est lui qui organise les relations entre les hommes et leur permet de représenter symboliquement le réel qu’ils perçoivent » (ibid., p. 23). La « relation », deuxième élément de la médiation, est à appréhender comme un processus. Dans cette perspective, la médiation peut intervenir à tout moment de la création à la rupture de la relation (ibid. p.25). Le troisième élément constitutif « les sujets » est beaucoup plus complexe à définir. Jacqueline Deschamps s’appuie dans cette partie sur plusieurs approches en philosophie, mais aussi bien évidemment en psychanalyse. Comme elle le souligne elle-même, l’exercice reste compliqué tant les approches sont complexes et parfois controversées. Contrairement, à l’élément tiers, « le sujet est celui qui n’est pas objet, qui ne peut se saisir comme un objet » (ibid. p.31).

Après avoir redéfini les trois éléments constitutifs de la médiation, l’auteure évoque ses caractéristiques du point de vue de son organisation et de sa temporalité. Elle insiste sur l’importance du cadre spatio-temporel, car la médiation, par essence, ne peut pas s’inscrire dans l’immédiateté. C’est sur cette importante question du « temps de la médiation » que se termine la première partie du livre. L’approche proposée dans cette première partie est volontairement conceptuelle et emprunte à plusieurs disciplines pour pouvoir, dans un second temps, repositionner la médiation dans le cadre plus restreint des SIC.

La deuxième partie intitulée « Mobilisation du concept de médiation en SIC » s’organise autour de cinq types : les médiations communicationnelles, informationnelles, culturelles, organisationnelles et sociétales. Même si le concept de médiation n’est pas réservé uniquement au SIC, il y a rapidement pris une place prépondérante. Pour preuve, Jacqueline Deschamps s’amuse à égrainer les nombreux laboratoires de recherche qui ont intégré le terme « médiation » dans leur nom (ibid. p.53).

Les médiations communicationnelles qui inaugurent cette partie rappellent que l’approche française de la discipline réunit les sciences de l’information et celles de la communication (SIC). Jacqueline Deschamps note que la communication permet un « transport dans l’espace » ce qui la rapproche de la notion de « transmission » qui permet un « transport dans le temps » (ibid.). Le parallèle avec les institutions emblématiques des SIC que sont les bibliothèques et les services d’archives est assez évident, car ce sont traditionnellement des lieux de transmission. Ils intègrent par conséquent cette médiation communicationnelle asynchrone. C’est également dans cette partie que l’auteure aborde les médiations numériques qui interrogent la notion d’accessibilité de l’information. Elle met en exergue l’importance actuelle de « l’individualisation des usages » (c’est-à-dire des interfaces d’accessibilité construites sur l’analyse des besoins des individus) qui déstabilise une approche de l’information documentaire qui s’est traditionnellement orientée vers une « visée collective » (ibid. p.53). La médiation informationnelle couvre un plus large spectre de professionnels de l’information et englobe aussi bien le documentaliste(1) que le chargé de veille. L’auteure précise notamment que l’intelligence économique est un « processus de médiation d’information spécialisée » (ibid, p.74). La partie sur les médiations culturelles permet de revenir sur deux conceptions antagonistes de la médiation. L’une « verticale » est traditionnellement présente dans les institutions culturelles dans lesquelles le médiateur est présent pour offrir la culture « qu’il détient » au plus grand nombre. L’autre « circulaire » déconstruit cet accès parfois élitiste et le rôle du médiateur est plutôt de « promouvoir d’autres types de relation à la culture » (ibid., p.77). On peut citer pour illustration le développement des réflexions sur les bibliothèques participatives. Pour les deux derniers types, Jacqueline Deschamps rappelle que la médiation est « au centre de la construction du social ». Elle s’interroge donc sur la place des médiations organisationnelles et sur celles des médiations sociétales qui abordent les questions politiques, écologiques, etc. La médiation est ici perçue sous l’aspect de l’établissement de la relation entre l’individu et le collectif au sens sociétal.

En conclusion, l’auteure rappelle que « la médiation remplit une fonction fondamentale de rétablissement de la communication » (ibid., p.101). Effectivement, dans le contexte des bibliothèques et des services d’archives, cette relation entre les usagers et les collections est parfois restreinte, voire inexistante. Le rôle du professionnel de l’information est de créer et maintenir cette relation sans l’influencer par un jugement moral ou autre. Paradoxalement, avec le développement des données numériques, la relation préexiste avant l’intervention du professionnel. L’acte de médiation intervient alors plus tard dans le processus de relation et le rôle du professionnel se concentre sur l’amélioration de cette relation.  

Le grand intérêt de cet ouvrage est de proposer une approche conceptuelle complète. Comme plusieurs fois souligné, l’acte de médiation est souvent abordé de manière approximative dans la littérature professionnelle ce qui met en péril sa crédibilité au sein des SIC. D’ailleurs, un des bémols du livre, que l’auteure relève elle-même, est le manque de références scientifiques récentes dans la bibliographie. Cela fait écho à un autre problème soulevé : l’aspect polymorphe de la médiation qui rend sa conceptualisation assez complexe. Il n’est effectivement pas aisé de circonscrire l’ensemble des concepts et notions abordées dans cet ouvrage. Néanmoins, sa construction permet des entrées par éléments constitutifs et/ou par types de médiation, ce qui lui confère un statut d’ouvrage de référence sur le sujet. 

Notes

(1)Au sens français du terme, c’est-à-dire le bibliothécaire en milieu académique.

Bibliographie

DESCHAMPS, Jacqueline, 2018. La médiation: Un concept pour les sciences de l’information et de la communication (Vol. 1). ISTE Group. ISBN : 9781784054830

New Top Technologies Every Librarian needs to know (2019)

Claire Wuillemin, Haute Ecole de Gestion, Genève

New Top Technologies Every Librarian needs to know (2019)

La première partie de New Top Technologies Every Librarian needs to know traite des technologies liées aux données et à leur gestion. Quatre professionnels de l’information proposent tour à tour une réflexion sur différentes technologies liées à cette thématique et dont un impact est attendu sur les SID. Tout d’abord, il est question des fameuses Linked Open Data visant à abattre les silos formés par les bases de données propriétaires pour faciliter l’accessibilité aux données et ainsi la recherche d’information dans sa globalité. Cet aspect d’interconnexion des entités se poursuit dans le chapitre suivant qui traite de l’internet des objets et des objets connectés. Ces derniers sont principalement connus pour leurs usages domestiques, mais en bibliothèque ils pourraient notamment être utiles pour suivre les mouvements et l’inventaire des collections physiques grâce à la technologie RFID par exemple. En effet, un lecteur RFID monté sur un scanner mobile attaché au rayon permettrait de balayer un rack et d’obtenir des informations sur la présence ou l’absence de documents. On pourrait ainsi limiter considérablement la perte des livres et ne plus être tributaire d’un rangement séquentiel. L’internet des objets pose néanmoins encore de grandes questions sur la protection des données privées des utilisateurs. Les professionnels ont un devoir de tirer parti des objets connectés sans mettre en péril la vie privée de leurs usagers. Le thème suivant est celui des link and reference rot (littéralement liens et référence pourrie) et des résolveurs de liens. Tout un chacun a déjà expérimenté la désagréable surprise de se retrouver face à un lien mort et l’impossibilité de retrouver un contenu. Le link rot décrit donc ce processus par lequel un lien ne pointe plus vers un contenu accessible ou que le contenu original a été modifié ou mis à jour. C’est le problème inhérent au dynamisme des pages et contenus web. Il existe par ailleurs le content drift (littéralement dérive du contenu) qui qualifie un lien qui fonctionne toujours, mais dirige vers un contenu qui ne se trouve plus dans son contexte original. L’addition du link rot et du content drift amène au reference rot ; la référence telle que disponible dans un article n’a plus sa valeur de preuve originale. Le domaine des sciences de l’information n’a eu de cesse de préserver les productions scientifiques, mais il faut désormais qu’il s’attaque à la préservation des liens internes aux publications et autres documents diffusés. Dans une veine voisine, il est ensuite question de la participation des bibliothèques à l’archivage du web. Le web est le reflet de la société contemporaine et des grands évènements qui la traversent. À ce titre, son contenu doit être sauvegardé par devoir de mémoire. Selon l’auteur, cette entreprise devrait être effectuée par les professionnels de l’information malgré les contraintes techniques qui leur donneront sans doute du fil à retordre.

La deuxième partie du livre est consacrée aux services. Le premier chapitre vient compléter le précédent en présentant les technologies et les outils existants pour préserver la vie privée, et le rôle que peuvent jouer les bibliothèques dans leur diffusion et la formation des usagers. Le chapitre propose une revue des outils disponibles, met en lumière les efforts actuellement déployés pour les bibliothèques et suggère des développements futurs pour qu’elles prennent une place prépondérante dans l’encadrement des publics dans ce domaine.

Dans le futur des services, il est aussi question de la data discovery ou exploration de données, tout particulièrement à travers les interfaces de recherche interactive, qui pourraient incorporer des graphiques et autres visualisations de l’information comme des nuages ou des clusters de mots. Il est suggéré que ce genre d’interface pourrait être mis en place pour permettre une autre exploration des ressources des bibliothèques. Le chapitre suivant vient compléter ces réflexions avec la représentation de l’information en proposant un point sur les enjeux de la mise en visualisation et son utilité pour les bibliothèques. Il donne divers outils propriétaires et gratuits, des conseils pour la réalisation de ces figures ainsi que des tutoriels. La partie se clôt avec une réflexion sur la réalité virtuelle (Virtual Reality ou VR). Elle serait un nouveau médium potentiel pour partager du contenu de formation, réaliser des réunions dans des salles de conférence virtuelles, mettre à disposition des espaces pour de la modélisation 3D de maquettes, etc.

L’avant-dernière partie du livre s’intéresse aux canaux et aux méthodes novatrices à travers lesquels les bibliothèques soutiennent les académiques, en s’attachant tout particulièrement à la place du numérique dans l’accès, la diffusion et l’archivage du savoir. Elle débute avec les bibliothèques et les humanités numériques en proposant un retour d’expérience des bibliothèques de Hesburgh de l’Université de Notre Dame en Indiana qui ont testé la mise en place d’une plateforme regroupant collections numériques ainsi qu'humanités numériques. Vient ensuite la question des digital repositories ou dépôt numériques, traitée en profondeur à travers des définitions, l’identification des tendances, la présentation des systèmes existants (Fedora, DSpace, Eprints, etc.), et les enjeux futurs de cette thématique. Le chapitre suivant s’intéresse également aux digital repositories, mais avec l’angle d’approche de la double-utilité traditionnelle de ces dépôts, à savoir : assurer un accès à des objets numériques ou préserver ceux produits au sein d’une institution. Il est question des bonnes pratiques pour ces deux usages ainsi que des directions futures à prendre en considération. La partie se termine avec la valorisation des collections et des livres rares grâce à la numérisation et la publication numérique. En effet, les sésames des collections jusqu’à récemment n’étaient accessibles que sur place. Avec l’arrivée du numérique, il est désormais possible de rendre accessibles ces objets à des chercheurs d’autres pays voire d’autres continents et ainsi en faciliter la dissémination. Ce chapitre propose pour ce faire un tour d’horizon des technologies impliquées ainsi qu’un retour de cas dans deux bibliothèques de l’université du Minnesota.

Poursuivant sur les enjeux des collections numériques, il est ensuite discuté de l’interopérabilité entre les plateformes numériques des différentes institutions, en particulier vis-à-vis de l’efficience des recherches d’images. En effet, la plupart des plateformes sont des silos cantonnés à chaque institution. Or pour l’intérêt des chercheurs, il serait intéressant que les plateformes puissent être interopérables. L’auteur propose un retour d’expérience sur l’implémentation de l’International Image Interoperability Framework (IIIF) dans les bibliothèques de l’Université de Toronto en présentant tout d’abord ce framework et son fonctionnement. Les outils d’enseignement sont aussi touchés par les enjeux d’interopérabilité notamment avec les plateformes de cours (Learning Management System ou LMS) comme Moodle par exemple. On parle alors de Learning tools interoperability (LTI). Dans le domaine des bibliothèques, il peut s’agir d’intégrer directement un outil de navigation sur le catalogue des collections sur Moodle. Plusieurs exemples d’applications sont ensuite exposés respectivement dans les Universités des États de la Louisiane et de l’Utah aux États-Unis et celle de Nouvelle-Galles du Sud en Australie. Un grand sujet actuel de société et qui touche déjà les bibliothèques est les robots (bots). Qu’il s’agisse de chatbot ou de programme informatique permettant d’automatiser des processus, les robots prennent une place de plus en plus importante (et pour certains inquiétante) dans le milieu du travail. Pourtant l’auteure de ce chapitre souligne la diversité des robots et des utilisations potentielles que les bibliothèques peuvent en faire pour améliorer les services qu’elles proposent actuellement et agrémente son propos de ressources pour créer soi-même des bots. Cette thématique est complétée par le chapitre suivant qui s’intéresse à l’intelligence artificielle et au Machine learning. Il est proposé des cas d’application concrets qui pourraient être utiles pour les bibliothèques. Le livre se clôt avec une contribution sur la technologie mobile. En effet, depuis quelques années, l’accès à l’information devient de plus en plus nomade et cela a eu des retombées sur l’industrie informatique en premier lieu, et par répercussion sur le reste des acteurs utilisant les technologies de l’information et de la communication. Les interfaces doivent ainsi être pensées au-delà des accès à l’aide de PC, et intégrer l’accès par téléphone mobile, tablettes, etc. qu’il s’agisse d’interfaces responsives ou de mise en place d’apps. 

Critique

La plupart des thèmes abordés font partie du paysage de l’information documentaire depuis un certain temps déjà ; ils ne surprendront probablement personne. Toutefois, ils sont ancrés dans l’air du temps et pertinents dans les métamorphoses profondes qui s’opèrent sur le domaine. Pleines de potentiel, ces technologies sont néanmoins source de tourments pour des professionnels qui ne savent pas comment les aborder ou savoir comment ils pourraient avoir autant de cordes à leur arc. La majorité des chapitres propose toujours en début de parcours une définition des enjeux et des concepts en présence, permettant aux néophytes comme aux confirmés de suivre l’auteur le long de son exposé et d’en comprendre la subtilité des enjeux et l’ingéniosité (ou non) des arguments avancés.

En revanche, puisqu’il s’agit d’un recueil d’articles rédigés par des contributeurs américains, il accuse plusieurs faiblesses liées à son origine : d’une part il est écrit en anglais, ce qui pourra le rendre inaccessible à des professionnels non-locuteurs puisqu’il n’existe pas de version française disponible à ce jour. D’autre part, les observations et les études de cas sont enracinées dans leurs contextes national, réglementaire, culturel et académique. C’est un élément à garder en tête lors de tentatives de transpositions des suggestions à notre contexte helvétique. Des ajustements devront être considérés et une certaine tolérance de mise.

On concédera tout de même que la qualité et l’intérêt des chapitres restent fortement dépendants des auteurs : certains proposent des retours d’expérience et de tentatives menés directement sur le terrain alors que d’autres proposent uniquement des essais ou des spéculations – par conséquent qui n’ont pas été éprouvées. Or, l’expérience a maintes fois démontré que les souhaits des professionnels (ou de leurs publics d’ailleurs) ne sont pas toujours réalisés ni même réalisables ; voire que les projections qui en sont faites sont erronées – comme avec la fameuse annonce de la mort du livre papier annoncée par l’arrivée des e-books ; apocalypse qui se fait toujours attendre.

Il faut néanmoins reconnaître que les contributeurs ne jouent pas les Nostradamus : leurs propositions sont pour la vaste majorité réalistes et, même si elles n’ont pas toutes été éprouvées, restent de bonnes inspirations pour alimenter les réflexions dans le cadre de la mise en place de stratégies futures. On retiendra que les technologies qui s’offrent aux professionnels sont multiples tout comme leurs applications potentielles. Somme toute, c’est un livre à conserver sur une étagère ou dans sa liseuse et à re-consulter chaque année pour voir si les prévisions se réalisent...ou non.

Bibliographie

VARNUM, Kenneth J. (éd), 2019. New top technologies every librarian needs to know. Chicago: ALA Neal-Schuman. A Lita guide. ISBN 9780838917824

Anleitungen und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension, Teil II (2017-2019)

Karsten Schuldt, Schweizerisches Institut für Informationswissenschaft, FHS Graubünden

Anleitungen und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension, Teil II (2017-2019)

Monographien

Handbücher (Kroski 2017, Willingham et al. 2018)

Zwei Bücher, die 2017 und 2018 erschienen sind, treten mit dem Anspruch an, jeweils komplette Anleitung zum Einrichten und Betreiben eines Makerspaces in Bibliotheken zu geben. Das heisst, sie behandeln alle Themen von der Gründung eines Makerspaces (Warum überhaupt Makerspaces?, Etat, Räume, Policies usw.), nennen eine Anzahl von Technologien und Veranstaltungen, führen eine Anzahl von Makerspaces als Beispiel an und versuchen, einen Blick in die weitere Entwicklung zu geben. Will eine Bibliothek also einen Makerspace einrichten, hat sie jetzt zwei Anleitungen vorliegen, denen sie folgen kann. Für diesen Zweck sind beide Werke gleich gut nutzbar, die Unterschiede sind gering.

Das von Ellyssa Kroski (2017) herausgegebene „the makerspace librarianʹs sourcebook‟ ist etwas umfangreicher, die meisten Beiträge halten sich mit zu grossen Versprechungen zurück. Wie alle diese Bücher ist klar, dass die Entscheidung, in Beiträgen spezifische Technologien zu erwähnen, es der Gefahr aussetzt, schnell zu veralten. Allerdings zeigen die Technologien, die besprochen werden, auch, dass sich auf diesem Gebiet seit der letzten Sammelrezension wenig getan hat. Einzig Drohnen scheinen eine neue Technologie zu sein, alle anderen wurden auch schon 2014-2016 erwähnt.

Kroski und ihre Mitautorinnen und Mitautoren rufen dazu auf, eine „Diverse Maker Culture‟ zu entwickeln, was hier heisst, darauf zu achten, durch Einbeziehen der Nutzerinnen und Nutzer bei der Entwicklung von Angeboten und dadurch, dass man darauf achtet, für wen man spezifische Angebote macht, den Zugang inklusiv zu gestalten. Als Trend nennt sie mobile Makerspaces.

Das vorrangig von Theresa Willingham verfasste Buch (Willingham et al. 2018) schliesst an das von ihr und Jeroen de Boer publizierte – und in der letzten Sammelrezension besprochene – Makerspace in libraries (Willingham & de Boer 2015) an. Hatte ihr Buch von 2015 noch vor allem Beispiele vorgestellt und für die Idee Makerspace geworben, ist das jetzige Buch sowohl inhaltlich als auch von der Seitenzahl her weit umfangreicher. Willingham hat in der Zwischenzeit als Beraterin Bibliotheken (in den USA) dabei unterstützt, Makerspaces einzurichten. Dies ist dem Buch anzumerken: Immer wieder verfällt sie in die spezifische „Beratungs-Terminologie‟, die eher verdeckt als erklärt, gleichzeitig kann sie offensichtlich auf viele Erfahrungen aus tatsächlich eingerichteten Makerspaces zurückgreifen.

Sie argumentiert, dass die Nutzerinnen und Nutzer heute wüssten, was Making wäre, wie 3D-Drucker funktionieren etc. Dies müsse nicht mehr erläutert werden. Wichtiger wäre, dass in Bibliotheken Personal vorhanden sein müsse, welches sich auf Makerspaces und die dortige Arbeitskultur (Ständiges Lernen und Ausprobieren neuer Techniken, Projekte, Scheitern als normales Ergebnis) einstellen könnte. Willingham et al. schlagen kurz ein spezifisches Entwicklungsprogramm für das Bibliothekspersonal vor. Auf der Basis ihrer Erfahrungen aus der Beratung gehen sie davon aus, dass nicht neues Personal notwendig ist, sondern nur anders ausgebildetes. Ebenso offenbar aus der Erfahrungspraxis heraus bestehen sie darauf, dass Bibliotheken sich vor dem Aufbau eines Makerspaces Gedanken dazu machen, wozu dieser genutzt werden soll. Nur ein Makerspace, der auf den Interessen der lokalen Community aufbauen würde, wäre sinnvoll.

Gemeinsam ist beiden Büchern, dass sie am Ende die wichtigen Entscheidungen an die Bibliotheken selber zurückgeben. Sie beschreiben, auf welche Punkte geachtet werden muss und wie Probleme gelöst werden können, aber da es keine eindeutigen Lösungen und keine immer gleichen Makerspaces gibt, verweisen sie immer darauf, dass die Bibliotheken eigene Lösungen suchen und eigene Makerspaces einrichten müssen.

Projektbücher (Seymour 2018, Burke & Kroski 2018)

In der Sammelrezension von 2016 wurde auf eine ganze Reihe von Monographien hingewiesen, die vor allem Sammlungen von Projekten darstellten, welche in Makerspaces in Bibliotheken umgesetzt werden können. Teilweise waren diese Projekte sehr detailliert beschrieben, teilweise etwas unkonkreter. Aber immer ging es darum, dass Bibliotheken aus diesen Sammlungen fertige Projekte übernehmen können sollten.

Für die spezifische Institution Bibliothek scheint auch dieses Genre fast schon wieder eingegangen zu sein. In den letzten zwei Jahren erschienen offenbar nur zwei relevante Titel dieser Art. Dabei ist das erste von Burke & Kroski (2018) eine überarbeitete, zweite Auflage. Was hier als „Praxishandbuch‟ angepriesen wird, ist vor allem eine Sammlung von Beispielen und Listen. Das Buch zeichnet sich durch einen sehr übersichtlichen Aufbau aus. Jedes Kapitel endet mit einer kurzen Zusammenfassung, welche die wichtigsten Aussagen des jeweiligen Kapitels in Listen zusammenfasst. Ellyssa Kroski, welche für die Überarbeitung zuständig war, führte zudem eine Umfrage zu Makerspaces in Bibliotheken in verschiedenen (englischsprachigen) Mailinglisten durch. Die Idee war, eine Anzahl von Beispielen aktiver Makerspaces zu sammeln und im Buch darzustellen. Allerdings drängt sich der Eindruck auf, dass diese Umfrage wenig erfolgreich war und kaum zu Rückmeldungen führte. Genannt sind im Buch eher wenige Beispiele. (Dies deckt sich mit den Ergebnissen der Forschungsbeiträge, siehe weiter unten.)

Das zweite Buch dieses Genre (Seymour 2018) erhebt gleich den Anspruch, die Makerspaces in Bibliotheken wieder zu verändern. Der Meinung der Autorin nach seien diese viel zu sehr auf die MINT-Förderung ausgerichtet. Dies wäre aber nur eine Möglichkeit und zudem eine, die auch schon in Schulen genutzt würde. Vielmehr schlägt sie vor, Makerspaces als Ort für die Lösung sozialer Aufgaben einzusetzen. Das scheint etwas sehr hoch gegriffen, hat aber im englischsprachigen Raum unter dem Begriff „Service Learning‟ eine Tradition. (Ähnliches wird auch unter anderen Namen in vielen Schulen im DACH-Raum praktiziert.) Vor allen Kinder und Jugendliche sollen ein Problem beziehungsweisen eine Frage aus der nahen Umgebung vorgestellt bekommen – z.B. unsichere Verkehrsregelungen vor Schulen und Kindergärten, lokale Lebensbedingungen von Obdachlosen – und diese möglichst lokal lösen – z.B. bei den betreffenden Behörden auf andere Verkehrsregeln zu insistieren, die Lebensbedingungen von Obdachlosen etwas verbessern, z.B. indem Zugang zu öffentlichen Räumen eingefordert wird – und auf diesem Weg etwas über die Gesellschaft und die Möglichkeiten, die Gesellschaft zu verändern, zu lernen. Seymour schlägt nun vor, dies auch in Makerspaces in Bibliotheken zu tun, da hier die Lernräume dafür vorhanden seien und an eine soziale Rolle von Bibliotheken angeschlossen werden könne. Sie liefert dafür auch zahlreiche Beispielprojekte, die allerdings oft sehr spezifisch auf die US-amerikanische Realität zugeschnitten sind.

Ansonsten aber scheint das Interesse an solchen Beispielsammlungen gesunken zu sein – oder aber der Wille der betreffenden Verlage, solche Publikationen herauszubringen. Eventuell haben sich einfach die Vorgänger nicht so massiv verkauft, wie erhofft.

How-To-Serien

Während das spezifische Genre von „How-To‟-Übersichten für Makerspaces in Bibliotheken kaum noch bedient wird, hat sich das gleiche Genre für Makerspaces im Allgemeinen etabliert. Wurden sie vor einigen Jahren noch als Orte beschrieben, in welchen vor allem mit Technik gearbeitet wurde und erschienen Bücher und Broschüren mit Projektbeispielen vor allem bei einem Verlag (Maker Media), scheint sich der Begriff und das Konzept zumindest in englischsprachigen Raum soweit durchgesetzt zu haben, dass er (a) nicht mehr weiter erklärt, sondern vielmehr als werbewirksamer Begriff genutzt wird und (b) ausgedehnt wird auf alle möglichen Materialien und Themen. Eine ganze Reihe von Verlagen hat Reihen von Büchern aufgelegt oder für sich allein stehende Monographien veröffentlicht, die vor allem von Kindern und Jugendlichen selber genutzt werden sollen, um Projekte auszuwählen und nachzubauen bzw. nachzugestalten. Die Zahl dieser Reihe und Einzelpublikationen – von denen eine ganze Reihe auch ausserhalb des Buchhandels erscheint – ist nicht mehr zu überschauen.

Alle diese Werke gehen davon aus, dass es zahlreiche Makerspaces gibt, solche in verschiedenen Einrichtungen und solche, die für sich alleine stehen. Bibliotheken werden immer wieder, neben Schulen, Community-Centres und anderen, als eine dieser Einrichtungen aufgezählt, aber nicht gesondert hervorgehoben. Zumindest diesen Medien nach, ist der Makerspace auch im englischsprachigen Raum kein Alleinstellungsmerkmal von Bibliotheken, gleichzeitig aber scheint es allgemein akzeptiert zu sein, dass sie solche betreiben. Die Publikationen reagieren aber auf das Problem, dass all diese Makerspaces auch mit Programm gefüllt werden müssen(2).

Sehr einfache, für Kinder gedachte, Projekte beschreibt die Reihe „Be a Maker!‟, immer mit dem Untertitel „Maker Projects for kids who love...‟, gefolgt vom jeweiligen Thema wie Robotics, Electronics, Games, Printmaking u.a. (Crabtree Publishing, bislang rund 20 Titel). Jeder Band (je 32 Seiten) enthält, gut bebildert, einige wenige Projekte, beginnt mit einer kurzen Einführung in Makerspaces an sich und das jeweilige Thema. Nicht immer ist ganz klar, was an den jeweiligen Projekten das spezifische „Making‟ ist, oftmals scheinen normale Bastelprojekte als „Making‟ gebrandet worden zu sein.

Jeweils zehn Projekte, auch gut bebildert, aber mit mehr Text, enthält die Reihe „Using Makerspaces for School Projects: 10 Great Makerspace Projects using...‟, gefolgt vom jeweiligen Thema wie Social Studies, Science, Art (Rosen Publishing, bislang fünf Titel). An diesen Themen ist schon sichtbar, dass der Begriff „Making‟ sehr weit gedehnt wird. Hier wird das weiter oben geschilderte „Service Learning‟ genauso integriert wie Kunstprojekte oder Mathematik. Auch diese Reihe ist eher dafür gedacht, dass sie direkt von Jugendlichen verwendet wird, deshalb enthält sie ebenso Aufforderungen zum sorgsamen Umgang mit Materialien und mit anderen Personen.

„Cool Makerspace Gadgets & Gizmos‟, gefolgt vom einem Thema, beendet mit „It!‟ („Code It!‟, „Robotify It!‟ (ABDO, bislang 6 Titel) ist eine weitere Reihe, diesmal explizit auf Kinder ausgerichtet. Aufgebaut wie die anderen Reihen, nur mit explizit viel Bildern, endet jeder Band mit einer Aufforderung, den genutzten Arbeitsplatz auch wieder aufzuräumen.

Positiv zu vermerken ist, dass bei allen diese Serien offensichtlich darauf geachtet wird, Diversität vorzuleben. Niemals sind die abgebildeten Kinder, Jugendliche und Erwachsenen nur weiss und blond, niemals werden in den Informationsboxen nur „grosse Männer‟ vorgestellt, niemals wird ein Thema nur Mädchen oder nur Jungen zugeschrieben.

Alle diese – und weitere, hier ungenannte, aber gleich aufgebaute – Reihen sind dafür gedacht, dass die einzelnen Hefte Kindern und Jugendlich Anweisungen für eigene Projekte geben. Selbstverständlich lassen sie sich aber auch nutzen, um sie für die Planung und Organisation von Veranstaltungen in Makerspaces zu nutzen. Jedes der vorgestellten Projekte in jeder dieser Reihen stellt klar, welche Materialien benötigt werden und welche Ziele erreicht werden sollen. Durch die engen Vorgeben ist manchmal nicht ganz klar, wie bei diesen Projekten ein Lerneffekt eintreten oder gar „soziales Lernen‟ stattfinden soll. Die dafür notwendige Offenheit muss wohl anders hergestellt werden, als durch das sture Folgen der Anweisungen. Problematisch ist auch, dass in vielen Fällen explizit jeweils ein Produkt einer spezifischen Firma verwendet wird, obwohl viele Projekte wohl auch mit alternativen Produkten anderer Firmen durchgeführt werden könnten.

Neben diesen Reihen erscheinen weiterhin einzelne Werke, die mit ähnlichem Anspruch auftreten. Diese sind eher textlastig, aber grundsätzlich ähnlich. Als Beispiele seien hier das „Science Maker Book‟ (Beattie 2018) und „Makerspace Sound and Music Projects for All Ages‟ (Glendening & Glendening 2018) genannt. „School Library Makerspaces‟ (Moorefield-Lang 2018) stellt eine Sammlung von Beispielen aus US-amerikanischen Schulen vor, in deren Bibliotheken Makerspace aufgebaut wurden. Diese Beispiele sind alle sehr spezifisch amerikanisch, liefern trotzdem viele Anregungen für konkrete Veranstaltungen. Gleichzeitig gehen sie gerade beim Nachdenken, wie bestimmte Zielgruppen angesprochen werden oder mehr Diversität erreicht werden kann, etwas tiefer.

Viele dieser Publikationen erheben zusätzlich den Anspruch, an unterschiedlichen nationalen Lernplänen für Schulen ausgerichtet zu sein (USA, Kanada). Was bislang nicht passiert zu sein scheint, ist, dass diese Welle in den deutsch- oder französischsprachigen Ländern angekommen wäre. Publikationen in diesen Sprachen beziehen sich eher auf ausserschulische Bildungsaktivitäten. Sichtbar ist aber, dass das Konzept „Makerspace‟ durch diese Publikationen sehr auf Lernaktivitäten und auf Kinder und Jugendliche fokussiert wird. Makerspaces (in und ausserhalb von Bibliotheken) in Hochschulen, insbesondere technischen Hochschulen, die existieren, kommen hier nicht vor, ebenso wenig wie Projekte für andere Altersgruppen.

Literatur aus pädagogischen Zusammenhängen (making + coding 2018, Boy & Sieben 2017, Brejcha 2018)

Ausserhalb von Bibliotheken wurden in den letzten Jahren vor allem im pädagogischen Rahmen (sowohl in Schulen und Kindergärten als auch ausserhalb dieser) Projekte zu Making und Makerspace durchgeführt. Viele davon ohne grössere Dokumentation. Z.B. finden sich heute in vielen Pädagogischen Hochschulen Makerspaces, vor allem für die Ausbildung von Lehrpersonen, ohne das deren Arbeit breiter dokumentiert würde. Eine Anzahl der Projekte publizierte aber immer wieder ähnliche Broschüren, die vor allem Projekte für Makerspaces enthalten. Diese sind ähnlich aufgebaut, wie die schon beschriebenen „How-To‟-Serien. Der Unterschied ist, dass die vorgestellten Projekte oft in deutschen Schulen, Jugendclubs etc. ausprobiert wurden. Als Beispiel sei die Broschüre „Making + Coding‟ (2018) genannt.

Etwas umfangreicher ist die Broschüre des jfc-Medienzentrum Köln (Boy & Sieben 2017), welches im Rahmen des Projektes „Fablab Mobil‟ entstand. Hier wird Making in den Rahmen von Jugendarbeit gestellt. Die Broschüre ist ein Hybrid aus Forschungsbericht und Beschreibung von Projekten. Im Forschungsprojekt wurde getestet, ob ein mobiler Makerspace als Form der Jugendarbeit funktioniert und wie Veranstaltungen in diesen gestaltet sein müssten, damit die Kinder und Jugendlichen, die teilnehmen, möglichst viel lernen. Ergebnis war, dass es für den Lerneffekt egal war, ob (a) relativ frei nur die Aufgabe gestellt wurde, Produkte zu gestalten, welche die Teilnehmerinnen und Teilnehmer aus Vorschlägen aussuchen konnten, ob (b) spezifische Produkte als Ziel festgesetzt wurden oder aber (c) zu den Produkten noch konkrete Arbeitsschritte vorgegeben waren. Solange die Aufgabe machbar erschien und solange die Kinder und Jugendlichen zwar unterstützt wurden, wenn sie Hilfe benötigten, aber ihnen dabei nicht das Denken und Machen abgenommen wurde, lernten sie ungefähr das Gleiche. Was nicht funktionierte, so die Broschüre, war, einfach Technologien zur Verfügung zu stellen und zu hoffen, dass die Kinder und Jugendlichen mit diesen selbstständig Projekte generieren würden. Die Broschüre eignet sich für Bibliotheken vor allem dafür, darüber nachzudenken, wie eng (z.B. nur angeleitete Veranstaltungen) oder weit (z.B. ganz offen) sie ihren Makerspace gestalten wollen.

Eine Anleitung, wie Makerspaces in (US-amerikanischen) Schulen aufgebaut und betrieben werden können, will die Monographien von Lacy Brejcha (2018) geben. Basis ist der Makerspace, den sie selber in einer US-amerikanischen Schule betreibt. Aufgebaut ist das Buch wie ein Curriculum für ein Schuljahr, in dem in jedem Monat etwas gelernt wird und auch am Ende jeden Monats reflektiert wird, indem den Lesenden Aufgaben gegeben werden. Inhaltlich ist an diesem Buch wenig überraschend, es gibt auch wenige konkret nachzumachende Beispiele. Dafür sind diese immer nur sehr knapp dargestellt. Vielmehr konzentriert sich die Autorin auf die Planungs- und Organisationsaufgaben von Lehrpersonen und der Einbindung des Makerspaces in den Kontext der Schule.

Abschlussarbeiten

Angesichts dessen, dass das Thema Makerspace in der bibliothekarischen Literatur immer wieder als vorgebliches Zukunftsthema auftaucht, scheinen erstaunlich wenige Abschlussarbeiten bibliothekarischer Studiengänge zum Thema geschrieben worden zu sein. Zumindest unter den öffentlichen zugänglichen Abschlussarbeiten im DACH-Raum finden sie sich kaum.

In der Reihe „b.i.t.Online innovativ‟ erschien die Bachelorarbeit von Sabrina Lorenz (2018) unter dem irreführenden Titel „Makerspaces in Öffentlichen Bibliotheken‟. Das ist nicht das Thema der Arbeit, z.B. ist die Literaturübersicht viel zu wenig umfangreich für eine solche übergreifende Benennung. Vielmehr geht es darum, eine Makerspace-Veranstaltung in einer spezifischen Schulbibliothek zu konzipieren und durchzuführen. Diese Veranstaltung wird explizit als pädagogische definiert – inklusive didaktischer Planung – und auch als solche evaluiert (z.b. durch ein Interview mit einer Lehrperson). Was die Arbeit zeigt, ist, dass solche Veranstaltungen möglich sind und es auch mit wenig Aufwand für Bibliotheken möglich ist, Maker-Veranstaltungen so zu planen, dass sie von Lehrpersonen als pädagogisch sinnvoll angesehen werden.

Umfangreicher ist die in den Churer Schriften zur Informationswissenschaft publizierte Arbeit von Marcel Hanselmann (2018) mit dem gleichen Titel. Auch diese zielt letztlich darauf, zu erheben, ob eine spezifische Veranstaltungsform – hier: Makerspace-Veranstaltungen mit littleBits – umgesetzt werden können. Dazu wurde ein Workshop mit Bibliothekarinnen und Bibliothekaren durchgeführt. Relevanter sind aber die in der Arbeit dargestellten Vorarbeiten zu diesem Workshop, u.a. eine Umfrage unter Bibliotheken mit Makerspaces und der Versuch, die Pädagogik hinter Makerspaces zu definieren. Auch wenn der Autor selber die Ergebnisse positiver darstellt, zeigt sich hier doch, dass sowohl der pädagogische Hintergrund von Makerspaces wenig geklärt ist als auch, dass viele Bibliotheken keine klare Definition davon haben, was sie mit den Makerspaces eigentlich erreichen wollen.

In einer Abschlussarbeit aus der Informatik untersuchte Lena Gappmaier eine konkrete Veranstaltung, „Maker Days‟, die schon 2015 in Bad Reichenhall über einen Zeitraum von vier Tagen durchgeführt wurden. Während dieser wurden die meisten Angebote, die sich auch in Makerspaces in Bibliotheken, Schulen, Jugendzentren etc. finden, als Workshops für Jugendliche angeboten. Die Autorin untersuchte die Beteiligung und den Kompetenzerwerb der Teilnehmenden. Sie stellt fest, dass – obwohl explizit versucht wurde, dem entgegenzuwirken – die „Maker Days‟ Mädchen viel weniger ansprachen als Jungen und das der Kompetenzerwerb – wenig überraschend – in einem engen Zusammenhang mit der Länge der Teilnahme an den Veranstaltungen stand: Jugendliche, die länger und öfter teilnahmen, erwarben auch mehr Kompetenzen. Ansonsten fast die Arbeit im ersten Teil noch einmal alle Versprechen und Überlegungen zu Makerspaces gut zusammen.

Forschungsbeiträge

Auch die konkrete Forschung zu Makerspaces in Bibliotheken scheint in den letzten Jahren zurückgegangen zu sein. Weiterhin erscheinen Forschungsartikel zum Thema, aber nur wenige und kaum solche, die sich mit übergreifenden Fragen beschäftigen. Systematische Forschungsprogramme scheinen nicht entwickelt worden zu sein.

Eine Ausnahme ist die Arbeit von Shannon Crawford Barniskis (2017) zum Zusammenhang von bibliothekarischen Vorstellungen davon, was die Bibliothek sein soll und welche Wirkungen sie in der Welt haben soll („library faith‟) und dem Diskurs um Makerspaces in Bibliotheken. Der Text bezieht sich auf die Diskurse in den USA, die Ergebnisse lassen sich aber übertragen: In der bibliothekarischen Literatur hätte sich die Idee „Makerspace‟ durchgesetzt, so wie sich zuvor auch andere Ideen als „modern‟ durchgesetzt hätten, gleichzeitig gäbe es für die meisten Versprechen (also, was mit Makerspaces in Bibliotheken erreicht werden soll) keine empirische Basis, sondern wenn überhaupt, dann eher indirekte Evidenzen. Von den unterschiedlichen Versprechungen, wie Demokratisierung, Spass, Community-Bildung (vgl. für eine Aufzählung solcher Versprechen die Abschlussarbeit von Calvo (2017)), werden im Zusammenhang mit Makerspaces vor allem ökonomische Versprechen gemacht: Nutzerinnen und Nutzer würden besser lernen und dadurch mehr Kompetenzen für die Arbeitsmarkt haben, teilweise gibt es auch das Versprechen, dass ein Makerspace die lokale Wirtschaft voranbringen würde. Ob, wie in vielen Texten versprochen, Makerspaces in Bibliotheken dafür genutzt werden, dass Nutzerinnen und Nutzer partizipativ mehr an Entscheidungen beteiligt werden, zumindest im Makerspace, sei nicht ersichtlich. (Ähnliches stellte Braybrooke (2018) für Makerspaces in Museen, zumindest in London, fest. Auch hier ist der Anspruch, das Museum mit Makerspaces zu verändern, grösser, als die Realität.)

Die Ergebnisse einer Umfrage zu Makerspace in Bibliotheken an Hochschulen in New England, die allerdings schon 2015 durchgeführt wurde, präsentiert Davis (2018). Solche Umfragen wurden vor 2017 eher durchgeführt als näher, diese wurde einfach sehr spät publiziert. Sie haben alle den – undiskutierten – Bias, dass die Umfragen so durchgeführt werden, dass eigentlich nur die Bibliotheken antworten, welche ein Interesse an Makerspaces haben. Dadurch entsteht schnell der Eindruck einer weitreichenden Bewegung, da z.B. die antwortenden Bibliotheken berichten, in den letzten Jahren Makerspaces gegründet zu haben oder solche zu planen. (Die Gegenprobe, ob diese Pläne dann auch umgesetzt wurden, ob Makerspaces auch geschlossen wurden oder ob sie in anderen Bibliotheken nie angedacht wurden, wird in diesen Studien nicht gemacht.) Ansonsten werden bei Davis (2018) einfach Grundwerte zu den Makerspaces abgefragt und dann im Artikel deskriptiv dargestellt. Sichtbar wird in ihnen vor allem, dass die Bibliotheken zumindest 2015 eher auf die Suche danach waren, was ein Makerspace erreichen soll, wie er finanziert werden soll etc. und dabei zu sehr unterschiedlichen Antworten kamen.

Einen weiteren Überblick zur Verbreitung von Makerspaces, diesmal in Wissenschaftlichen Bibliotheken in Deutschland, bieten Späth, Seidl & Heinzel (2019), die einmal nicht auf einer Umfrage setzten, sondern systematisch die Homepages der 84 deutschen Universitäten (nicht der Fachhochschulen und auch nicht die privater Einrichtungen) durchsuchten. Vermerkt wird im Artikel, dass Makerspaces in Bibliotheken schon eine Weile existieren und deshalb erwartet werden könnte, dass diese sich auch in Deutschland verbreitet hätten. Die Ergebnisse zeigen das nur zum Teil. Von den 84 Universitäten haben 18 einen oder mehrere Makerspaces. Oft sind es die grossen Universitäten und die Technischen Universitäten, welche diese anbieten. Nur einer dieser Makerspaces untersteht direkt einer Bibliothek. Der Text informiert zudem über die Angebote und Ausstattung dieser Makerspaces. Die Autorinnen und der Autor interpretieren die Ergebnisse dahingehend, dass es sich bei Makerspaces um einen neuen Trend handeln würde, bei dem in Zukunft ein starkes Wachstum möglich sei. Allerdings lassen sich die Ergebnisse auch genau gegenteilig lesen als Hinweis darauf, dass dieser Trend sich nicht über einzelne, grosse Einrichtungen hinaus verbreitet hat.

Dass sich diese Ziele von Makerspaces weit von den geäusserten Versprechen entfernen können – und sich dann irgendwann die Frage stellt, ob das Makerspaces sind oder ob es etwas anderes bedeutet, dass solche Räume eingerichtet werden – zeigt die Darstellung von Megan Lotts (2017) zum von ihr betriebenen Makerspace in der Art Library der Rutgers University, New Jersey. In dieser wird vor allem mit Materialien aus der Kunstpraxis (Papier, Stifte, Farben etc.) gearbeitet, dass Hauptziel ist nicht mehr Lernen oder Innovation, sondern Stressabbau der Studierenden.

Eine weitere Umfrage von Bossaller und Haggerty (2018) fügt sich in dieses Bild ein. Thema ist eigentlich, wie Bibliothekarinnen und Bibliothekare Fragen des Copyrights in Bezug auf 3D-Druck sehen – die Antwort darauf steht im Titel: „We Are Not Police‟ –, interessanter ist, dass nur recht wenig Bibliotheken (81 von 900 angeschrieben) etwas zum Thema Makerspace sagen wollten, dass sich diese Bibliotheken über die verschiedenen Grössen von Bibliotheken (von kleinsten zu grössten) verteilten und das vor allem „low-tech‟, also einfache Technologien, in diesen Bibliotheken eingesetzt wird, wenn sie einen Makerspace haben.

Wenig überraschende Ergebnisse lieferte eine Interview-Studie mit sechs Bibliotheken (vier Schulbibliotheken, zwei Öffentliche Bibliotheken) in den USA, die schon länger einen Makerspace betreiben und zum Zeitpunkt des Interviews planten, diesen neu zu konzipieren. (Moorefield-Lang 2018b) Was hatten diese aus dem schon betriebenen Makerspace gelernt? Die Interviewten betonten, dass beim ersten Makerspace praktisch alles Mögliche ausprobiert wurde, während der neue genauer geplant würde. Es würden Ziele bestimmt und dann – auf der Basis der gesammelten Erfahrung – entschieden, wie der neue Makerspace aussehen sollte. Sie betonten gelernt zu haben, dass das Vorhandensein einer Community wichtig sei und dass sie deshalb einen Fokus darauf legen würden, diese zu pflegen. Grundsätzlich wären die Makerspaces insoweit erfolgreich, dass sie ständig besucht würden. Schwierig sei aber zu bestimmen, was genau in ihnen gelernt wird.

Auffällig ist, dass zur Evaluation der bestehenden Makerspaces in Bibliotheken bislang wenig publiziert wurde. Makerspaces scheinen weiterhin ohne grössere Überprüfung ihrer Wirksamkeit betrieben zu werden. Dies deckt sich z.B. mit der Beobachtung von Hanselmann (2017), dass die meisten dieser Einrichtungen ohne genauer Zieldefinition eröffnet wurden. In einer Abschlussarbeit (von 2016, aber bei der letzten Sammelrezension noch nicht vorliegend) zu der Frage, wie solche Evaluationen aussehen oder aussehen könnten, kommt Gahagan (2016) ebenso zum Ergebnis, dass solche kaum vorgenommen werden. Cun, Abramovich und Smith (2019) legt als ersten Teil eines Forschungsprojektes eine Matrix vor, um solche Evaluationen vorzunehmen. Diese scheint noch sehr komplex. Im Rahmen ihres Projektes soll sie überprüft und für den Alltag handhabbar gemacht werden. Bislang zeigt sie vor allem, dass viele Ansprüche an Makerspaces in Bibliotheken bestehen. Gahagan und Calvert (2019) besuchten 2016 und dann noch einmal 2019 den 2013 eingerichteten Makerspace der Central City Library in Auckland (Neuseeland) mit dem Ziel zu klären, wie in diesem der Erfolg des Makerspaces evaluiert wird. Zu ihrer Überraschung hatte sich in den letzten drei Jahren wenig geändert. Der Makerspace wurde von neuem Personal betrieben. Eingesetzt wurden zur Evaluation – neben der Zählung der Benutzerinnen und Benutzer – vor allem Meinungserhebungen am Ende von Veranstaltungen, Ad-hoc erhobenes Feedback von Nutzerinnen und Nutzern sowie Beobachtungen des Personals. Das alles wenig systematisch. Was Gahagan und Calvert feststellten war, dass das heutige Personal wenig davon zu wissen scheint, warum der Makerspace einst, auf der Basis einer Bibliotheksstrategie der Stadt, eingerichtet wurde. Vielmehr scheinen sie eigene Begründungen für ihn gefunden zu haben und ihn nicht mehr an den Zielen zu messen, die 2013 aufgestellt wurden.

Zwei Studien, die ausserhalb des Bibliothekswesens über Fablabs bzw. Makerspaces entstanden, verdienen eine Erwähnung. Davies (2017) untersuchte mit ethnographischem Blick die Realität von einem Dutzend Makerspaces in der USA: Wie funktionieren die sozialen Prozesse in ihnen? Wer benutzt sie und wer nicht? Wie sind die ungeschriebenen Regeln, die man einhalten muss, um Zugang zu erhalten? Sie zeigt, dass die Community um Makerspaces nicht einfach so entsteht, sondern das dafür immer von Personen im Makerspace Arbeit dafür geleistet werden muss. Gleichzeitig zeigt sie, dass die Offenheit für alle Personen, welche im Zusammenhang mit Makerspaces immer wieder genannt wird, nicht gelebt wird. Makerspaces schliessen nicht absichtlich Personen aus, aber sie haben gewisse Prozesse (Orientierung an Projektarbeit, individuelles Arbeiten, eine bestimmte Terminologie und Prozesse der Aushandlung von Regeln und Konflikten), die dazu führen, dass die meisten Makerspaces vor allem von gut situierten, mittelalten, weissen Männern benutzt werden. Calabresse Barton und Tan (2018) versuchen in einem Action Research Projekt genau gegen diese Einseitigkeit zu arbeiten: Wie können Jugendliche aus einer sozial benachteiligten Gegend in den USA sinnvoll einen Makerspace nutzen – und wofür? Sie arbeiteten zwei Jahren mit den Jugendlichen, die in einem Community Centre einen für sie passenden Makerspace einrichteten und diesen auch nutzten. Er sah anders aus, als andere Makerspaces: Kindgerechter, mehr auf gemeinsame Interaktion hinausgelegt, integriert in das Community Centre. Ausserdem waren die Projekte, welche die Jugendlichen interessierten, immer darauf ausgelegt, Probleme in ihrer Community zu lösen, nicht die individuellen Interessen der Jugendlichen selber. Die Arbeit im Makerspace funktionierte auch, weil die Autorinnen die Jugendlichen mit einer Struktur (also festen Terminen) unterstützten, diese aber gleichzeitig mit Bezug auf die sozialen Umstände der Jugendlichen flexibel hielt, also z.B. ein längeres Fehlen (weil Jugendliche kein Geld für den Bus zum Community Center hatten) nicht als Ausschlussgrund galt. Makerspaces mit diversen Nutzerinnen und Nutzern sind also möglich, wenn explizit darauf geachtet wird.

Fazit

Im Vergleich zu den Jahren zuvor scheint das Thema Makerspaces in Bibliotheken in der Literatur 2017-2019 massiv an Relevanz verloren zu haben, und zwar auf allen Ebenen: Bei Überblickswerken, als Forschungsthema, als Thema von Umfragen und als Thema studentischer Abschlussarbeiten. Es gibt kaum einen neuen Erkenntnisgewinn, ausser, dass sich Makerspaces in Bibliotheken, wenn sie existieren, thematisch massiv erweitern hin zu Räumen, die z.T. den ganzen technologischen Aspekt, welcher vor 2017 ein die Makerspaces definierendes Thema in der bibliothekarischen Literatur war, wieder fallen lassen. Zudem scheint, dass sich, wenn Technik eingesetzt wird, in den Makerspaces vor allem einfache Technik durchgesetzt hat.

Einzig die einzelnen Projektberichte in der bibliothekarischen Literatur scheinen nicht sonderlich weniger oder inhaltlich geringer geworden zu sein, sondern bewegen sich auf einem ähnlichen Niveau wie 2014-2016.

Konnte man vor einigen Jahren noch von einer Entwicklung hin zu Makerspaces in Bibliotheken ausgehen, scheint jetzt schon wieder eine gewisse Ernüchterung eingetreten zu sein. Es gibt Makerspaces, auch immer wieder neue und damit auch immer wieder Kolleginnen und Kollegen, die sich dafür begeistern. Zu erwähnen ist auch ein Projekt der Stiftung Bibliomedia Schweiz, welche – vorerst für die Deutschschweiz – Makerspace-Toolkits zur Ausleihe für Gemeindebibliotheken aller Grössen zur Verfügung stellt. [Diese Projekt wird vom Autor dieser Besprechung evaluiert.] (Es gibt aber auch Beispiele von Makerspaces, auch im DACH-Raum, von denen in der Literatur 2014-2016 berichtet wurde, die aber jetzt schon nicht mehr zu existieren scheinen.) Die Aufbauphase, also die Phase, in der viel versprochen und ausprobiert wird, scheint für Makerspaces in Bibliotheken aber schon wieder vorbei zu sein. Gut wäre es wohl, wenn jetzt eine Phase eintritt, in der realistisch geschaut wird, was diese Makerspaces jetzt wirklich bringen, welche Effekte sie tatsächlich haben und aus welchen Gründen einige erfolgreich nachhaltig weitergeführt werden und andere nicht. Allerdings ist Barniskis (2017) zuzustimmen, dass gerade diese empirische Forschung kaum betrieben wird.

(Stand: Oktober 2019)

Fussnote

(2)Auffällig im Vergleich zur Literatur bis 2016 ist, dass eigentlich kaum noch von Communities gesprochen oder geschrieben wird, die sich um Makerspaces herum selbstorganisiert bilden würden, sondern vor allem davon, welche Projekte und Veranstaltungen in den Makerspaces umgesetzt werden sollen.

Literatur

Barniskis, Shannon Crawford (2017). To what ends, by which means? In: Information Research 22 (2017) 1: 1-18, http://www.informationr.net/ir/22-1/colis/colis1646.html

Beattie, Rob (2018). Science Maker Book. London: Quarto Publishing, 2018

Bossaller, Jenny ; Haggerty, Kenneth (2018). We Are Not Police: Public Librariansʹ Attitudes about Making and Intellectual Property. In: Public Library Quarterly 37 (2018) 1: 36-52, https://doi.org/10.1080/01616846.2017.1422173

Boy, Henrike ; Sieben, Gerda (Hrsg.) (2017). Kunst & Kabel: Konstruieren. Programmieren. Selbermachen. München: kopaed, 2017

Braybrooke, Kat (2018). Hacking the museum? Practices and power geometries at collections makerspaces in London. In: The Journal of Peer Production (2018) 12: 40-59, http://peerproduction.net/issues/issue-12-makerspaces-and-institutions/peer-reviewed-papers/hacking-the-museum/

Brejcha, Lacy (2018). Makerspaces in School: A Month-by-Month Schoolwide Model for Building Meaningful Makerspaces. Waco, Texas: Prufrock Press, 2018

Burke, John J. ; Kroski, Ellyssa (2018). Makerspaces : A practical guide for librarians. (Practical guides for librarians, 38) (2. Edition) Lanham: Rowman & Littlefield, 2018

Calabresse Barton, Angela ; Tan, Edna (2018). STEM-Rich Maker Learning: Designing for Equity with Youth of Color. New York: Teachers College Press, 2018

Calov, Pablo (2017). Library Makerspaces: Evaluating the Value of Digital Making in a UK Public Library Setting. (Submitted in partial fulfilment of the requirements for the degree of Msc in Library Science) London: City University London, 2017, http://dx.doi.org/10.17613/M6SR30

Cun, Aijuan ; Abramovich, Samuel ; Smith, Jordan M. (2019). An assessment matrix for library makerspaces. In: Library and Information Science Research 41 (2019) 1, 39-47, https://doi.org/10.1016/j.lisr.2019.02.008

Davis, Ann Marie L. (2018). Current Trends and Goals in the Development of Makerspaces at New England College and Reserach Libraries. In: Information Technology and Libraries 37 (2018) 2, https://doi.org/10.6017/ital.v37i2.9825

Davis, Sarah R. (2017). Hackerspaces: Making the Maker Movement.  Cambridge; Malden: Polity Press, 2017

Eck, Virginie (2017). Un fablab à la BML. In: Bibliothèque(s) (2017) 88-89: 97

Gahagan, Pia Margaret ; Calvert, Philip James (2019). Evaluating a Public Library Makerspace. In: Public Library Quarterly, 38 (2019), https://doi.org/10.1080/01616846.2019.1662756

Gahagan, Pia Margaret (2016). Evaluating Makerspaces: exploring methods used to assess the outcomes of public library makerspaces. (Submitted to the School of Information Management, Victroia University of Wellington). Wellington: Victoria University of Wellington, 2016, http://dx.doi.org/10063/5193

Gappmaier, Lena (2018). Maker Days for Kids: Analyse und Konzepterstellung. (Internet-Tenchologie und Gesellschaft, 8) Norderstedt: Books on Demand, 2018

Geißler, Jens A. ; Schumann, Tim (2017). Makerspace, Mundraub-Tour und Foodsharing. In: Bibliotheksdienst 51 (2017) 2: 181-196, https://doi.org/10.1515/bd-2017-0018

Glendening, Mary L. ; Glendening, Isaac W. (2018). Makerspace Sound and Music Projects for All Ages. New York u.a.: McGraw-Hill Education, 2018

Hanselmann, Marcel (2017). Makerspaces in öffentlichen Bibliotheken: Eine Untersuchung der didaktischen ziele und eine Evaluation der Technologie littleBits. (Churer Schriften zur Informationswissenschaft, 88) Chur: HTW Chur, 2017, https://www.htwchur.ch/fileadmin/htw_chur/angewandte_zukunftstechnologien/SII/churer_schriften/CSI88-Makerspaces_in_oeffentlichen_Bibliotheken.pdf

Jaouan, Cyrille (2017). Le Bibliofab : ou comment faire entrer le fablab en bibliothèque ?. In: Bibliothèque(s) (2017) 90-91: 82-83

Jaouan, Cyrille ; Gueidan, Audric ; Domas, Guillaume (2018). De la bibliothèque au fablab : entretien avec Audric Gueidan et Guillaume Domas. In: Bibliothèque(s) (2018) 92-93: 82-85

Kroski, Ellyssa (edit.) (2017). the makerspace librarianʹs sourcebook. Chicago: ala editions, 2017

Lorenz, Sabrian (2018). Makerspaces in Öffentlichen Bibliotheken – Konzeption und Durchführung eines Making-Angebots für die Schul- und Stadtteilbücherei Weibelfeldschule in Dreieich. (b.i.t.Online innovativ, 70) Wiesbaden: b.i.t. Verlag, 2018

Lotts, Megan (2017). Low-Cost High-Impact Makerspaces at the Rutgers University Art Library. In: Art Documentation: Journal of the Art Libraries Society of North America 36 (2017) 2: 345-362, https://doi.org/10.1086/694249

Making + Coding: 14 kreative Medienideen für die Schule. Ludwigshafen: medien + bildung, 2017, https://medienundbildung.com/uploads/tx_ttproducts/datasheet/Making-Coding_2.Aufl_web96.pdf 

Moorefield-Lang, Heather (edit.) (2018a). School Library Makerspaces in Action. Santa Barbara; Denver: Libraries Unlimited, 2018

Moorefield-Lang, Heather (2018b). Lessons learned: intentional implementation of second makerspaces. In: Reference Services Review 47 (2018) 1: 37-47, https://doi.org/10.1108/RSR-07-2018-0058

Ravoux, Élisabeth ; Ripert, Isabelle (2017). Le projet cré@lab de la médiathèque de Saint-Raphaël. In: Bibliothèque(s) (2017) 88-89: 96

Schuldt, Karsten (2016). Anleitungen und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension. In: RESSI (2016) 17, http://www.ressi.ch/num17/article_133

Seymour, Gina (2018). Makers with a cause: Creative Service Projects for Library Youth. Santa Barbara ; Denver: Libraries Unlimited, 2018

Späth, Katharina ; Seidl, Tobias ; Heinzel, Viktoria (2019). Verbreitung und Ausgestaltung von Makerspaces an Universitäten in Deutschland. In: o-bib 6 (2019) 3, https://doi.org/10.5282/o-bib/2019H3S40-55

Vallauri, Benoît (2017). Culture numérique en valises (clandestines). In: Bibliothèque(s) (2017) 88-89: 94-95

Willingham, Theresa ; Stephens, Chuck ; Willingham, Steve ; de Boer, Jeroen (2018). Library Makerspaces : The Complete Guide. Lanham ; Boulder ; New York ; London : Rowland & Littlefield, 2018

Willingham, Theresa ; de Boer, Jeroen (2015). Makerspaces in libraries. (Library technologies essentials, 4). Lanham ; Boulder ; New York ; London : Rowland & Littlefield, 2015

Wetendorf, Lisa (2018). „Mobiler Makerspace Schleswig-Holstein‟: Bibliotheken schaffen Wissen. In: BuB 70 (2018) 4: 165