Publiée une fois par année, la Revue électronique suisse de science de l'information (RESSI) a pour but principal le développement scientifique de cette discipline en Suisse.
Présentation de la revue
Contenu du site
Se connecter
Publié par Ressi
Service de gestion des données de recherche à la Bibliothèque de l’EPFL : historique, services et perspectives
Ressi — 20 décembre 2017
Eliane Blumer, Coordinatrice données de recherche, Bibliothécaire de liaison pour les Sciences de la Vie
Jan Krause, data librarian
Service de gestion des données de recherche à la Bibliothèque de l’EPFL : historique, services et perspectives
Introduction
Tout service réussi répond à un besoin. Dans ce cas, le besoin est double, d’une part celui des chercheurs et d’autre part celui de l’institution. En effet, au cours des dernières années, les principaux bailleurs de fonds ont mis en place des exigences plus poussées en matière de gestion de données. En parallèle, les éditeurs ont également élevé leurs critères en ce sens. De plus, la complexité et la quantité des données ne cessant d’augmenter, certains chercheurs ressentent le besoin d’être épaulés par leur organisation. Par ailleurs, depuis le début de l’année la nouvelle direction de l’EPFL a mis un point fort sur l’ouverture de la science et sa reproductibilité (open science), ce qui inclut une meilleure gestion ainsi qu’une ouverture plus large des données de la recherche.
Pour répondre à ces besoins croissants, le service de gestion des données de la recherche de la Bibliothèque de l’EPFL a mené deux projets en parallèle : la création de son offre de service et une participation très active au projet national Data Life-Cycle Management (DLCM). Chacun nourrissant l’autre et permettant le développement de compétences. Cet article décrit l’historique de la mise en place du service de gestion des données de recherche à la Bibliothèque de l’EPFL. Il s’arrête sur les services offerts à ce jour et se termine sur les perspectives d’évolution.
Historique de la mise en place du service
L’implication des bibliothèques universitaires dans la gestion des données de la recherche se situe dans la continuité de leurs missions. En effet, les données sont désormais considérées comme des éléments de publications scientifiques à part entière dans le cadre de la dissémination de la recherche. Le partage des données de recherche devient donc crucial. Il s’agit d’une extension des compétences en matière de métadonnées, de licences, de dépôts institutionnels, notamment. Pour cette raison, entre 2012 et 2013, le dossier « Données de la recherche » a été intégré dans les axes stratégiques de travail au sein de la Bibliothèque, qui a su anticiper les besoins institutionnels. Le travail a démarré d’un côté avec un état des lieux des services offerts dans d’autres institutions internationales, et de l’autre avec la mise en place de collaborations liés aux données de la recherche au sein de l’institution. En pratique, la gestion des données de recherche a été insérée dans le cahier des charges de deux personnes entre fin 2013 et début 2014, ce qui représentait une charge de 0.4 ETP au total.
Tout au long de 2014, le projet de mise en place des services de support pour les chercheurs en matière de gestion de données a été poursuivi, et une première action de sensibilisation a été réalisée avec la conférence « Open Research Data – The Future of Science ». Ce fut l’occasion de se réunir avec les chercheurs et les autres acteurs impliqués au sein de l’institution (le Research Office, le service informatique), et d’échanger avec d’autres acteurs concernés en Suisse (professionnels de l’information, etc.).
Cette même année, la Bibliothèque s’est focalisée sur la mise sur pied du projet national Data Life-Cycle Management (DLCM)[1]. Nous avons été particulièrement actifs dans la soumission commune de la proposition de projet auprès du fond swissuniversities P-2 Information Scientifique. Celle-ci a permis d’obtenir un fond de cinq millions au total destiné à répondre au niveau national aux besoins les plus imminents des chercheurs en matière de gestion de données, incluant le planification, la gestion active, la préservation ainsi que le training et consulting. Dans ce contexte, la Bibliothèque de l’EPFL s’est engagée activement en tant que responsable d’un axe de travail, ce qui lui a permis d’augmenter ses forces de travail d’1.0 ETP via des fonds mixtes. De manière générale, la Bibliothèque de l’EPFL a bénéficié du projet DLCM qui a joué le rôle de moteur national pour les institutions participantes.
En 2015, le service se formalise. La Présidence de l’EPFL approuve en janvier un projet de service d’accompagnement des chercheurs pour la rédaction des Data Management Plans (DMP) en phase pilote pour six mois. L’objectif du service était de soutenir les chercheurs qui devaient répondre aux requêtes en matière de gestion de données de la recherche de la Commission Européenne dans le cadre de l’Open Data Pilot du programme de financement Horizon 2020. Le projet a été ensuite confirmé et stabilisé après le pilote. C’est également dans ce contexte et au cours de cette année que les effectifs ont pu être augmentés de 0.8 ETP.
Une page web a été également insérée dans le site de la Bibliothèque, mettant en évidence les différents services impliqués dans la gestion des données à l’EPFL. De plus, un article présentant les enjeux de la bonne gestion des données ainsi que le service est publié dans le journal institutionnel[2].
Côté sensibilisation, la Bibliothèque a de nouveau organisé un événement, étalé sur quatre dates autour la thématique de l’Open Science, cette fois-ci avec une orientation plus pratique, avec entre autres des workshops sur [3] et la fouille de textes et de données (data and text mining).
Côté formation, une première offre a été mise en place, avec l’intention de couvrir les besoins institutionnels. Une formation généraliste d’une journée (« Optimizing Research Data Management »), accessible via le Service de Formation du Personnel et destinée à l’ensemble de l’EPFL avec un fort accent sur la recherche a été créée.
Dès 2016, un module de gestion des données de recherche dans la formation en compétences informationnelles à destination des doctorants a été initié ; il se focalise sur la publication de jeux de données. Des formations ciblées pour des groupes de recherches sont aussi offertes à la demande. Dans ces cas, une étude des besoins du laboratoire est effectuée au préalable, d’une part via un sondage auprès des membres du groupe et d’autre part en se basant sur une enquête plus approfondie auprès d’une ou deux personnes choisies. Finalement, des propositions d’améliorations sont faites et discutées avec l’ensemble du groupe pendant une demi-journée ou une journée entière. Le but étant de prendre des décisions débouchant sur des actions concrètes.
Sur le plan de la sensibilisation, la Bibliothèque de l’EPFL a notamment agi via la co-organisation de la conférence opendata.ch à Lausanne, en prenant en charge la partie dédiée aux données de recherche, les autres partenaires se focalisant sur les aspects gouvernementaux et commerciaux de l’open data.
Sur le plan pratique, pour renforcer les actions de support pour les chercheurs dans la rédaction des DMPs, la Bibliothèque a créé en 2016, en collaboration avec l’Ecole Polytechnique Fédérale de Zürich (ETHZ), une Data Management Checklist ainsi qu’un premier modèle de Data Management Plan (en partenariat aussi avec le Digital Curation Centre). Ce modèle répond au lancement du Open Data Pilot d’Horizon 2020[4], le programme européen de financement de la recherche et de l’innovation. Le pilote portait sur neuf domaines scientifiques[5] et comprenait la nouvelle exigence de fournir un DMP. Plus précisément, ce type de plan consiste à répondre à un ensemble de questions spécifiques, telles qu’illustrées dans le tableau 1 ci-dessous. En d’autre termes, il s’agit d’un document définissant pas à pas la gestion des données, depuis leur création jusqu’à leur archivage. Étant donné que Horizon2020 est l’un des deux bailleurs de fonds les plus importants pour l’EPFL, il est évident que ceci a demandé une forte implication du service pour répondre au besoin des chercheurs. Il était également important de remplir ces exigences pour la direction et de maintenir le niveau de financement obtenu.
Par ailleurs, le projet DLCM ayant été accepté, une partie importante des forces de travail s’est orientée sur ce projet. Notamment, sur la réflexion autour du portail DLCM, ainsi qu’un travail préliminaire sur le projet de préservation à long terme. Ceci a permis à l’équipe de la Bibliothèque de renforcer son réseau et ses compétences
En 2017, Martin Vetterli a été nommé président de l’EPFL. Dès son entrée en fonction, celui-ci a fait remonter l’Open Science au premier plan des préoccupations stratégiques de l’institution. En particulier, la direction a apporté son soutien à la démarche de la Bibliothèque et de son service de gestion des données de recherche. Des actions pragmatiques ont été entreprises en étroite collaboration avec la Bibliothèque tel qu’un hackathon basé sur l’ouverture de données de l’EPFL[6] ou encore une école d’automne pour les doctorants, Open Science in Practice, a été mise en place. La bibliothèque s’y est fortement impliquée, notamment en proposant les modules sur le DMP, la publication et la préservation de données. De plus, la formation interne déjà en place sur le data management planning a vu sa demande augmenter et a été donnée quatre fois.
Ce fut également le moment opportun pour lancer le nouveau site web http://researchdata.epfl.ch , déjà en préparation. Celui-ci comporte les sections suivantes : Planification et financement, Travailler avec les données, et Publication et préservation. Les informations-clés concernant le support et les formations y sont disponibles.
Toujours en 2017, le Fond national suisse de la recherche scientifique (FNS) exige des DMP dès la soumission des projets, et ceux-ci sont devenus une part importante du service. De façon similaire, Horizon2020 a étendu son Open Data Pilot à l’ensemble des disciplines, rendant le DMP systématiquement obligatoire. En réponse à ceci, [7] à été élaboré, toujours en collaboration avec l’ETHZ.
Ce n’est pas uniquement l’accroissement des forces de travail qui a permis de monter ce service, mais également la collaboration avec d’autres services et institutions ainsi que l’organisation d’un bon nombre d’événements clés internes et externes à l’EPFL sur plusieurs années.
Figure 1 – Evolution des forces de travail de l’équipe, financement EPFL et DLCM confondus.
Les services à ce jour
Globalement, les services en matière de données de la recherche offerts par la Bibliothèque peuvent être divisés en deux catégories : le soutien et les formations.
Soutien
Le soutien se décline en plusieurs variantes.
Le plus fréquemment, il s’agit d’assister les unités de recherche à rédiger un DMP. Il s’agit souvent de répondre à l’exigence d’un bailleur de fonds, particulièrement le FNS ou Horizon2020. Moins fréquemment, les groupes désirent travailler sur un DMP dans le simple but d’améliorer leur pratique.
Dans d’autres cas, notre apport consiste à amener une expertise spécifique quant à une problématique précise. Il peut par exemple s’agir de choisir un dépôt pour la publication de données, ou une licence appropriée, ou encore un renseignement quant à la politique d’un éditeur en matière de partage de données.
Afin d’optimiser le support, nous avons créé différents guides. Parmi les plus utilisés, il y a le [8], élaboré en collaboration avec la bibliothèque de l’ETHZ. Ce document propose des recommandations ainsi que des exemples de réponses pour chaque question du bailleur de fonds (voir tableau 1).
Tableau 1 - Questions à développer pour le Data Management Plan du Fonds national suisse de la recherche scientifique
1 Data collection and documentation 1.1 What data will you collect, observe, generate or reuse? 1.2 How will the data be collected, observed or generated? 1.3 What documentation and metadata will you provide with the data? 2 Ethics, legal and security issues 2.1 How will ethical issues be addressed and handled? 2.2 How will data access and security be managed? 2.3 How will you handle copyright and Intellectual Property Rights issues? 3 Data storage and preservation 3.1 How will your data be stored and backed-up during the research? 3.2 What is your data preservation plan? 4 Data sharing and reuse 4.1 How and where will the data be shared? 4.2 Are there any necessary limitations to protect sensitive data? 4.3 I will choose digital repositories that are conform to the FAIR Data Principles. 4.4 I will choose digital repositories maintained by a non-profit organization. |
Par exemple, concernant la question sur le copyright et la propriété intellectuelle, la recommandation suivante est proposée :
« Attaching a clear license to a publicly accessible data set allows other to know what can legally be done with its content. When copyright is applicable, Creative Commons licenses are recommended. However, Creative Commons licenses are not recommended for software. Amongst all Creative Commons licenses, CC0 "no copyright reserved” is recommended for scientific data, as it allows other researchers to build new knowledge on top of a data set without restriction. It specifically allows aggregation of several data sets for secondary analysis. Several data repositories impose the CC0 license to facilitate reuse of their content. In order to enable a data set to get cited, and therefore get recognition for its release, it is recommended to attach a CC-BY “Attribution” license to the record, usually a description of the dataset (metadata). To get recognition, data sets can be cited directly. However, to increase their visibility and reusability, it is recommended to describe them in a separated document licensed under CC BY “Attribution”, such as a data paper or on the institutional repository. When the data has the potential to be used as such for commercial purposes, and that you intend to do so, the license CC BY-NC allows you to keep the exclusive commercial use. Reuse of third-party data may be restricted. If authorised, the data must be shared according to the third party’s original requirement or license. If you need guidance in the publication and license choice, you can check the suggested “Data publication decision tree” |
Pour ce même point, trois exemples sont aussi donnés :
Example 1: The research is not expected to lead to patents. IPR issues will be dealt with in line with the institutional policy. As the data is not subjected to a contract and will not be patented, it will be released as open data under Creative Commons CC0 license. Example 2: This project is being carried out in collaboration with an industrial partner. The intellectual property rights are set out in the collaboration agreement. The intellectual property generated from this project will be fully exploited with help from the institutional Technology Transfer Office. The aim is to patent the final procedure and then publish the work in a research journal and to publish the supporting data under an open Creative Commons Attribution (CC BY) license. Example 3: Data is suitable for sharing. They are observational data (hence unique) and could be used for other analyses or for comparison for climate change effects among many things. Reuse opportunities are vast. For this reason, we aim to allow the widest reuse of our data and will release them under Creative Commons CC0. |
De plus, d’autres documents ont été élaborés et mis à disposition sur le site web, dont :
- Modèle pour Horizon 2020
- Formats de fichier recommandés pour la préservation à long terme
- Arbre de décision pour choisir une stratégie de publication des données
Un cas type de demande d’assistance pour la rédaction d’un DMP
Souvent, les demandes de soutien débutent par un mail reçu sur la boîte email researchdata@epfl.ch Prenons l’exemple fictif d’un message avec pièce jointe envoyé par une chercheuse en Sciences de la Vie constitué du modèle DMP FNS pré-rempli ainsi que de plusieurs questions. Imaginons que, dans le DMP, la nature des données produites ainsi que les droits de partage (embargo, données sensibles etc.) ne sont pas détaillés. Comme il y a beaucoup de points à couvrir dans ce cas, nous contactons la personne en lui proposant un entretien afin de discuter de vive voix de ses questions. Dans des cas plus simples, nous répondons directement par email ou par téléphone.
Le rendez-vous fixé, deux collègues de l’équipe données de recherche ainsi que le/la bibliothécaire de liaison de la discipline concernée se réunissent pour préparer ensemble le retour. L’équipe se rend compte que d’autres parties du DMP ont été traitées de façon superficielle ou manquent. C’est souvent concernant la préservation à long-terme, les métadonnées, les formats de préservation et les licences.
Lors de la réunion, les questions de la chercheuse sont traitées, puis, l’ensemble du document est passé en revue et des suggestions d’amélioration sont faites. En sciences de la vie, lorsque le projet est réalisé avec des partenaires industriels, les droits doivent être discutés avec tous les acteurs impliqués. On insiste également sur le fait que les données personnelles ou sensibles, sont soumises à des exigences légales, et en fonction de la situation, nous renvoyons la chercheuse vers le Human Research Ethics Committee's (HREC)[9]. Pour la gestion des données actives, nous renseignons sur les différents outils appropriés, et, le cas échéant nous renvoyons vers le service informatique concerné (stockage, cahier de laboratoire électronique, gestion des versions, etc.). En ce qui concerne les métadonnées, nous proposons des standards appropriés, en soulignant l’importance de décrire les jeux de données de façon à ce qu’ils soient FAIR[10], comme l’exigent la plupart des bailleurs de fonds. Pour la partie préservation à long-terme, nous rappelons que l’EPFL ne propose pas (encore) de solution interne. Dans le cas présent, une fois les données anonymisées, elles pourront être publiées gratuitement sur Zenodo.org [11]. Nous profitons de l’occasion pour discuter un peu plus en détails de l’initiative du FNS, ainsi que du budget disponible pour la gestion des données du projet.
A la suite de la réunion, nous renvoyons un message contenant tous les documents et informations utiles en pièce jointe.
Le soutien tel que décrit ci-dessus s’est avéré pertinent et apprécié. Cependant, au sein d’une institution forte de milliers de chercheurs organisés en environ 353 groupes de recherche, il n’est pas possible de revoir en détail le data management plan de chaque projet. C’est une des raisons pour lesquelles il est important de former les collaborateurs concernés.
Formation
- Présentation : court exposé non-interactif d’une thématique visant un public spécifique.
- Atelier court : d’une durée de deux heures, souvent combiné avec une pause sandwich à midi, visant généralement les chercheurs.
- Atelier d’une demi-journée : souvent utilisé pour la formation sur mesure d’un groupe de recherche, ou un module pour l’école doctorale.
- Atelier d’une journée et plus : visant généralement un public hétérogène : personnel EPFL en général, une école doctorale, bibliothécaires spécialistes.
La Bibliothèque propose une gamme de formations, tant à l’interne qu’à l’externe. La priorité est évidemment de servir l’institution, néanmoins, l’équipe « données de recherche », s’efforce de répondre aux sollicitations externes dans la mesure de ses forces. En effet, les interventions externes constituent une occasion précieuse de s’enrichir et d’échanger.
Nos formations prennent différentes formes, en fonction du contexte. Voici la panoplie que nous utilisons :
Un cas type : la formation destinée au personnel EPFL
Description
Savoir gérer et organiser ses données de recherche devient l’une des conditions sine qua non pour garantir la qualité, la pérennité ainsi que la reproductibilité de ses données dans la durée. De plus, de nombreux bailleurs de fonds exigent aujourd’hui de savoir préparer un plan de gestion des données pour obtenir un financement. Ce cours d’introduction vous permettra d’acquérir les connaissances et ressources indispensables pour améliorer et optimiser l’organisation ainsi que le partage de vos données de recherche pour le long terme.
Objectifs
- Acquérir les connaissances de bases et découvrir les ressources à votre disposition pour mieux gérer vos données.
- Se sensibiliser aux bonnes pratiques en matière de gestion des données de la recherche tout au long du cycle de vie.
- Saisir les bénéfices d’une telle pratique et savoir répondre aux nouvelles exigences des bailleurs de fond dans ce domaine.
- S’approprier les outils à votre disposition pour optimiser la gestion de vos données au quotidien et à long terme.
- Connaître les étapes et outils pour optimiser la préparation d’un plan de gestion des données.
- Partager votre expérience avec vos collègues.
Parcours de formation :
- Définitions et cycle de vie des données de recherche.
- Avantages d’une meilleure gestion et positions des bailleurs de fonds.
- Présentation théorique des bonnes pratiques pour organiser et partager ses données de recherche.
- Mise en pratique de solutions en fonction des disciplines des participants à cette formation.
- Conseils personnalisés et partages d’expériences.
Public cible
Tout collaborateur souhaitant acquérir de nouvelles compétences pour une meilleure gestion de ses données de recherche. Cette formation est un prérequis pour suivre le cours pratique qui porte sur l’utilisation du logiciel de cahier de laboratoire électronique.
Autres informations
Cette formation offrira des bases théoriques et pratiques. Tout au long de la journée, des exemples concrets seront discutés et mis en pratique selon les besoins précis des participants. Chaque participant aura l’opportunité de pratiquer sur un ordinateur mis à sa disposition et pourra explorer les ressources et solutions disponibles pertinentes dans le cadre son domaine de recherche.
Conclusion
En résumé, la Bibliothèque a su anticiper les évolutions de la recherche scientifique et les nouveaux besoins des chercheurs afin de mettre en place un service adapté. Il a été nécessaire de rassembler plusieurs facteurs pour y parvenir. Tout d’abord, comme l’ensemble des compétences requises pour un tel service n’était pas centralisé à la bibliothèque, il a été essentiel d’établir des collaborations internes et externes. Cela a été l’occasion de devenir une plateforme centralisant les demandes. Ensuite, le contexte politique a été favorable. Premièrement, au niveau institutionnel, avec une volonté claire de soutenir l’Open Science. Deuxièmement, le contexte politique suisse et international a permis de s’engager dans le projet DLCM et de répondre au besoin des chercheurs, lié principalement aux exigences des bailleurs de fond FNS et Horizon2020.
Dans ce domaine en évolution perpétuelle, il est nécessaire de continuer d’innover. Pour commencer, les activités liées à la gestion des données de recherche de la Bibliothèque s’inscrivent dans une stratégie plus large, et qui est actuellement en train d’être approfondie. De plus, si l’on se restreint plus strictement au sujet de cet article, divers développements sont prévus. Pour commencer, les services et outils mis en place continueront d’être améliorés, notamment une nouvelle version du modèle de DMP pour le FNS est prévue. Par ailleurs, des nouveautés sont prévues, citons par exemple la mise en place d’un dépôt institutionnel pour les données, d’un cours crédité pour les doctorants, ou encore d’un service de data stewards travaillant en étroite collaboration avec les laboratoires.
Remerciements
Nous tenons à remercier chaleureusement tous nos collègues de l’équipe des données de recherche et au-delà, qui ont pris le temps de relire et améliorer cet article. Merci en particulier à Lorenza Salvatori d’avoir complété cet historique.
Notes
[1] Accepté en août 2015, DLCM vise à développer ses services en partant des besoins de la communauté. D'entrée de jeu, 49 chercheurs spécialisés dans des disciplines variées ont été interviewés à travers la Suisse. Concrètement, le projet rassemble les forces de l'EPFL, de la HEG / HES - SO, de l'UNIL, de l'UNIBAS, de l'UNIZH, de l'ETHZ, de l'UNIGE et de SWITCH. Pour répondre aux besoins identifiés dans ces interviews, cinq groupes de tâches, appelés tracks , ont été mis en place » Krause & Blumer, Hors-Texte 110, Novembre 2016, p. 27sq. Les cinq tracks sont : Lignes directrices et politiques ; Données actives de recherche ; Préservation à long terme ; Conseil, formation et enseignement ; Diffusion. Plus d’information : https://dlcm.ch
[2] « Les données de recherche: une mine d’or à domestiquer et valoriser » Flash No. 04, mai 2015. https://mediacom.epfl.ch/files/content/sites/mediacom/files/Flash/Flash%2004-2015.pdf
[3] Voir : http://jupyter.org
[4] Voir : https://ec.europa.eu/programmes/horizon2020/
[5] Voir : http://www2.unavarra.es/gesadj/servicioBiblioteca/piloto_de_datos/4.%20p...
[6] Voir : http://datajamdays.org/
[7] Voir : https://researchdata.epfl.ch/files/content/sites/researchdata/files/doc/EPFL_SNSF_DMP_Template.docx
[8] Voir : https://researchdata.epfl.ch/files/content/sites/researchdata/files/doc/EPFL_SNSF_DMP_Template.docx
[9] Voir : https://research-office.epfl.ch/research-ethics/research-ethics-assessment/epfl-human-research-ethics-committee/hrec
[10] Les données FAIR, signifient: Findable, Accessible, Interoperable and Reusable. Voir: https://www.force11.org/group/fairgroup/fairprinciples
[11] Dépôt de données de recherche. Voir: https://zenodo.org
- Vous devez vous connecter pour poster des commentaires
eLectures : la lecture numérique grand public à la BCUL
Ressi — 20 décembre 2017
Laurent Albenque, directeur adjoint
Charlotte de Beffort, responsable du service du prêt
Christophe Bezençon, responsable du service des collections
Françoise Simonet, responsable des renseignements et formation des usagers
Bibliothèque cantonale et universitaire de Lausanne, site Riponne, Pl. de la Riponne 6, 1014 Lausanne
Résumé
Cet article a pour but de présenter un retour d’expérience après 2 ans d’exploitation de la plateforme eLectures à la Bibliothèque cantonale et universitaire de Lausanne (BCU Lausanne ou BCUL) qui permet à toute personne inscrite d’emprunter des livres numériques dans un catalogue d’environ 11'000 titres.
Après un historique du projet qui rappelle les difficultés de le mener en Suisse, si loin des éditeurs français, nous observerons l’offre documentaire de la plateforme, puis nous nous concentrerons sur une partie plus « marketing » en décrivant les options prises pour la promotion d’eLectures, le profil de ses usagers, la médiation à leur égard et les relations avec le fournisseur. Nous détaillerons ensuite quelques perspectives d’avenir pour ce service qui a trouvé son public mais qui en a encore à conquérir.
Summary
The aim of this article is to provide a feedback after 2 years of operations of the eLectures platform at the Bibliothèque cantonale et universitaire de Lausanne (BCU Lausanne or BCUL). This platform allows every registered user of the library to borrow e-books in a catalogue of about 11'000 titles.
After a description of the project background, which is a reminder of the extra difficulties to lead it in Switzerland, so far away from French editors legislative context, we will discuss the documentary offer of the platform. Then we focus on the marketing side of the project describing options taken to promote eLectures, the profile of its users, the mediation towards them and the relationships with suppliers. Eventually, we will detail future prospects for this offer which found its audience but still has to reach a part of it.
eLectures : la lecture numérique grand public à la BCUL
Introduction : l’offre numérique à la BCUL
C’est tomber dans les poncifs que de dire que le numérique occupe de plus en plus de place dans l’offre documentaire d’une bibliothèque telle que la Bibliothèque cantonale et universitaire de Lausanne (BCU Lausanne ou BCUL pour la suite de cet article). Les ressources numériques représentaient, en 2016, 60% de ses dépenses d’acquisitions.
Mais c’est aussi un peu simplificateur de s’arrêter à ce chiffre-là. En effet, l’offre numérique est très majoritairement destinée à la communauté universitaire : 98% des dépenses pour ce type de collections ont été faites pour ce public particulier. Cette disproportion est le résultat de deux phénomènes dont on ne sait pas vraiment s’ils sont, ou non, dépendants l’un de l’autre : l’offre et les conditions d’accès à cette offre d’une part, la manière de « consommer » l’information de l’autre.
Concernant l’offre, la documentation numérique vulgarisée ou grand public francophone reste relativement anecdotique et essentiellement destinée à une vente directe auprès des particuliers [1]. L’offre numérique pour les usagers de bibliothèques est non seulement limitée mais souvent restreinte au territoire français. Cela ne nous empêche pas de fournir l’accès à plus d’une vingtaine de ressources numériques conçues pour le grand public. Le second barrage entre les usagers et ces collections sont les conditions d’accès. Souvent liées à une adresse IP, elles ne peuvent être consultées que sur site physique par le wifi ou par les postes fixes mis à disposition. A ce stade, tous les avantages liés à la mobilité et à la légèreté du numérique s’effondrent. En effet, malgré leur dématérialisation, les documents numériques nécessitent une présence sur place… comme pour les « bons vieux ouvrages de référence poussiéreux ». A ce jour, pour le grand public, nous ne pouvons offrir d’accès à distance que pour notre offre eLectures, objet de cet article, et à Vodeclic, plateforme d’auto-formation informatique. A noter que, grâce au VPN ou aux divers systèmes d’identification qui lui sont destinés, la communauté académique peut accéder à toutes les ressources numériques depuis n’importe quelle connexion internet.
Si on parle de la manière de consommer l’information, il est évident que les pratiques académiques se tournent vers le numérique pour échanger des informations, des données de recherche et leurs résultats, c’est une consommation dans un cadre professionnel qui se veut aussi efficace que possible. Pour la documentation ou la littérature « de loisirs », on remarque que même si les usagers en Suisse semblent largement équipés en terminaux mobiles [2], l’usage de ces derniers ne prend pas le dessus sur les livres papiers (c’est évidemment différent pour la musique, les films et, dans une certaine mesure, pour la presse). Ce n’est en tout cas pas une attente forte de la part de nos usagers. Il y a donc un travail important à réaliser pour faire connaître une offre et donner la possibilité d’un accès facile et intuitif. En clair, le lecteur « grand public » ne va pas se ruer sur cette offre, il va falloir la lui apporter et lui en démontrer les avantages.
Etude sur l’utilisation actuelle et les attentes vis-à-vis de l’offre numérique de la BCUL
Constatant la richesse de l’offre numérique universitaire, la BCUL a fait le choix de proposer de la lecture numérique à distance à l’intention du grand public vaudois. Ce choix s’inscrit dans la suite d’une enquête que le site Riponne de la BCUL avait menée en 2012 auprès de ses usagers et les attentes de ceux-ci relativement à l’offre numérique en bibliothèque.
Deux approches méthodologiques complémentaires avaient alors été mises en place : une enquête en ligne auprès des usagers actifs du site de la Riponne, lancée début septembre 2012, qui a reçu de très bons échos, le taux de participation s’étant élevé à 24%, suivie de 16 entretiens individuels en face-à-face organisés en octobre et novembre.
Les résultats de l’enquête ont montré que :
- 85% des usagers possédaient un ordinateur portable, 57% un ordinateur de bureau, 47% un Smartphone, 17% une tablette et 7% une liseuse. En cela, ils rejoignaient le taux d’équipement constaté en Suisse (voir plus haut).
- La plupart des usagers étaient curieux et ouverts à l'idée du numérique tout en restant encore très attachés à la version papier. L'offre numérique était vue comme importante avant tout en tant que complément de l'offre papier.
- Les ressources numériques étaient perçues comme difficiles à repérer dans l'offre de la BCUL et leur utilisation difficile. Le souhait des répondants était de pouvoir accéder à des personnes de référence pour les renseigner et les aider.
- L'accès à distance et le téléchargement étaient des conditions indispensables pour une utilisation fréquente et régulière d’une future offre numérique BCUL.
Mise en œuvre du projet
Exploration des solutions existantes
Suite à l’enquête de 2012 sur les ressources numériques grand public, un groupe de travail interne a établi un catalogue de propositions de suites à donner, avec une vingtaine d’actions réparties selon quatre axes : communiquer et accroître la visibilité, accompagner les usagers et les former, améliorer l’accès et réfléchir au développement de l’offre numérique.
C’est ce dernier point qui nous a conduit à étudier l’offre numérique consacrée à l’actualité littéraire.
Le choix – nous étions en 2013, rappelons-le – s’est porté assez rapidement sur la société française Numilog, un des seuls acteurs sur le marché francophone à l’époque proposant une collection numérique ET accessible à distance dans le segment principal qui nous intéressait.
Considérant l’expérience concluante de la Médiathèque Valais avec Numilog, nous avons fait part de notre intérêt à cette société du groupe Hachette. Suite au test de la ressource organisé durant le mois d’octobre 2013, nous avons conclu qu’il serait intéressant de travailler avec Numilog, au moins à titre transitoire. En effet, bien que le catalogue proposé n’ait pas été à la hauteur de nos attentes (principalement en termes d’étendue de l’offre), ni la plateforme suffisamment intuitive à notre appréciation, l’absence d’alternative francophone faisait alors de Numilog un fournisseur quasi-incontournable. Le dossier n’a finalement pas abouti, Numilog nous ayant annoncé début 2014 que, pour des raisons de « géoterritorialité », les éditeurs ne seraient plus en capacité de desservir la Suisse.
Nous avons ensuite cherché à identifier un partenaire commercial suisse romand. Lors d’une rencontre en janvier 2014, nos interlocuteurs de la librairie Payot se sont dits sensibles à notre souhait de travailler avec eux dans le domaine du livre électronique, sans toutefois être en mesure de nous faire une proposition.
Les recherches se sont alors tournées vers une plate-forme québécoise lancée en mars 2012, « pretnumerique.ca ». Une phase de test avait débuté dans plusieurs établissements de lecture publique en France avec le projet français Prêt Numérique en Bibliothèque (PNB). Ce projet apportait le double avantage d’un catalogue plus large avec une importante marge d’accroissement, particulièrement en langue étrangère ; et d’un accès public via une plateforme éprouvée (identique à pretnumerique.ca).
Nous avons donc finalement approché la société Feedbooks, Hadrien Gardeur, son directeur, nous ayant annoncé fin avril 2014 l’ouverture à la Suisse des catalogues d’éditeurs impliqués dans PNB, et un test a été lancé le 23 juillet 2014.
Choix et description de la solution Cantook-PNB-Feedbooks
Avant d’aborder la période de tests et d’implémentation à la BCU Lausanne, revenons quelques instants sur la formule choisie : PNB [3].
Le projet français PNB repose sur le hub de la société Dilicom, par lequel éditeurs, distributeurs, libraires et clients finaux (comme les bibliothèques) sont mis en relation. Ce projet, lancé en 2014, est coordonné par le ministère de la culture français. Pour ce projet, trois acteurs ont été choisis (au niveau national) :
- Libraire (Feedbooks dans notre cas). Feedbooks possède deux offres distinctes en fonction du public (une offre plus fournie pour les particuliers que pour les bibliothèques)
- Interface usager (Cantook de la société De Marque dans notre cas). Mise à disposition de l’interface usager permettant :
- Le prêt de livres numériques par les lecteurs eux-mêmes,
- La gestion des prêts et la mise en valeur des collections par les professionnels de la BCU Lausanne.
- Tiers de confiance (Dilicom). Il constitue une garantie pour tous les acteurs : les bibliothèques et les distributeurs doivent avoir un correspondant qui atteste de la situation de leurs achats et de leurs prêts. C’est chez Dilicom que les libraires passent leurs achats, leurs lignes comptables avec les distributeurs et toutes les écritures nécessaires à la bonne fin d’une transaction. Au travers de Dilicom ne circule donc que de l’information. Dilicom comptabilise les achats de livres électroniques et les demandes de prêts.
Le processus est donc le suivant : Feedbooks transmet ses fichiers, les métadonnées associées, à Cantook. Cantook les met à disposition sur sa plateforme pour les rendre accessibles au public et permet le prêt. Les demandes de prêt sont ensuite transmises à Dilicom.
A ce stade, il est important de noter que la bibliothèque n’est jamais dépositaire des fichiers. Ceux-ci transitent directement du distributeur au lecteur. La bibliothèque ne possède pas, même temporairement les livres électroniques, elle ne possède que les métadonnées des titres et des licences qui sont constituées par des droits de prêt.
Implémentation à la BCUL
Les tests ont eu lieu durant l’été 2014, tests beaucoup plus concluants que ceux effectués quelques mois auparavant sur la solution Numilog.
Le contrat avec Feedbooks est alors signé au mois d’octobre, pour un lancement de la plateforme en mai 2015. Ce projet a nécessité la coordination et le travail de plusieurs entités au sein de la bibliothèque : le service des finances, celui des ressources électroniques, les responsables de collections, les services informatique, communication et les services publics. En voici les principales étapes :
Graphique 1 : Calendrier d’implémentation d’eLectures à la BCU Lausanne (2014 - 2015)
L’offre documentaire
Politique des éditeurs français
Ayant forcément constaté, à partir de la fin des années 1990, les ravages d’un passage au numérique non maîtrisé par rapport au chiffre d’affaires de l’industrie musicale mondiale, les éditeurs français sont aujourd’hui moins enthousiastes que leurs homologues anglo-saxons sur le sujet. Si leur prudence peut se comprendre, elle ne fait pas toujours l’affaire des bibliothèques.
Outre la question du piratage, la crainte principale des éditeurs est toujours la même, que le prêt numérique en bibliothèque cannibalise les ventes des livres physiques qui restent au cœur de leur modèle d’affaires. Cette volonté se retrouve dans les conditions d’achat et de prêt faites aux bibliothèques.
Avant tout, il est faux de penser qu’une bibliothèque (ou un particulier) « achète » un livre numérique. Ce que nous achetons, c’est le droit d’accéder à un texte et non pas le texte lui-même. Pour un particulier, ce droit d’accès est censé être sans limite une fois l’ouvrage acheté. Mais il ne peut ni le prêter ni le donner, au contraire de ce qui se fait avec un ouvrage papier. Pour une bibliothèque, les licences sont limitées dans le temps et comportent un nombre total de prêts autorisés par ouvrage acheté : la licence expire lorsque tous les prêts ont été consommés ou, si ce n’est pas le cas, lorsqu’elle arrive au terme de la durée fixée par l’éditeur. L’autre paramètre à prendre en compte dans une décision d’achat est le prix. Contrairement au modèle anglo-saxon, où le prix du livre numérique est significativement plus bas que celui de l’édition papier, les éditeurs français maintiennent un prix du numérique plus élevé que celui de la version papier (+ 30 ou 50%).
Enfin, le gros avantage du livre numérique est la possibilité de prêter simultanément à plusieurs lecteurs le même ouvrage. Techniquement, le nombre de prêts simultanés possibles est bien entendu illimité. Dans les faits, chaque éditeur intègre une limite dans la licence. C’est un avantage proposé par les groupes français comme Madrigall, Editis, La Martinière ou encore Actes Sud. Le prêt simultané n’existe par contre pas chez les éditeurs anglo-saxons.
Outre ces deux conditions de base, de nombreuses licences sont hybrides, Les éditeurs combinent ainsi des conditions différentes en fonction des titres. Par exemple, ils proposent des licences mono-utilisateur pour les nouveautés, multi-utilisateurs pour les titres plus anciens, voire illimitées pour les titres tombés dans le domaine public.
Pour résumer, ces licences sont relativement coûteuses pour les bibliothèques et les laissent face à un double verrou : un nombre limité de prêts sur une durée elle aussi limitée. Heureusement, sous la pression des bibliothèques, certains éditeurs ont fait évoluer leurs conditions dans un sens plus favorable aux besoins. Sans entrer dans les détails, la durée de licence a souvent été allongée pour les titres de fond et le nombre de prêts totaux possibles augmenté pour les nouveautés. Par contre, en parallèle, ces améliorations se sont aussi accompagnées d’une hausse du prix de la licence ou d’une baisse du nombre de prêts simultanés possibles.
Aujourd’hui, les licences proposées ont généralement une durée de 5 à 10 ans, avec un nombre de prêts totaux entre 25 et 60. Le nombre d’emprunts simultanés varie de 5 à 15 avec des exceptions : aucun chez Albin Michel, 50 chez Izneo (groupe Dargaud). Le groupe Hachette se singularise par des conditions plus proches de celles des grands groupes mondiaux dont il fait partie : une licence et un nombre de prêts illimités qui s’accompagnent d’un prix d’achat des nouveautés équivalent à trois fois le prix de la version papier et de l’impossibilité de faire des emprunts simultanés.
Les marges de négociation des bibliothèques sont limitées, hormis le boycott d’éditeurs dont les conditions sembleraient par trop extravagantes. Mais le système fonctionne et répond à un besoin naissant du public. Se posera néanmoins, à terme, la question du poids financier à donner à ces ressources au sein des budgets d’acquisitions et de la pérennité de l’offre. Ce sont là des questions que connaissent déjà les bibliothèques universitaires.
L’offre proposée par la BCUL.
La constitution de notre catalogue a été tributaire de l’offre de notre fournisseur qui, pour les bibliothèques suisses, se limitait à moins de 20'000 titres à la fin 2014, dont plus du quart en anglais. Depuis, l’offre pour la Suisse a rejoint celle de la France et de la Belgique avec plus de 128'000 références disponibles à l’été 2017.
Plusieurs choix guident la constitution de notre catalogue. Un équilibre entre une offre francophone de fiction (53% de nos titres) et une offre documentaire (31%) qui nous permet de répondre à notre vocation de bibliothèque grand public tout autant qu’universitaire. L’inscription à la BCUL étant limitée aux plus de 14 ans, nous avons naturellement exclu les livres jeunesse de nos achats. Enfin, souhaitant nous adresser au public allophone, bien présent dans le canton de Vaud, nous avons constitué un fonds de livres en anglais (fictions et documentaires) qui représente 16% de notre catalogue.
Après une première phase où notre catalogue s’est nourri principalement de l’achat de titres de fond pour constituer la base de notre catalogue, nous avons ensuite mis l’accent sur l’achat régulier de nouveautés. Cet équilibre permet à la fois de répondre à l’appétence bien connue du public pour les nouvelles publications (tout particulièrement pour la rentrée littéraire), tout autant qu’aux demandes plus pointues de certains de nos lecteurs.
Il est évident que la constitution récente de ce catalogue numérique (avec près de 11'000 titres pour eLectures à la BCUL) ne lui permet pas, et de loin, d’atteindre la richesse d’un fonds physique anciennement constitué qui compte plusieurs millions de documents. Plusieurs enseignements peuvent néanmoins être tirés de l’usage qu’en font nos lecteurs.
Les nouveautés de littérature et les policiers s’arrogent la plupart du temps la totalité du hit-parade des prêts. Il est rare qu’un essai s’y glisse. En cela, la lecture numérique suit la même tendance que les prêts physiques. La possibilité d’emprunts simultanés accentue d’ailleurs le poids des titres les plus prêtés dans le total des transactions. A l’opposé, une analyse plus fine montre que beaucoup d’ouvrages de fond sont aussi empruntés, même si ce n’est qu’une seule fois sur deux années d’exploitation d’eLectures. C’est moins visible, à première vue, que pour un titre emprunté plusieurs dizaines de fois sur la même période mais cela contribue tout autant au succès de l’offre.
Les outils statistiques mis à disposition ne nous permettent pas d’aller plus loin sur ce point. Ils restent pour l’instant assez généralistes : nombres de prêts, d’usagers et de connexions, livres les plus empruntés, répartitions des prêts par grandes thématiques. Il nous appartiendra de travailler avec Cantook pour en améliorer la souplesse d’utilisation et surtout les adapter à nos besoins. Une lecture plus fine des usages nous permettra ainsi de mieux adapter nos achats. C’est une volonté qui est d’ailleurs partagée par tous les acteurs, utilisateurs comme fournisseurs.
La fiction représente 70% des prêts, dont 15% de romans policiers et de science-fiction. Les documentaires constituent les 30% restants. Pour ces derniers, les domaines les plus représentés sont les sciences humaines (incluant l’Histoire), les biographies et le tourisme (guides de voyage). Ces chiffres incluent les ouvrages en anglais qui s’élèvent à environ 8% des prêts. On voit donc ici l’importance des collections dans les choix de nos lecteurs, même si les nouveautés et les titres les plus prêtés sortent du lot.
Quelle place pour les éditeurs suisses ?
Dans l’absolu, en tant que bibliothèque cantonale, nous souhaiterions pouvoir proposer à nos usagers du contenu d’auteurs ou d’éditeurs suisses, romands et vaudois afin de les mettre en valeur. En réalité, nous ne pouvons qu’offrir des auteurs suisses publiés en France et dont l’éditeur offre une version numérique. Les éditeurs romands, même les plus importants, semblent encore plus frileux que les Français vis-à-vis de l’édition numérique [4] et donc, si ce pas-là n’est pas encore franchi, celui de le proposer à des bibliothèques pour le prêt n’est pas non plus en ligne de mire.
Nous avons donc pris l’option de proposer ce qui était disponible auprès de notre fournisseur et des éditeurs français avec l’espoir que notre offre prenne de l’ampleur et fasse mieux connaître la lecture numérique dans nos contrées auprès de nos éditeurs. Le temps faisant, l’espoir de voir la littérature suisse mieux représentée sur ces plateformes se réalisera peut-être. Nous aurions alors avec nous l’expérience d’avoir déjà monté ce genre d’offres et un public réceptif et adepte de ces technologies.
Nécessité de faire connaître eLectures pour la faire vivre
Formation des professionnels : un nouveau dynamisme
Lancer une telle offre, pour un public généraliste, sans accompagnement, nous semblait téméraire. Or, pour accompagner, il fallait que les professionnels, et en particulier ceux travaillant dans les services au public, soient au point sur les différentes facettes de la prestation (contenu, fonctionnement de la plateforme et du prêt numérique, connaissance des supports, etc.)
Nous avons donc organisé, dans les mois précédant le lancement de la plateforme, une formation des collaborateurs, basée principalement sur l’expérimentation personnelle.
En 2014, l’offre de livres numériques de loisirs en français était peu développée. En revanche la BCUL a été pionnière dans le test de tablettes et de liseuses, en mettant à disposition des collaborateurs du matériel pour expérimenter. Les collègues étaient donc pour la plupart en possession d’une tablette et à l’aise avec son utilisation. Notre objectif principal était que tous se créent une pratique de lecture numérique, des compétences d’utilisation courante de la plateforme et du téléchargement sur des supports mobiles. Différents ateliers ont été proposés, touchant tous les collaborateurs du site Riponne ainsi que des personnes relais des autres sites de la BCUL. Des présentations ont également été organisées et ont concerné une part importante des collaborateurs des différents sites de la BCUL.
Ces actions ont été l’occasion de mettre en avant de nouvelles compétences, et ont servi de mise à niveau pour l’ensemble du personnel.
Enjeux et constat
Les formations ont permis à tous de se familiariser avec la plateforme et les outils nécessaires à l’emprunt de livres numériques, ce qui a facilité le transfert et donné une plus grande aisance aux collègues des guichets pour renseigner les usagers sur la prestation.
Un petit groupe de bibliothécaires, volontaires, a participé dès le départ aux ateliers et au support en ligne. L’expérience de résolution des problèmes des usagers a permis un approfondissement des connaissances au sein du groupe, et créé un appui à deux niveaux : les questions simples sont gérées par tous et, pour les plus compliquées, les usagers sont redirigés d’abord en interne, puis vers le support de la plateforme en cas de besoin.
Pour être efficace, il est néanmoins indispensable de rester au courant de l’évolution des technologies, en l’occurrence les différentes applications de lecture, les modèles de liseuses, les changements à venir au niveau des DRM. Le rythme n’est pas forcément facile à suivre, surtout si l’on souhaite assurer l’assimilation des informations par tous.
Du côté des bibliothécaires, c’est un constat très majoritairement positif. Ils ont été impliqués dès le départ, et le fait d’être « au front » au guichet a encouragé les uns et les autres à s’approprier la plateforme. Plusieurs se sont pris au jeu et se sont acheté des liseuses.
Plan de communication au lancement
Le lancement de l’offre nous semblait un moment crucial. Notre souhait était de marquer le coup et de créer le « buzz ».
Il fallait bien sûr informer nos usagers de cette nouvelle prestation, mais, offre numérique oblige, et la BCUL étant une bibliothèque cantonale ouverte à tous, il semblait important d’élargir la démarche à la population vaudoise a minima. Forts de ce constat, allait-on viser un lancement « classique », avec une présentation physique dans divers lieux du canton, ou une communication plus digitale ?
En partant du principe que la promotion devait être numérique, nous avons lancé une communication hybride, avec une part digitale importante, grâce au service de communication de la BCUL et d’une agence externe. Le budget de cette campagne n’a pas dépassé les quelques milliers de francs.
De petites vidéos ont ainsi été réalisées avec le message récurrent suivant :
« Jusqu’à l’été, suivez et partagez les aventures de l’homme-bulle eLectures à travers 6 vidéos de 30’’ décalées où les circonstances sont autant d’occasions de profiter de l’offre eLectures », avec pour chacune un slogan en lien avec une spécificité de la prestation:
- eLectures - en toute légèreté ! à Le stockage important sur un support de 100 et quelques grammes
- eLectures vous suit partout à La lecture où que l’on se trouve
- eLectures, à portée de clic ! à Le téléchargement à distance
- eLectures – avec vous tout le temps ! à L’accès 24/24, 7/7
- eLectures - des livres toujours à la page ! à De nouveaux achats réguliers
- eLectures - Nouvelle offre, toujours gratuite ! à La gratuité
Les vidéos ont été diffusées à une semaine d’intervalle sur la chaîne YouTube de la BCUL[5], le site web, Twitter et Facebook.
Pour la part classique de la promotion, un logo a été créé, des signets réalisés, et des affiches placardées dans plusieurs villes du canton. Un « homme sandwich » a distribué des signets au centre-ville et à la gare de Lausanne. Plus traditionnel aussi, un stand pour les cafés numériques a été installé à l’entrée du site Riponne, afin de pouvoir présenter l’offre aux lecteurs.
Formation des lecteurs, accompagnement, renseignements
La mise en place d’une offre numérique va de pair avec un accompagnement des utilisateurs, sur place et à distance, nous en étions convaincus dès le départ.
Un dispositif de formation a donc été mis en place, comprenant :
- L’animation d’ateliers en présentiel,
- Le support en ligne, par e-mail ou téléphone,
- La mise à disposition de tutoriels et de FAQ.
Les ateliers de découverte et de prise en main :
Pendant les 6 premiers mois, une plage a été réservée tous les lundis, sur le site Riponne de la BCUL. Les ateliers sont allés de la présentation générale de la plateforme eLectures à un accompagnement pas à pas dans l'emprunt du premier livre numérique (création d'un adobe ID, réactualisation du mot de passe BCUL, installation des logiciels nécessaires…). Ces ateliers étaient également importants pour nous, à ce stade du projet, car ils nous ont permis de cibler quels étaient les points particulièrement problématiques. A partir de 2016, les ateliers ont été maintenus sur une base mensuelle.
Quelques personnes sont venues plusieurs fois, ayant entre-temps acheté une liseuse, ou amenant avec elles leur ordinateur portable pour débloquer un problème. De façon générale, les ateliers sont également l’occasion d’échanges, tant au niveau technique que du contenu de l’offre ou du plaisir de lire.
Un accompagnement sur place complète le support par e-mail ou par téléphone
Parallèlement à l'accompagnement sur place le support se fait également à distance, par e-mail et par téléphone. Les demandes sont parfois standards mais souvent dépendantes de la configuration des équipements personnels des usagers. Les problèmes ne sont pas toujours faciles à déceler mais, avec le temps, l’équipe qui répond aux questions en ligne a pu établir une sorte de catalogue des problèmes les plus fréquents et de leurs solutions.
Dans l’ensemble, nous avons eu très peu de cas pour lesquels nous n'avons pas trouvé de solution, et ceux-ci ont été transmis au support informatique de la plateforme.
L’aide en ligne et les FAQ
Nous n’avons pas créé de documentation propre, car la plateforme propose une aide en ligne [6]et une FAQ, en français et en anglais. Les guides de démarrage, très bien faits, permettent une entrée en matière pas à pas, et sont d’une grande utilité pour ceux qui se lancent. C’est aussi un bon outil vers lequel sont renvoyés les usagers qui prennent contact avec nous.
Constat
La majorité des usagers empruntent le numérique de manière autonome. Et si un obstacle est rencontré, c’est souvent relativement trivial, par exemple un mot de passe expiré, qui peut être réglé par e-mail.
Le support eLectures, que ce soit en présentiel ou à distance touche majoritairement des usagers très attirés par l'idée de lire sur liseuse ou tablette, mais pas (du tout) par les aspects techniques de la chose. Plusieurs nous interpellent régulièrement afin d'obtenir de l'aide. Pour certains, il suffit parfois d'une mise à jour du système d’exploitation ou du logiciel Adobe Digital Edition, ou d'un changement de paramètres de téléchargement des fichiers pour que le moteur se grippe… et que le lecteur se perde.
De nouveaux eLecteurs s’inscrivent chaque mois sur la plateforme. Il faut dès lors s'attendre à poursuivre cette médiation numérique dans le futur. Les solutions ne sont pas toujours évidentes, mais il est gratifiant de voir un lecteur repartir heureux d’avoir réussi à télécharger son livre, ou qui nous signale lors d'un passage à quel point sa tablette ou sa liseuse lui convient.
A noter que nous avons aussi eu une poignée d’usagers qui ont baissé les bras, et déclaré qu’ils préféraient passer du temps à lire un livre plutôt qu’à résoudre des problèmes informatiques.
Au niveau quantitatif
La part des personnes touchées par les ateliers est très minoritaire. Une septantaine d’ateliers ont été organisés depuis le lancement de l’offre, dont la moitié dans les 6 premiers mois.
Elle est en revanche beaucoup plus importante par e-mail. En deux ans, l’équipe qui gère les questions a répondu à plus de 570 messages. Pour l’année 2016, cela correspondait par exemple à 25% des questions d’usagers par e-mail sur l’adresse d’information du site Riponne.
Prêt de liseuses
Le prêt de matériel a tout de suite fait sens afin d’aider à la promotion de la lecture numérique. Le prêt de liseuses a plusieurs atouts. Tout d’abord, il offre une visibilité (non négligeable) à l’offre virtuelle de prêt numérique. De plus, cela valorise les compétences du personnel qui devient référence dans l’utilisation des différents outils.
La mise en place du prêt de liseuses a nécessité en amont :
- L’achat du matériel (choix des liseuses, définition des conditions de prêt, commande, équipement, …),
- L’ajout d’information sur le site web et sur eLectures directement pour en faire la promotion,
- La formation des collaborateurs à l’utilisation de ce matériel (transfert de livres numériques mais aussi réinitialisation de l’appareil au retour de prêt).
Le prêt de liseuses a tout de suite été un succès, l’ensemble du parc a été prêté dès le premier jour et tous les appareils étaient réservés à leur retour.
Face à ce succès, nous avons essayé, 4 mois après le lancement de la plateforme eLectures, le prêt de liseuses pré-chargées. Cette offre était proposée dans une optique de faciliter le prêt de livres numériques, dont la création d’un identifiant Adobe nous paraissait être un frein. Cependant, cette offre n’a pas rencontré son public et n’a pas été reconduite.
Enfin, après deux ans de mise en service et sur les 13 liseuses mises en circulation, une seule liseuse a rencontré un problème et la garantie a couvert les frais de réparation. Aucune autre liseuse, malgré plus d’une trentaine de prêts chacune, n’a subi de dommage.
Investissement des professionnels dans l’animation d’eLectures
Passée la période de lancement d’eLectures et en plus de la promotion régulière qui en est faite auprès du public, il est crucial de faire vivre notre catalogue et de donner envie à nos eLecteurs de revenir sur notre plateforme. La spécificité de l’offre numérique, aussi bien en bibliothèque que pour les libraires en ligne, est le manque de visibilité de l’offre, au-delà des références présentées sur la page d’accueil.
Deux outils assez classiques, bien connus des bibliothécaires, sont ici à notre disposition pour nous aider à mettre en valeur le catalogue. Ainsi, on peut créer des sélections thématiques en s’appuyant sur l’actualité littéraire, l’actualité générale ou simplement nos envies, ou encore écrire des avis, « Bouche à oreille » à la BCUL, sur les titres au catalogue. Les sélections nous permettent ainsi de valoriser notre fonds. Les avis ont un effet plus ponctuel mais plus fort sur les prêts du titre concerné. Dans les deux cas, la recherche par auteur permet de redonner de la visibilité à toute une œuvre. Par la magie du clic, c’est un moyen immédiat de « faire » du prêt, mais aussi de mettre en valeur les compétences des bibliothécaires.
Dans le cadre d’une offre numérique, il est important de renouveler régulièrement ces sélections et ces coups de cœur afin de ne pas lasser l’utilisateur fréquent. Le succès de ce type de promotion est renforcé par une utilisation des médias sociaux. La newsletter BCUL fait ainsi systématiquement mention dans ses rubriques de titres eLectures. La promotion croisée avec les ressources documentaires physiques in situ est évidemment un plus. Enfin, une sélection ou un avis sur des titres eLectures sont réutilisés, quand cela est possible, pour faire la promotion de leur contrepartie physique.
Quel lectorat pour eLectures ?
Le public ciblé
Nos deux objectifs principaux, lorsque nous avons décidé de nous lancer dans une offre numérique, étaient qu’elle soit « grand public » et accessible à distance.
En tant que bibliothèque publique, nous souhaitions développer une offre « pour tous ». Cela n’excluait bien évidemment pas le public de l’université mais il s’agissait d’inclure nos « autres » usagers, principalement actifs sur le site du centre-ville, avec une offre d’actualité et de loisirs, pendant numérique de l’offre physique de la bibliothèque.
A partir de là, on ouvrait la possibilité d’élargir la population actuelle de nos lecteurs, en touchant :
- Les plus distants, donnant ainsi à la BCUL l’occasion de jouer pleinement sa carte cantonale, en atteignant également les régions plus éloignées de Lausanne,
- Ceux qui ne peuvent se déplacer physiquement à la BCUL, que ce soit pour des motifs professionnels, de santé ou de disponibilité.
On savait par ailleurs qu’une offre numérique intéresserait potentiellement d’autres types d’usagers, comme par exemple les grands lecteurs ou les pendulaires, qui allaient ainsi alléger leur sac.
Enfin, l’idée était à la fois d’attirer de nouvelles personnes, mais aussi de fidéliser nos lecteurs actuels avec une offre numérique accessible à distance et donc aussi disponible pour ceux qui ont quitté l’université ou disposent de moins de temps ou d’occasion de se déplacer dans une bibliothèque.
Analyse du lectorat deux ans après le lancement de l’offre
En l’état, nous pouvons nous baser uniquement sur les statistiques proposées par la plateforme (nombre de prêts, nombre d’usagers, liste des usagers) et sur quelques données observées soit au niveau des emprunts, soit dans les interactions que nous avons avec certains eLecteurs. Seule une enquête permettrait de fournir des données plus précises, notamment qualitatives, sur ce lectorat d’un service numérique.
Le profil d’usage
Dans son enquête dans les médiathèques en Auvergne-Rhône-Alpes, Mabel Verdi Rachemacher (Verdi Rachemacher, 2017) distingue trois types d’usagers : les convaincus, qui ont eu une expérience de lecture numérique satisfaisante et dont la pratique est stabilisée ; les dubitatifs, qui ont eu une expérience satisfaisante mais préfèrent lire en version imprimée ; et enfin les désenchantés, qui font un bilan négatif de leur expérience.
Dans l’utilisation d’eLectures, nous observons les deux postures extrêmes : des personnes qui s’inscrivent à la prestation, empruntent un ou deux livres et ne reviennent pas. Nous avons également un nombre assez important de grands lecteurs, qui empruntent par lot de 10 livres numériques chaque mois, et ceci depuis leur inscription numérique. Un de nos lecteurs emprunte un nouveau livre chaque jour, et nous a dit le lire dans ses déplacements durant la journée. Dans les usages cycliques, on remarque des lecteurs qui n’empruntent pas de manière régulière, mais intensivement à des périodes données, vraisemblablement avant un départ en vacances.
Sur le plan quantitatif ensuite.
Dans son article du Livres Hebdo paru en février 2017, Véronique Heurtematte (Heurtematte, 2017) donne les informations suivantes : à Montpellier Méditerranée Metropole, l’offre touche 1’000 lecteurs sur les 54’000 que compte le réseau (1,9%). A Grenoble, les prêts concernent 1’300 des 35’000 usagers (3.7%). La BCUL compte elle environ 29'000 lecteurs actifs, dont 1'800 sont inscrits à eLectures. Le ratio (6,2 %) est comparativement bon.
Le profil des usagers eLectures
Il faut mentionner que ces données de profil ne sont pas stockées dans la plateforme, qui n’enregistre que les données nécessaires à la gestion du compte : numéro de carte, mot de passe, adresse e-mail. Comme il faut être inscrit dans le réseau Renouvaud pour emprunter dans eLectures, les données ci-dessous proviennent du SIGB.
Selon le sexe : les inscrits sur la plateforme sont à 58% des femmes. Pour la lecture en général, l’enquête OFS 2014 sur les pratiques culturelles en Suisse (OFS, 2017) et la brochure présentant les premiers résultats de l’enquête (OFS, 2016) notent que les femmes sont plus nombreuses à lire des livres que les hommes, et particulièrement si on parle de la lecture pour les loisirs. En revanche, il semblerait que la parité se retrouve, au niveau Suisse, pour la lecture d’e-books pour les loisirs.
Selon l’âge : comme le montre le graphique ci-dessous, toutes les tranches d’âge sont représentées, avec une prédominance des quadragénaires et quinquagénaires. Assez réjouissante, la présence des trentenaires en troisième position, soit un public moins présent physiquement dans les bibliothèques. A titre de comparaison, les données de l’OFS (2017) montrent que les 30-44 ans sont de plus grands amateurs d’e-books. Pour l’anecdote, le lecteur « jeune depuis le plus longtemps » est né en 1925.
Selon le lieu : Un objectif initial était de toucher tout le canton. Force est de constater que l’utilisation pour l’instant reste bien concentrée sur les agglomérations vaudoises. Cela va dans le sens de l’enquête de l’OFS 2014 citée plus haut qui souligne que la plupart des activités culturelles sont pratiquées plutôt par des citadins et les habitants d’une agglomération.
Comme on peut le lire dans le graphique, la grande majorité des utilisateurs de la plateforme habite dans le district de Lausanne (46% des usagers « vaudois »). Les habitants du canton de Vaud représentent à eux seuls 82% des usagers de eLectures, les 18% restants étant composés d’autres cantons romands (16%), des cantons alémaniques et du Tessin (1%) et de l’étranger.
eLectures, produit de substitution ou gain de nouveaux lecteurs ?
Proposer une offre numérique apparaît pour de nombreuses bibliothèques comme un choix stratégique. La bibliothèque évolue, ses services aussi. Si l’on souhaite rester en phase, les bibliothèques doivent s’adapter. On est également dans une démarche de diversification des prestations offertes et des publics.
Il reste néanmoins très difficile de définir de manière précise si une telle offre est, au niveau du lectorat, plutôt un produit de substitution ou une opportunité d’attirer un nouveau lectorat et de renouveler les publics. C’est sans aucun doute un peu des deux.
Dans une bibliothèque comme la nôtre, le nombre de lecteurs actifs (c’est-à-dire qui emprunte physiquement au moins un document dans le cours d’une année civile) est stable. Cela signifie un équilibre entre ceux qui cessent d’emprunter, et les nouveaux lecteurs qui s’inscrivent. C’est un processus normal, surtout dans le cadre d’une bibliothèque qui touche des apprenants (gymnasiens, étudiants à l’UNIL) qui sont mobiles une fois leur formation terminée.
Même si le nombre de prêts effectués sur la plateforme eLectures est tout à fait satisfaisant, on ne peut pas dire qu’il y ait une percée au niveau des statistiques d’emprunts. On ne peut pas non plus lire dans les statistiques de prêts de documents physiques s’il y a substitution ou non. Il y a de toute façon une limite à ce que qu’un individu peut lire en un mois, même en étant un grand lecteur. Ce que l’on peut constater, c’est qu’une partie du public d’eLectures emprunte également des documents physiques sur nos sites. Certains se sont mis au numérique quand ils ont vu par exemple que le Prix Goncourt 2016 était disponible tout de suite en numérique et sans file d’attente...
A-t-on gagné des nouveaux lecteurs grâce à eLectures ? Oui clairement. Ce n’est pas chiffrable car certains sont venus s’inscrire sur place sans mentionner qu’ils s’intéressaient à eLectures. Cependant de nombreuses personnes nous ont contactés, parfois de loin, en nous disant s’inscrire pour le numérique uniquement.
Relations avec les fournisseurs
Fonctionnement quotidien de la plateforme et réponses du support technique
Les relations avec notre fournisseur se limitent surtout au support qu’il offre en cas de problèmes. Les acquisitions et les renouvellements d’abonnement (à la plateforme) sont des processus bien rodés qui se déroulent efficacement. En revanche, le support technique (c’est-à-dire, en cas de problème avec un appareil ou à l’ouverture d’un fichier), constitue le principal point faible de notre fournisseur et ce pour trois raisons principales.
La première, et la plus importante, est l’absence d’un interlocuteur clair et identifié. Dès lors, en cas de problème, nous envoyons, telle une bouteille à la mer, un e-mail à une adresse générique qui fait preuve de bien peu de réactivité. Le fournisseur répond à ce problème que la messagerie est bien relevée, qu’ils traitent la question, sans nécessairement répondre à l’interlocuteur qui l’a soulevé. La solution consiste donc à tester régulièrement pour savoir si oui ou non le problème est résolu.
La seconde raison est le manque de communication de notre fournisseur envers ses clients. Par exemple, lorsqu’un éditeur décide, pour les nouveaux titres, de réduire le nombre de prêts simultanés de ses documents nous n’en sommes pas informés. Cette problématique est réelle pour les acquéreurs qui découvrent alors qu’il faut acheter davantage d’« exemplaires » pour pallier le changement de pratique de l’éditeur mais rendre cela transparent pour l’usager ; la volonté étant de conserver un niveau de service équivalent.
La troisième raison est que les problématiques remontées ne concernent en général pas directement l’offre ou sa mise à disposition sur la plateforme. Pour preuve, les deux problèmes principaux rencontrés en 2017 ne relevaient pas de Cantook Station. Le premier problème est apparu avec la mise à jour 10.3.1 du système d’exploitation iOS d’Apple. En effet, le code comportait une erreur qui empêchait l’ouverture des fichiers avec les applications de lecture Bluefire Reader et Aldiko sur iOS (iPhone et iPad). Le second qui consistait en un message d’erreur incompréhensible à l’ouverture des livres résultait du fait que certains distributeurs de livres numériques transmettaient des fichiers qui contenaient des erreurs de validité au niveau du verrou numérique.
A la décharge de notre fournisseur, la qualité du support est aussi en lien avec sa position. En effet, celui-ci est toujours « entre deux feux » : il distribue des documents qu’il n’a pas générés (donc il n’a pas la main sur leur qualité) et les met à disposition sur des appareils qu’il ne développe pas (iPad, liseuses…). Là encore, il est tributaire des développements de ces sociétés.
Avantages et inconvénients de l’externalisation pour la BCUL
Le choix d’un service hébergé en local ou dans le cloud est d’ordre institutionnel. Il y a des avantages et des inconvénients aux deux solutions mais ce n’est pas le propos de l’article. Ainsi, nous vous proposons de détailler ici les avantages et inconvénients de la solution choisie, c’est-à-dire celle de l’hébergement à distance.
Tout d’abord, nous avons accès à un catalogue déjà constitué, dont l’ensemble des négociations avait été effectué par le diffuseur. Cette offre initiale évolue constamment, que ce soit avec l’intégration de nouveaux éditeurs ou par l’enrichissement d’une collection déjà existante. Ce dernier est le fruit du travail direct de notre distributeur, travail de négociation et de médiation pour lequel nous ne sommes pas qualifiés. La délégation de la négociation trouve toutefois ses limites et notamment pour de petits éditeurs locaux, peu représentatifs du besoin de l’ensemble des clients et pourtant tellement précieux pour les usagers des bibliothèques locales.
La souscription à une plateforme externe permet aussi de bénéficier du travail de tous les clients précédents et notamment des demandes d’amélioration qu’ils ont effectuées. Un des gros points forts de l’offre mise à disposition est l’aide, extrêmement complète et très bien structurée qui nous permet de minimiser les explications par e-mail avec nos lecteurs en renvoyant vers celle-ci.
Les autres clients sont donc un atout pour faire évoluer ce type d’offre car les besoins sont sensiblement les mêmes (contrairement à un SIGB par exemple où chaque bibliothèque a ses exigences particulières). En revanche, dès que l’on souhaite des développements spécifiques (ex. ajout de statistiques), le fait d’avoir un besoin « hors norme » par rapport aux autres clients est une réelle faiblesse et les chances de voir le développement aboutir sont minces.
Enfin, la BCUL aurait aimé pouvoir mettre à disposition ses livres numériques dans son catalogue de « livres papiers » et permettre ainsi aux lecteurs de découvrir cette offre. Malheureusement, et malgré l’utilisation de protocoles standards par les deux outils, cela reste, pour l’instant, une volonté non aboutie. Nous allons travailler avec nos fournisseurs, ExLibris et Cantook, afin de pouvoir offrir cette amélioration à nos lecteurs.
Perspectives d’avenir
Pérenniser notre fonction de médiation
La médiation autour de l’offre de livres numériques est indispensable, d’une part parce que ceux-ci sont peu, voire pas visibles dans l’espace physique de la bibliothèque (et difficiles à rendre visibles) et, d’autre part, parce que l’aspect technique peut rebuter certains usagers peu à l’aise avec ces questions, mais pour qui le numérique apporte des avantages certains (ex. grossissement des caractères, pour ne citer qu’un aspect).
La plupart des bibliothèques le remarquent : le numérique ne fonctionne pas tout seul. Florent Dufaux fait le même constat (Dufaux, 2016) pour l’expérience de Labo-Cités à Genève.
En présentiel, aux guichets du site Riponne, on observe déjà un déplacement du type de questions posées par les usagers : de plus en plus sont en lien avec les équipements techniques (wifi, impression, internet, bureautique). Ainsi, si on propose une offre comprenant une part technique importante on doit l’accompagner et avoir des bibliothécaires prêts à y répondre et cela même si la foire aux questions (FAQ) est bien construite. Une partie du lectorat numérique est autonome ou le devient, mais, on l’a vu, ce n’est pas le cas de tous. Chaque mois de nouveaux lecteurs découvrent eLectures. Nous continuerons donc de proposer cette fonction de médiation sur la durée.
S’adresser à toute la population vaudoise
Une telle offre numérique est une formidable opportunité pour notre institution de se rapprocher de son public principal : l’ensemble de la population vaudoise. Alors que les institutions culturelles vaudoises sont encore concentrées dans l’agglomération lausannoise, eLectures est un médium qui permet de faire connaître la BCU Lausanne dans tout le Canton en proposant un offre accessible à l’ensemble de ses habitants. Le bouche-à-oreille prenant le relais, dans un second temps, de la promotion institutionnelle.
Pour l’équipe en charge de ce projet, on peut avancer qu’eLectures sera une vraie réussite lorsque, en plus d’une utilisation importante et régulière, les proportions d’usagers provenant des différents districts du Canton seront équilibrées.
Continuer à promouvoir eLectures
Un service de ce type-là doit rester vivant. La réalité des licences des livres numériques implique une vie active de cette « collection ». Alors que les collections physiques de la BCU Lausanne ont un taux de rotation annuel de 7% [7], il est évidemment ni intéressant ni rentable financièrement qu’un tel taux se retrouve sur une plateforme de prêt de livres numériques. Actuellement, le fonds eLectures est à plus de 100% de taux de rotation (chiffres de juillet 2016 à juin 2017).
Mais cela n’est possible que si la promotion d’eLectures se fait de manière continuelle à travers la communication institutionnelle ou une mise en valeur par l’intégration de ces documents dans notre outil de découverte public. Actuellement, cette solution n’a pas pu être mise en place à la BCU Lausanne mais ce travail de moissonnage de nos livres électroniques est en cours avec De Marque (via le protocole OPDS). La mise à disposition de l’offre eLectures via l’interface publique procure une visibilité sans égale et augmentera le public touché par celle-ci.
La promotion passe également par l’animation de la plateforme avec des sélections régulières liées à l’actualité de la BCU Lausanne ou du monde ou par la rédaction de nos « Bouche-à-oreille », coups de cœur des bibliothécaires imprimés traditionnellement sur des signets, qui se voient ici offrir une nouvelle vie numérique.
Bref, la promotion d’eLectures doit être envisagée comme un continuum, année après année, et surtout, budget après budget.
Utilisation des réseaux sociaux
Qui dit numérique, dit réseaux sociaux, la BCUL est présente sur différentes plateformes mais principalement Twitter et Facebook [8]. Etant donné que la charge de faire vivre ces comptes est répartie sur une multitude de collaborateurs, nous avons facilement la possibilité de promouvoir une sélection de documents, un titre en particulier faisant écho à l’actualité ou de donner des informations pratiques sur le service. Il est cependant difficile d’évaluer l’impact de ce mode de communication sur les emprunts de e-books. Cela dit nous partons du principe que plus le nom du service circule, plus il y a de chance que l’effet « bouche à oreille » atteigne son public.
Nous savons par contre que des pics d’emprunts suivent de quelques heures l’envoi de la newsletter institutionnelle à tous nos usagers actifs. Cette dernière contient systématiquement au moins deux « avis du bibliothécaire » sur des documents de nos collections avec un lien, via notre blog, vers eLectures si nous en proposons une version numérique. Si on considère qu’entre juin 2015 et mai 2017, nous mesurions en moyenne 37 prêts par jour, cet indicateur pouvait monter à 60 ou 70 dans les jours qui suivaient l’envoi d’une newsletter.
Comme on l’a déjà souligné lorsque nous traitions de la médiation, un service numérique de ce type ne peut pas vivre tout seul et il est difficile de le rendre visible aux usagers. Les tentatives de promotion dans nos locaux par différents moyens aident à faire connaître l’offre mais il y a toujours une étape difficile à franchir : celle de convertir un usager potentiel se trouvant dans la bibliothèque en usager actif sur le net. La présence sur les réseaux sociaux est donc importante pour créer des liens vers la plateforme, la faire connaître et continuer d’attirer un public distant.
Conclusion
Après 27 mois d’exploitation, le bilan de l’expérience eLectures est plus que positif pour la BCUL, ses lecteurs et ses collaborateurs. En premier lieu, cette offre a trouvé son public avec 1'800 inscrits sur les 29’000 usagers actifs de la BCUL. Notre premier défi est, bien entendu, de continuer à la faire connaître auprès de notre public mais aussi d’en faire un outil permettant à la BCUL d’attirer de nouveaux lecteurs.
En second lieu, eLectures a été l’occasion, pour une partie des collaborateurs de l’institution, de se confronter aux nouvelles technologies de l’information à travers un projet concret au service de nos lecteurs. Des collaborateurs toujours plus compétents, capables de répondre aux questions variées et pointues des usagers, contribuent à changer l’image encore trop traditionnelle des bibliothèques auprès du grand public. C’est aussi un moyen, en répondant à ses nouveaux comportements, de garder ce public en bibliothèque. Enfin, le lancement de ce type d’offre numérique est aussi l’occasion d’attirer l’attention des médias, presse écrite et radio, et, là encore, de démontrer le dynamisme de nos institutions et de faire connaître la richesse d’une offre documentaire et de services qui est encore loin d’être connue de tous.
Bibliographie
CHARTIER, Mathieu (2017). Les ventes de livres numériques en baisse. Les Numériques, 02.05.2017, http://www.lesnumeriques.com/liseuse/ventes-livres-numeriques-en-baisse-n62603.html (consulté le 22.06.2017)
DUFAUX, Florent (2016). Labo-Cité : pourquoi une bibliothèque sans livres ?. Ressi. 2016.
http://www.ressi.ch/num17/article_124 (consulté le 14.08.2017)
GLAUS, Christoph (2016). Trois Suisses sur quatre ont adopté le smartphone. Comparis.ch. 2016. https://fr.comparis.ch/comparis/press/medienmitteilungen/artikel/2016/telecom/smartphone-studie-2016/smartphone-verbreitungsstudie-2016.aspx (consulté le 22.06.2017)
HEURTEMATTE, Véronique (2016). Prêt numérique, épisode 2, le réveil de la force. Livres Hebdo no 1071, 05.02.2016.
http://www.livreshebdo.fr/article/pret-numerique-episode-2-le-reveil-de-la-force (consulté le 10.08.2017)
OFFICE FÉDÉRAL DE LA STATISTIQUE (2017). Equipement TIC. 2017. https://www.bfs.admin.ch/bfs/fr/home/statistiques/culture-medias-societe-information-sport/societe-information/indicateurs-generaux/menages-population/equipement-tic.html (consulté le 22.06.2017)
OFFICE FÉDÉRAL DE LA STATISTIQUE (2016). Pratiques culturelles et de loisirs en Suisse : premiers résultats de l’enquête 2014. 2016. https://www.bfs.admin.ch/bfsstatic/dam/assets/349945/master (consulté le 04.09.2017)
OFFICE FÉDÉRAL DE LA STATISTIQUE (2017). Pratiques culturelles en Suisse 2014: livres, ebooks, bandes dessinées et bibliothèques. 2017. https://www.bfs.admin.ch/bfsstatic/dam/assets/3243673/master (consulté le 11.09.2017)
RESEAU CAREL. Le PNB tel qu’on le parle. https://www.reseaucarel.org/page/le-pnb-tel-qu-le-parle-0 (consulté le 04.09.2017)
ROSSELET ; Marion (2017). Edition vaudoise : arrêt sur image, panorama général et enquête statistique sur l’activité éditoriale dans le canton de Vaud en 2015-2016. Ville de Lausanne et Etat de Vaud, août 2017. http://www.vd.ch/fileadmin/user_upload/themes/culture/aides_creation/fichiers_pdf/EtudeVD_MRosseletDEF_-_v.pit.pdf (consulté le 07.09.2017)
VERDI RADEMACHER, Mabel (2017). Le numérique et le lecteur, retour du nomade : une enquête dans les médiathèques en Auvergne-Rhône-Alpes. 2017.
http://www.enssib.fr/presses/catalogue/le-numerique-et-le-lecteur-retour-du-nomade (consulté le 10.08.2017)
Notes
[1] 2,5% du chiffre d’affaire global de l’industrie du livre en France. A un niveau plus global, les ventes de e-books semblent baisser y compris dans le monde anglophone. (Chartier, 2017)
[2] En 2014, presque 80% des ménages suisses possèdent au moins un ordinateur portable et 78% des 15-74 ans (2016) un smartphone. (OFS, 2017 et Glaus, 2016)
[3] Pour plus de détails sur le projet PNB, vous pouvez consulter le document rédigé par le réseau Carel (RESEAU CAREL, non daté)
[4] Le rapport de Marion Rosselet (Rosselet 2017) l’indique en tout cas pour les éditeurs vaudois en ne recensant que 12% de leurs catalogues en version numérique.
[5] https://www.youtube.com/playlist?list=PLRvUETy0qVh5SNtO-5RLr2T0gP12q0dcv
[6] http://bcu-lausanne.cantookstation.eu/aide
[7] Ce chiffre inclut également les ouvrages du dépôt légal et des collections précieuses qui ne s’empruntent pas.
[8] https://twitter.com/BCULausanne et https://www.facebook.com/BCULausanne
- Vous devez vous connecter pour poster des commentaires
Les grandes bibliothèques à quatre voix
Ressi — 31 décembre 2016
Jonas Beausire, Haute Ecole de Gestion, Genève
Les grandes bibliothèques à quatre voix
Ce recueil, au titre programmatique, laisse distinguer quatre voix singulières et remarquables, celles d’anciens directeurs romands de grandes bibliothèques : Jacques Cordonier, Alain Jacquesson, Jean-Frédéric Jauslin et Hubert Villard[1]. Tous mandatés à la fin du 20e siècle, les quatre hommes ont accompagné leur établissement, qu’il soit cantonal, national et/ou universitaire, dans la transition numérique. Ils racontent, tout au long de ces entretiens[2], leurs années de formation, leur parcours, les innombrables défis et obstacles professionnels auxquels ils ont dû faire face, mais aussi leurs regrets. En apportant leur regard sur les grands enjeux et débats bibliothéconomiques, les quatre directeurs déploient plus largement une réflexion sur ceux de la société de l’information.
Omniprésence de l’informatique
Pédagogie, mathématiques, informatique, lettres et bibliothéconomie sont les disciplines qui ont formé les quatre intervenants. Cette pluralité disciplinaire trouve un dénominateur commun avec l’informatique et son rôle « […] révolutionnaire […] appliqué au traitement de la documentation. » (p. 29). En effet, les processus d’automatisation et d’informatisation sont au cœur d’une révolution documentaire dont témoignent les défis organisationnels de certains directeurs. Le passage d’un système informatique centralisé à la mise en place d’un réseau informatique[3], permettant d’accélérer les échanges et le partage des ressources, est l’occasion d’anecdotes qui renseignent sur une époque où les transferts de bandes magnétiques s’organisaient à coup de voyages en 2 CV et de relais nocturnes. Plus tard, ce seront les services de prêt et des acquisitions qui seront gérés informatiquement. Quel que soit le contexte spécifique de cet avènement de l’informatique documentaire, celle-ci mènera systématiquement vers un décloisonnement des connaissances et des services traditionnels de la bibliothèque et vers de nouvelles possibilités de collaboration entre les institutions.
Stratégies et politique
Ces années de direction sont également racontées au travers du prisme des grandes orientations stratégiques prises par les quatre directeurs. La collaboration internationale et les interdépendances avec les autorités de tutelle structurent les grandes décisions prises mais aussi les limites politiques auxquelles certains ont été confrontés. Ainsi, Jacques Cordonier rappelle comment il a souhaité positionner la Bibliothèque cantonale valaisanne « […] comme la tête d’un réseau fédérant l’ensemble des bibliothèques du Valais […] » (p. 14) ou J-F Jauslin de rappeler comment il a œuvré à placer la Bibliothèque nationale (BN) « […] au niveau international parmi les autres bibliothèques nationales […] » (p. 61). En invoquant le premier septennat de François Mitterrand et les grands travaux de son exceptionnelle politique culturelle[4], J-F Jauslin insiste sur la nécessité de faire dialoguer le monde de la culture avec celui de la politique afin de garantir soutiens, partenariats et financements des bibliothèques. Hubert Villard insiste quant à lui sur « le rôle citoyen prépondérant » (p. 102) des bibliothèques en évoquant la lutte contre l’illettrisme, par exemple.
Accessibilité et renouvellement des collections
L’informatisation, l’accélération des échanges, le développement de certaines technologies et les synergies politico-culturelles ont agi sur le développement des collections physiques et électroniques des différents établissements. Ces entretiens sont également l’occasion d’évoquer les enjeux liés aux nouvelles technologies et la façon dont elles ont permis de conceptualiser de nouveaux accès aux collections, à l’image du portail « Vallesiana »[5] qui fédère les ressources des fonds d’archives, de la médiathèque et des musées du Valais. Les portails e-rara.ch, e-codices.ch et e-periodica.ch[6] signalent la numérisation massive des contenus. Des technologies comme celle mise à disposition à la BN permettent même de « […] numériser un document et de l’imprimer en moins d’une heure à des coûts tout à fait performants. » (p. 72-73). L’association Memoriav[7] illustre également des préoccupations patrimoniales qui s’étendent jusqu’aux documents audiovisuels et leur difficile prise en charge. Certains auteurs rappellent que cette mise à disposition des ressources numérisées au plus grand nombre interroge aussi la capacité des institutions à préserver ces nouveaux contenus dont la durée de vie informatique ne dépasse pas cinq ans (Cordonier et al., p. 80). H. Villard, à la tête de la Bibliothèque cantonale et universitaire de Lausanne (BCU), relate comment son institution a contracté un partenariat avec Google afin de faire numériser ses ouvrages libres de droit. Les enjeux patrimoniaux et politiques que soulèvent ce genre de collaboration divisent les différents directeurs dont certains dénoncent le dévoiement des missions fondamentales des bibliothèques et de leur indépendance (p. 79).
Missions et défis de demain
Le spectre des GAFA[8] n’est de loin pas le seul enjeu de l’avenir des bibliothèques ; leur fréquentation et leur organisation interne sont au centre des réflexions des quatre directeurs. Parmi les différentes perspectives sur la façon d’engager une relation pérenne avec leurs publics, une approche centrée sur les besoins de l’utilisateur semble avoir guidé les initiatives de chacune des institutions, comme l’affirme A. Jacquesson : « […] il me semble toujours souhaitable de procéder à l’analyse des besoins des utilisateurs. » (p. 46). Ces attentes multiples convergent vers la finalité du métier de bibliothécaire : « […] satisfaire un besoin d’information du lecteur. » (p. 102). Ainsi, les espaces physiques de la bibliothèque sont tour à tout considérés comme ceux propices au travail, à la tranquillité, au refuge ou aux échanges et Jacques Cordonier de citer les propos rapportés d’un réfugié cubain en conclusion de son entretien : « Lorsque je suis arrivé à Sion, il y a deux endroits où j’ai pu aller librement, où l’on ne m’a pas demandé mes papiers et où l’on ne m’a pas fait payer : la cathédrale et la médiathèque. » (p. 28). Au-delà de ce souci commun des usagers, les quatre hommes expriment leur position quant à l’opportunité d’une loi fédérale spécifique aux bibliothèques, laissant entendre des voix circonspectes sur cet instrument, considéré au mieux comme un levier peu opportun, au pire comme un pari perdu d’avance. Ce sont davantage l’exploitation des big data et les humanités digitales qui constituent de nouveaux champs de recherche et des défis professionnels inhérents à notre société de l’information, comme le souligne A. Jacquesson : « […] de nouveaux professionnels nés avec le numérique vont être chargés de traquer l’information sur les réseaux ; ils auront la lourde tâche d’organiser les big data […] ». (p. 56). En rappelant les chiffres d’une étude qui souligne qu’Internet constitue le 80% des sources utilisées par les doctorants, J-F Jauslin insiste sur le rôle de guide privilégié que les bibliothécaires doivent plus que jamais endosser auprès des chercheurs, soumis à une masse informationnelle en perpétuel accroissement. Cette fonction prescriptrice et d’accompagnement est partagée notamment par H. Villard qui brosse le portrait du bibliothécaire académique « nouvelle mouture » en ces termes : « […] accompagnateur de la recherche, au plus près des chercheurs, professeurs et étudiants. Il leur apporte ses précieuses compétences en matière d’appui à la publication scientifique, de gestion des modalités d’open access, de sauvegarde des données primaires et secondaires de la recherche, de l’archivage à long terme, de l’emploi de métadonnées normalisées, d’analyse de grands ensembles de données, etc. » (p. 105). Le bibliothécaire de lecture publique, quant à lui, doit allier mise en valeur des collections, « compétences sociales » et médiation culturelle comme le souligne J. Cordonier : « […] une bibliothèque est un lieu riche de compétences, de personnes[9] qui osent faire des choix, monter des expositions, inviter des artistes, […] non pas prescrire […] mais proposer, attirer l’attention, sensibiliser. » (p.25). Un horizon d’attentes qui laisse poindre une kyrielle de défis pour inscrire durablement cette nouvelle silhouette professionnelle dans le paysage des bibliothèques.
Critique
La force de ce petit livre d’entretiens réside dans ses différentes strates de lecture ; le recueil peut ainsi se lire à la fois comme un retour d’expérience à l’usage des futurs cadres de grandes bibliothèques et comme un guide inspirant pour le futur des bibliothèques, mais également comme un segment de l’histoire culturelle de la Suisse. En effet, comme le souligne Alexis Rivier dans son préambule, les quatre institutions, sous l’impulsion de leur direction, « […] ont contribué à mettre en place ce qui est peu à peu devenu une norme dans les pratiques sociétales du 21e siècle. » (p. 8). Au fil des pages, le lecteur peut ainsi saisir en quoi les bibliothèques ont grandement participé à l’avènement d’une société de l’information comme nous la vivons aujourd’hui. L’opacité des activités d’une bibliothèque scientifique ou patrimoniale est ici levée pour éclairer avec intelligence la façon dont ces établissements ont façonné des pratiques aujourd’hui généralisées : informatisation des espaces, partage de gros volumes de données, accessibilité des ressources et des savoirs, etc. L’autre intérêt de l’ouvrage est de dessiner rapidement une histoire récente des bibliothèques, du milieu des années 1980 jusqu’aux portes des années 2010.
Le format de l’entretien, ici retranscrit à la première personne, puis découpé thématiquement, apporte une certaine fluidité à la lecture ; la parole est vive et engagée, jusque dans la thématisation de certaines déceptions vécues par les directeurs. On peut regretter parfois que certains sujets ne soient davantage approfondis, notamment concernant les enjeux politiques des bibliothèques. Mais le découpage garantit une variété des sujets abordés qu’il est agréable de comparer entre les prises de parole. Dans un souci de transparence, il aurait été souhaitable d’ajouter en fin de volume le questionnaire reçu par chacun des intervenants.
Qu’il s’agisse d’un public de néophytes, de bibliothécaires ou encore d’historiens, chacun pourra déceler, au sein de ce recueil d’entretiens inédits, de quoi nourrir ses intérêts. Il est à souligner enfin que la postface d’Alexis Rivier offre un bel effort de synthèse et d’ouverture vers des perspectives futures. A l’heure où certains responsables issus de grandes bibliothèques de notre pays prédisent des scenarios catastrophiques pour l’avenir des bibliothèques, il est cardinal d’écouter ces quatre voix riches d’expériences et d’espérances.
Notes
[1] Respectivement directeurs de la Bibliothèque cantonale du Valais – Médiathèque Valais (1988-2008), Bibliothèque publique et universitaire de Genève (1993-2007), Bibliothèque nationale suisse (1990-2005) et Bibliothèque cantonale et universitaire de Lausanne (1986-2008).
[2] Les entretiens, basés sur un questionnaire unique, ont ensuite été retranscrits à la première personne et amendés par les auteurs.
[3] Jacques Cordonier et Hubert Villard notamment évoquent à maintes reprises la mise en place du « Réseau romand des bibliothèques de Suisse occidentale » (Rero).
[4] Nous pensons naturellement au projet de la bibliothèque nationale portant son nom.
[5] Consulter : www.vallesiana.ch
[6] Ces trois portails concernent respectivement les livres anciens, les manuscrits médiévaux et les revues suisses.
[7] Consulter : http://memoriav.ch
[8] Il s’agit de l’acronyme désignant les géants du web que sont Google, Apple, Facebook et Amazon.
[9] C’est moi qui souligne.
Bibliographie
CORDONIER, Jacques, JACQUESSON, Alain, JAUSLIN, Jean-Frédéric, VILLARD, Hubert. Entretiens. Genève : L’esprit de la Lettre, 2016. (Collection Bibliothécos), 116 p.
- Vous devez vous connecter pour poster des commentaires
Anleitung und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension
Ressi — 31 décembre 2016
Karsten Schuldt, Schweizerisches Institut für Informationswissenschaft, HTW Chur
Anleitung und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension
Makerspaces in Bibliotheken: Eine grundsätzlich etablierte Idee
Makerspaces, Fablabs oder ähnlich benannte Abteilungen in Bibliotheken einzurichten, ist auch in der Schweiz einigermassen normal geworden.[1] Viele Bibliotheken haben dies in den letzten Jahren in grösseren oder kleineren Projekten unternommen, einige haben Makerspaces als dauerhaftes Angebot eingerichtet, andere als Veranstaltungsreihen oder nur mit einigen, ausgewählten Technologien, z.B. 3D-Druckern, die in der Bibliothek betrieben werden. Diese Makerspaces können sich kaum mit denen in Millionenstädten messen, die oft in der Literatur besprochen werden, sie erfüllen auch viele der Versprechen, die sich in der Literatur zu Makerspaces gemacht werden (Anderson 2013; Hatch 2014), nicht. Gleichwohl sind sie eine Angebot, dass Bibliotheken nicht mehr grundsätzlich erläutert werden muss. Vielmehr stellen sich praxisorientierte Fragen: Welche Technologien eignen sich für welche Arten von Makerspaces in welchen Bibliotheken? Wie teuer sind sie, auch im längerfristigen Betrieb? Was kann mit ihnen im Rahmen der Bibliothek angeboten werden? Bislang scheinen Bibliotheken diese Fragen jeweils für sich selber zu beantworten, jeweils neu, teilweise, nachdem sie Angebote von anderen Bibliotheken in ihrem Umfeld angeschaut haben.
Es scheint die auch immer wieder einmal in Gesprächen am Rande von Konferenzen und Weiterbildungen geäusserte Vorstellung vorzuherrschen, dass es bislang keine Literatur dazu gäbe, wie Makerspaces in Bibliotheken eingerichtet werden könnten. Teilweise wird dies als Desiderat geäussert, dass zu schliessen wäre. Das ist nicht korrekt. Vielmehr werden seit einigen Jahren immer wieder neue Anleitungen dazu, wie Makerspaces in Bibliotheken eingerichtet und was in ihnen unternommen werden kann, publiziert, vorrangig in englischer Sprache. Im Folgenden soll eine Anzahl dieser Anleitungen kurz besprochen zu werden.[2] Es scheint allerdings nicht so, als wären diese Publikationen die letzten dieser Art. Vielmehr ist zu vermuten, dass aktuell in den Bibliotheksverlagen viele weitere Manuskripte dieser Art bearbeitet und in den laufenden Monaten und Jahren publiziert werden. Insoweit kann hier nur eine vorläufige Auswahl vorgestellt werden. Grundsätzlich sind die hier besprochenen Publikationen alle in einem sehr einfachen Englisch abgefasst, so dass sie ohne Probleme auch für Bibliotheken in der Schweiz genutzt werden können.[3]
Makerspace Workbench (Kemp 2013)
Obwohl Makerspaces immer lokal gestaltet werden und manchmal der Eindruck vermittelt wird, dass sie alleine deshalb entstehen würden, weil sie sinnvoll sind – Haike Meinhard (Meinhard 2014) oder Megan Egbert (Egbert 2016) sprechen von Maker-Bewegung bzw. Maker-Movement und suggerieren ein ungesteuertes Wachstum –, ist es doch möglich, auf einen Verlag als Antriebskraft hinter dieser Idee zu verweisen, nämlich MakerMedia (http://makermedia.com), San Francisco, die sowohl das Magazin make: (http://makezine.com) herausgibt, als auch die verbreitete Veranstaltungsreihe Maker Faire (http://makerfaire.com) betreut und als Brand hält.[4] Entgegen mehrfach aufgestelltet Behauptungen (z.B. Meinhard 2014) ist die Idee der Makerspace oder Fablab eben nicht in der Zivilgesellschaft, der Hackercommunity, den Schulen oder Bibliotheken entstanden, sondern von MakerMedia – auf der Basis von anderen Einrichtungen – vorangetrieben und auch als Brand etabliert worden. Das heisst nicht, dass diese Firma alle Maker-Aktivitäten kontrolliert oder von ihnen profitiert; aber es ist doch bedenkenswert. Die Firma hat die Darstellung und das Verständnis von Makerspaces (also: Was „kann“ in ihnen gemacht werden? Was nicht?) geprägt, viele positive Darstellungen, gerade der Zeit bis 2014, und Begründungen, warum Makerspaces etwas gutes sind, stammen direkt von ihr und wirken bis heute nach.
Neben dem Magazin make: und der Veranstaltungsreihe Maker Fair gibt die Firma in unregelmässigen Abständen auch Bücher heraus. Diese sind immer wieder ähnlich aufgebaut. Sie richten sich an Personen, die Makerspaces betreiben wollen und präsentieren vor allem Beispiele für Dinge, die hergestellt – also „ge-makt“ – werden können. Dies gilt unter anderem für The Makerspace Workbench von Adam Kemp (Kemp 2013), das hier als ein Beispiel der Produktionen des Verlages besprochen wird. Das Buch startet, wie viele Bücher aus diesem Verlag, mit einem fast schon missionarischem Einstieg in das „Making“ an sich, inklusive einer Kurzversion des „Makerspace Manifesto“. (Vgl. auch die ein Buch lange Ausarbeitung des „Manifesto“: Hatch (2015)) Anschliessend wird in einem Kapitel dargestellt, in welchen Räumen, mit welchen Sicherheitsmassnahmen und Ausstattungen ein Makerspace eingerichtet werden kann. Obgleich das Buch betont, dass es eine grosse Anzahl von Möglichkeiten gibt, arbeitet es doch beständig mit konkreten Beispielen, bis hin zu konkreten Geräten, die genannt, gezeigt und mit denen gerechnet (z.B. die für sie benötigte Elektrizität) wird. Die Beispiele beziehen sich immer auf US-amerikanische Geräte, Sicherheitsvorschriften etc., müssen also bei der Umsetzung in der Schweiz mit „übersetzt“ werden.
Bei all diesen, zum Teil sehr konkreten, Vorstellungen behält das Buch einen missionarischen Charakter bei. So werden z.B. kurz unterschiedliche Makerspaces besprochen (in der Bibliothek, der Schule, dem Klassenraum, in der privaten Garage), aber gleichzeitig bei jedem dieser möglichen Makerspaces noch einmal betont, wie gut sich diese jeweils eignen würden und wie zukunftsgerichtet sie wären. Man würde erwarten, dass dies nicht mehr nötig ist, da ein solches Buch vor allem von Menschen gelesen wird, die schon von Makerspaces überzeugt sind. Weitere Kapitelen besprechen eins zu eins einzelne Werkzeuge, Hilfsmittel und Materialien, die in einem Makerspace vorhanden sein können, inklusive Abbildungen aller dieser Produkte. In den weiteren Kapiteln werden Projekte für Makerspaces, auf der Basis der vorgestellten Materialien etc., vorgestellt, immer als konkrete Anleitungen gefasst, in einfachen Schritten, so wie in Kochbüchern Rezepte vorgestellt werden. Das ist alles sehr feingliedrig, inklusive unzähligen Bildern und Sicherheitstipps. Auffällig ist jedoch, dass sich die Darstellung immer auf das jeweilige Projekt selber bezieht, nicht auf Gruppeaktivitäten im Makerspace, nicht auf pädagogische oder andere Fragen. Zwar gibt es ein Kapitel mit dem Titel „Learning in a Makerspace“, aber auch dieses geht nicht ein auf pädagogische oder didiaktische Fragen, sondern präsentiert Projekte, die sich inhaltlich in das (US-amerikanische) Schulcurriculum eingliedern lassen, ohne z.B. auf mögliche Lernziele dieser Projekte einzugehen. Es ist ein reines Projektehandbuch, welches allerdings den Grossteil der Publikationen des Verlages MakerMedia widerspiegelt. Dazu zählt das unhandliche A4-Layout, dass dem Buch ein wenig den Anschein einer Kopie aus dem Copyshop verleiht. Dieses Layout findet sich aber auch bei weiter unten besprochenen Publikationen (Preddy 2013, Wall & Pawloski 2014, Hamilton & Hanke Schmidt 2015).
Makerspaces in Schulbibliotheken (Preddy 2013)
Gerade in den USA scheint es, folgt man der Literatur, in zahllosen Schulbibliotheken Makerspaces zu geben. Leslie B. Preddy (Preddy 2013) legte – zumindest für die Schulklassen 6 bis 12, für die anderen gibt es keine vergleichbare Publikation – eine Anleitung für solche Einrichtungen vor. Auch diese Autorin formuliert in einer missionarischen Stimme, dass solche Einrichtungen die Bibliotheken verändern würden, z.B.: „A makerspace is an exciting oppurtunity for school libraries to take that next evolutionary step toward making the library a destination, instead of a fly-by stop.“ (Preddy 2013:1)
In einem ersten Kapitel versucht das Buch, die Arbeit eines Makerspaces in den Kontext US-amerikanischen Schulbibliotheken zu stellen. So postuliert die Autorin, dass Makerspaces in die Standards für Schulbibliotheken (AASL Standards for the 21st-Century Learner) passen würde und gleichzeitig in die Anforderungen, die das die Bundesstaaten übergreifende Schulcurriculum Common Core stellt. Ansonsten ermuntert die Autorin dazu, sich bei der Gestaltung des Makerspaces von der jeweiligen Schule leiten zu lassen.
Anschliessend stellt die Autorin auf über 140 Seiten nacheinander mögliche Projekte vor, zu grossen Teilen auch solche, die keine Technologie erfordern, sondern eher dem Basteln und Werken zuzuordnen sind. Die Projekte sind jeweils kurz beschrieben, mit Bildern angereichert und oft mit weiterführenden Links versehen. Die Beispiele sind durch die ausführliche Darstellung gut nachvollziehbar, aber gleichzeitig in dieser Masse auch ermüdend. Auffällig ist, dass die Beispiele ebenso, wie bei Kemp (Kemp 2014), quasi ohne weitere Hinweise auf pädagogische oder andere Fragen auskommen. Hilfreich ist die listenhafte Aufzählung von Technologien für Makerspaces im Anhang des Buches.
Makerspaces für Kinder und Teens (Wall & Pawloski 2014)
Ähnlich, wie Peddy (Peddy 2014) für Schulbibliotheken gehen Cindy R. Wall und Lyyn M. Pawloski (Wall & Pawloski 2014) in ihrem Buch zu Makerspaces in Bibliotheken für Kinder und Teens vor. Im unhandlichen A4-Format wird in einer kurzen Einleitung wieder mit sehr grossen Versprechen gearbeitet, wenn begründet wird, warum Bibliotheken Makerspaces haben sollten:
The Maker philosophy empowers people with the knowledge that they can create the things that they want and need. In the ideal Maker world, when people have a need, they do not wait for a corporation to acknowledge that need and create a product; instead they make the product themselves. Therefore, library Maker programming should empower participants to believe in their ability to create something through experimentation and trial and error. The Maker Movement allows individuals to free and shift their thinking; it allows everyone to think in terms of unlimited possibilities. (Wall & Pawloski 2014:1)
Diese Aufzählung enthält regelmässig verbreitete Behauptungen über Makerspaces, z.B. das in ihnen durch „Trail and Error“ gelernt werden würde, ohne das dies weiter begründet wird. Diesen grossen Ankündigungen folgen allerdings wieder nur 160 Seiten mit einzelnen Projekten. Diese Projekte sind übersichtlicher dargestellt, als in den bislang besprochenen Büchern und folgen immer der gleichen Struktur (Vorstellung, Kosten, Zeit, Vorteile, „Zielgruppen“, benötigtes Personal, „Zutaten“, Vorbereitung, Durchführung, Varianten, mögliche Zusätze, übrigbleibender Müll und weiterführende Literatur). Der Einsatz von Bildern ist zurückhaltender, ansonsten wird ein gewiss lustig gemeinter Stil durchgehalten, bei dem die Projekte als Kochrezepte (Durchführung heisst z.B. „Bake“) präsentiert werden. Teilweise sind die nötigen Schritte auch sehr differenziert dargestellt. Die Anhänge verorten die Beispiele eher in der Schule, z.B. gibt es Diskussionsfragen für Gruppen, die im Anschluss an bestimmte Projekten gemeinsam diskutiert werden können und auch einige Arbeitsblätter.
Konkrete Beispiele (Bagley 2014; Willingham & de Boer 2015)
Während die bislang besprochen Bücher vor allem konkrete Projekte darstellten, die in Makerspaces umgesetzt werden könnten, versammelt Caitlin A. Bagley (Bagley 2014) konkrete Makerspaces in US-amerikanischen Bibliotheken. Dieser Sammlung stellt sie Überlegungen zu Makerspace voran, die sich vor allem mit der Begründung für diese (Warum sollten sie in einer Bibliothek vorhanden sein?) und Finanzierungsmöglichkeiten beschäftigt. Anschliessend werden neun Einrichtungen in Öffentlichen, Hochschul- und Schulbibliotheken vorgestellt. Diese Vorstellungen folgen grundsätzlich dem immer gleichen Muster (Gründung, Finanzierung, Beschreibung des Ortes selber, Beschreibung der Technologien oder Werkzeuge, die erfolgreich eingesetzt wurden, Veranstaltungen und Betrieb, Marketing, Personal und Betreuung, Gruppen, die den Makerspace nutzen, sowie eine Zusammenfassung). Die Beschreibungen sind als reiner Text gefasst, also ohne Bilder aus den Makerspaces, aber auch ohne Tabellen etc. Die Sprache ist, verglichen mit den andern Büchern, die einen missionarischen Eifer an den Tag legen, sehr konkret an den jeweiligen Beispielen orientiert. Es werden vor allem Erfolge gezeigt, aber auch gesagt, was nicht funktioniert hat oder wo es Schwierigkeiten gab.
Das Buch scheint vor allem zu zeigen, dass es möglich ist, langfristig und erfolgreich Makerspaces in Bibliotheken zu betreiben. Zudem erinnert die Autorin daran, dass es notwendig ist, im Vorfeld zu klären, was für einen Makerspace, mit welchen Zielen und vor allem mit welchen Möglichkeiten eine Bibliotheken haben möchte, bevor sie daran geht, ihn zu planen.
Theresa Willingham und Jeroen de Boer (Willingham & de Boer 2015) verbinden in ihrem in der Reihe Library Technology Essentials – und damit neben anderen Titeln zu technischen Themen – erschienenen Band die Darstellung von Beispielen mit der Darstellung konkreter Veranstaltungen in Makerspaces. Auch dieser Band ist in einer übermässig positiven Sprache verfasst, bei der schnell der Eindruck entsteht, dass über tatsächliche Schwierigkeiten einfach hinweggegangen wird. Sie wagen sich, einen schnellen Überblick zur Geschichte von Makerspaces in Bibliotheken und eine Begründung für solche Räume vorzustellen, der aber sehr strittig ist. Gleichzeitig stellt diese Darstellung nicht den Fokus des Buches dar.
Vielmehr versucht das Buch, auf der Basis von konkreten Erfahrungen in Bibliotheken, alle Themen anzusprechen, die für die Entscheidungen rund um einen Makerspace notwendig sind. Letztlich bleibt vieles der lokalen Interpretation überlassen (Z.B.: „Make the lab an essential part of business operations and try to find as much support as possible within the organization.“, Willingham & de Boer 2015:26), gleichzeitig werden Vorschläge für die Anschaffung von Hardware und Software gemacht (wobei die Software zumeist Open Source Produkte sind), die wohl schon mit der Drucklegung überholt gewesen sein dürften. Das Buch gibt eher Richtungen und zu beachtenden Themen vor. Mehr kann es vielleicht nicht leisten.
Daran an schliessen Vorstellungen von 14 Bibliotheken mit Makerspaces, FabLabs oder ähnlichen Initiativen. Auch diese haben einen starken Fokus auf die USA (ein Beispiel kommt aus Italien, ist aber in Zusammenarbeit mit der dortigen U.S. Embassy realisiert), eine Anzahl stammt aber aus Skandinavien und den Niederlanden. Die Vorstellungen sind jeweils relativ kurz gefasst, je rund zwei bis vier Seiten. Was sie von den Darstellungen bei Bagley (2014) unterscheidet ist, dass sie sich nicht auf stationäre Makerspaces in Bibliotheken beschränken, sondern auch mobile Makerspaces von Bibliotheken (FryskLab, betreut vom Herausgeber des Buches Jeroen de Boer) und Initiativen, die mit Bibliotheken zusammen (temporäre) Makerspaces durchführen, vorstellen. Diese Beispiele zeigen, dass auch solche kurzfristigen Veranstaltungen möglich sind, dann allerdings – was nicht besprochen wird – bestimmte Ansprüche (Community-Bildung, pädagogische Konzepte), die sonst mit Makerspaces verbunden werden, aufgegeben werden, weil sie in temporären Veranstaltungen gar nicht umgesetzt werden können.
Im letzten Drittel des Buches werden, wieder auf der Basis von schon durchgeführten Programmen in Bibliotheken, einzelne Projekte vorgestellt und so beschrieben, dass sie prinzipiell auch anderswo durchgeführt werden können. Diese Projekte unterscheiden sich von denen, die bei Kemp (Kemp 2013), Preddy (Preddy 2013) oder Wall und Pawloski (Wall & Pawloski 2014) beschrieben werden, dadurch, dass sie mehr auf den Kontext Bibliothek eingehen (z.B. Einsatz des Personals) und weniger genau auf das Projekt (z.B. was genau mit dem 3D-Drucker produziert wird).
Grundsätzlich hat auch dieses Buch seine Schwächen, insbesondere sind die Herleitungen und Begründungen für Makerspaces nicht nachvollziehbar. Von allen hier besprochenen Büchern ist es aber das zugänglichste und für Bibliotheken auch motivierenste.
Arbeitsblätter für Makerspaces (Hamilton & Hanke Schmidt 2015)
Auf den ersten Blick kaum von den anderen Anleitungen für Projekte in Makerspaces wie Preddy (Preddy 2013) oder Kemp (Kemp 2013) zu unterscheiden – bis hin zum A4 Format – geht das Buch von Matthew Hamilton und Dara Hanke Schmidt (Hamilton & Hanke Schmidt 2015) doch weiter. Es geht nicht um konkrete Veranstaltungen, die durchgeführt werden, sondern um einen möglichst einfachen Zugang für Bibliotheken, um Makerspaces zu machen. Dafür werden, immer auf der Basis von Erfahrungen von Makerspaces, die in US-amerikanischen Bibliotheken existieren, Angaben zu Projekten gemacht und Vorlagen geliefert, z.B. Vereinbarungen für die Nutzung eines Makerspaces, die quasi direkt kopiert und dann anderswo zu Unterschrift vorgelegt werden können, Sicherheitsreglements oder Schreiben an Lehrpersonen und Eltern. Es werden Angaben über Kosten etc. gemacht und immer wieder in kurzen Interviews Makerspaces vorgestellt. Es wird besprochen, wie Makerspaces geplant und wie sie ausgestattet werden können sowie das sie auch als Medialabs gestaltbar sind. Das alles auf einer sehr anwendungsbezogenen Ebene, teilweise mit Hinweisen zu Technologien, Preisen etc., die schon überholt sein werden. Sichtbar ist an diesem Buch, dass in ihm die Bibliothekarinnen und Bibliothekare, die einen Makerspaces planen sollen, im Fokus stehen.
Die Welt retten mit Makerspaces? (Egbert 2016)
Megan Egbert (Egbert 2016) geht es in ihrem Buch hingegen vor allem darum, zu begründen, wie Makerspaces in Bibliotheken pädagogisch und gesellschaftlich sinnvoll genutzt werden können. Sie bietet keine Anleitung für Veranstaltungen etc., sondern vielmehr ein Begründung für verschiedene Arten des Making. Das Buch ist, fast noch mehr als das von Kemp (Kemp 2013), eine missionarische Schrift, die im Making einen Weg sehen will, der aus den angeblich überholten Bibliotheken (und Schulen) hypermoderne Einrichtungen machen soll. In weiten Teilen ist das kaum lesbar, in einer Marketing-Sprache geschrieben, die keinen Widerspruch und kein kritisches Hinterfragen zuzulassen scheint. So wird oft von überzeugten Vertreterinnen und Vertretern der Makerspaces geschrieben, insoweit ist das Buch als Beispiel für deren Argumentationen interessant. Es ist ein Diskurs, der ohne auf Geschichte und Entwicklung von Einrichtung sowie ohne wirklich die Gesellschaft, in der die Einrichtungen wie Bibliotheken existieren, wahrzunehmen, die Überlegenheit von „Making“ behauptet, weil es neu sei. Selbstverständlich ist es nicht neu, sondern die Wiederkehr älterer pädagogischer Ideen (z.B. wiederholen sich viele Behauptungen, Erwartungen und Ungenauigkeiten aus der Reformpädagogik), nur sehr gereinigt von allen gesellschaftlichen Fragen (und auch der Frage: Wozu? Was sollen Menschen damit lernen?). Ein sicherlich gut gemeinter, aber inhaltlich dürftiger Diskurs, der Grundprinzipien des neoliberalen Denkens (z.B. alles, was vorher war, sei schlecht und übersteuert, es müssen „disruptiv“ geändert werden, ohne zu fragen, wohin und wozu) fortschreibt; offenbar ohne sich dessen bewusst zu sein. In diesem Rahmen werden auch ehemals kritische Anfragen an die pädagogische Realität (z.B. die Frage, wieso Mädchen anderes lernen als Jungen oder die Vorstellung des Konstruktivismus, dass die Menschen ihr eigenes Wissen „konstruieren“ und nicht das, was sie gelehrt bekommen) möglichst in den Diskurs integriert, aber so, dass sie dabei ihrer kritischen Funktion entledigt werden.
Egbert lässt in ihrem Buch immer wieder persönliche Geschichten einfliessen, berichtet z.B. immer wieder von ihren Erfahrungen in ihren Bibliotheken (Meridian Library District, Idaho) und mit ihrer Familie. Das Buch selber ist also in der Realität der Autorin verankert, aber es scheint immer wieder durch, dass Idaho nicht so weit von den Zentren des missionarischen Sprechens über Making, Disruption etc. im Silicon Valley entfernt liegt.
Ansonsten geht das Buch die gleichen Themen durch, wie es auch Willingham und de Boer (Willingham & de Boer 2015) oder Bagley (Bagley 2014) taten: Gründe für Makerspaces, unterschiedliche Makerspaces, Finanzierung, Personal. Egbert geht, ganz in missionarischer Absicht, davon aus, dass es sinnvoll wäre, wenn Personen zu „Makern“ werden und dann auch in anderen Orten eine „Maker-Kultur“ verbreiten würden. Sie denkt dabei vorrangig an Bibliothekarinnen und Bibliothekare.
Die von ihr im Untertitel versprochen „Teaching Revolution“ beschränkt sich darauf, zu behaupten, dass mit Makerspaces konstruktivistische Pädagogik in der Bibliothek etabliert würde. Der Konstruktivismus geht als Lerntheorie davon aus, dass Menschen das, was sie lernen, selber konstruieren und die gesamte Umgebung, z.B. der Lernraum, die Planung einer Bildungsveranstaltung, die Arbeit der Lehrenden, bei diesem Prozess nur unterstützen können. Grundsätzlich kritisiert der Konstruktivismus andere Lerntheorien und stellt die Lernenden selber in den Mittelpunkt. Es ist im Rahmen der „Maker-Bewegung“ zum Allgemeinplatz geworden, zu behaupten, Makerspaces seien quasi die Umsetzung dieser konstruktivistischen Theorien. Das lässt sich bestreiten, schon da der Konstruktivismus weit länger diskutiert wird als Makerspaces. Bestreiten lässt sich auch die in der „Maker-Bewegung“ verbreitet Gegenüberstellung von „altem Lernen“ und „neuem, im Makerspace“. Vielmehr ist der Konstruktivismus schon länger in anderen pädagogischen Projekten ausprobiert worden und Grundlage vieler Veränderungen, die in den letzten Jahrzehnten in Schulen stattfanden. Ebenso kritisch zu sehen ist die in solchen Texten immer wieder als angebliche Neuerung hervorgehobene Partizipation der Lernenden. Auch diese wird seit Jahrzehnten in anderen pädagogischen Zusammenhängen angestrebt und umgesetzt. Egbert hingegen übernimmt die Behauptung der „Maker-Bewegung“ und reduziert sie auf eine sehr banale Ebene, bei der behauptet wird, dass, wenn Menschen in Makerspace „maken“ – also mit den eigenen Händen arbeiten, selber ausprobieren, in eher offenen Situationen agieren und auch, reflektiert, scheitern dürfen – sie besser lernen würden, als z.B. in Schulen.[5] Für die Planung von Makerspaces ist dieses Buch eher ungeeignet, es ist eher eine „Missionsschrift“.
Fazit: Viel Missionierungsanspruch, viele kleinteilige Anleitungen
Es ist in dieser Sammelrezension ersichtlich geworden, dass es grundsätzlich nicht an Literatur zu Makerspaces in Bibliotheken mangelt. Sie ist in grossen Teilen vom US-amerikanischen Denken geprägt, was bei der Nutzung in der Schweiz (oder anderswo) mit beachtet werden müsste. Insbesondere der missionarische Anspruch, möglichst viele Menschen in „Maker“ zu verwandeln, irritiert – zu Recht – immer wieder. Keines der hier referierten Bücher liefert eine nachvollziehbare und vor allem belastbare Begründung dafür, wozu das gut sein soll. Gerade bei Kemp (Kemp 2013) und Egbert (2016) scheint eine Mentalität durch, wie sie sonst mit den „Start-Up Zentren“ wie dem Silicon Valley verbunden wird: ungesellschaftlich, immer ohne jeden Grund übermässig positiv und vor allem mit der Behauptung auftretend, die Welt vom Grunde auf zu verändern. Das stimmt bei Start-Ups nicht und es wird auch durch Makerspaces in Bibliotheken nicht eintreten.
Gleichzeitig zeigen die Bücher auch, dass es neben diesen Versprechen auch eine funktionierende Praxis von Makerspaces in Bibliotheken gibt. Sie werden die Welt nicht verändern, aber sie bereiten offenbar vielen Menschen – sowohl Nutzenden von Bibliotheken als auch dem Personal selber – Vergnügen und bilden eine sinnvolle Ergänzung anderer bibliothekarischer Angebote. Akzeptiert man diese Einschränkung, dann eignen sich mehrere hier besprochene Bücher für die konkrete Planung von Makerspaces (Willingham & de Boer 2015) oder Veranstaltungen in Makerspaces (Fleming 2015; Preddy 2013). Letztlich werden aber auch in diesen Büchern Bibliotheken immer wieder darauf zurückverwiesen, dass sie die Entscheidungen darüber, welche Angebote sie machen wollen, ob Sie Makerspaces einrichten wollen, und wenn ja, wie und wie sie diese nutzen wollen, immer selber treffen müssen. Es gibt keine überall funktionierenden Konzepte, es gibt keinen überall geltenden Grund, einen Makerspace einzurichten oder nicht einzurichten. Es ist einfach so, dass sie als Einrichtungen Spass machen können, aber auch Arbeit bedeuten. An Literatur, die dabei Unterstützung liefert, die jeweils notwendigen Entscheidungen zu treffen, mangelt es nicht.
Erwähnt werden muss zudem, dass in diesem Artikel, mit einer Ausnahme, nur Bücher besprochen wurden, die sich explizit mit Makerspaces in Bibliotheken beschäftigten. Es gibt weit mehr, erstens für andere Bereichen, z.B. für Schulen und für Makerspaces allgemein. Zweitens existieren neben gedruckten Büchern auch zahlreiche digitale Dokumente, z.B. zahlreiche Studienabschlussarbeiten (z.B. Blanpain, 2014) Handreichungen (z.B. Makerspace Resources Task Force 2014) und Webprojekte (z.B. http://www.makerspace.com). Zahlreiche grössere Makerspace stellen sich selber online dar (z.B. „The Edge“ der State Library of Queensland, Australien http://edgeqld.org.au oder, ausserhalb von Bibliotheken, der Makerspace der New York Hall of Science, http://makerspace.nysci.org). Sicherlich bedarf es immer wieder „Übersetzungsleistungen“ in die jeweiligen lokalen Kontexte, sicherlich muss man die jeweiligen Texte kontextualisieren und ihnen gerade nicht alles glauben. Aber am Ende ist, wer sich dafür interessiert, wie ein Makerspace in Bibliotheken funktionieren kann, heutzutage gut mit Materialien bedient.
Conclusion : beaucoup de revendications prosélytiques, une multitude de petits guides
Il s’est avéré, lors de ces recensions, qu’il ne manque pas de littérature sur les fablabs en bibliothèque. Il faut noter que cette littérature est souvent imprégnée d’une pensée américaine (des Etats-Unis), ce qui est à prendre en considération si on souhaite l’utiliser en Suisse ou ailleurs. En particulier cette approche de prosélyte, qui incite à transformer le plus possible de personnes en « makers », peut, à juste titre, irriter. Aucun des livres recensés ici ne donne de justification solide et compréhensible qui expliquerait pourquoi ce serait bien.
Chez Kemp (2013) et Egbert (2016) justement apparait une mentalité que l’on retrouve habituellement dans les pépinières de start-up ou à la silicon valley : non-sociale, ultra-positive sans aucune raison, et convaincue de changer le monde. Cela n’est pas plus juste pour les start-ups que pour les bibliothèques.
Cependant, ces ouvrages montrent également qu’à côté des promesses tous azimuts, il existe aussi une pratique des fablabs en bibliothèque. Ces fablabs ne changeront pas le monde, mais ils plaisent visiblement aussi bien aux usagers qu’aux personnels des bibliothèques, et représentent un complément intéressant aux autres services de la bibliothèque.
Cette limite étant posée, plusieurs ouvrages se prêtent à une planification concrète de fablabs (Willingham & De Boer, 2015), ou d’évenements dans des fablabs (Fleming, 2015 ; Preddy, 2013). Finalement ces ouvrages insistent sur le fait que c’est aux bibliothèques elles-mêmes de décider quelle offre elles souhaitent, si elles souhaitent mettre sur pied des fablabs, et si oui comment elles veulent les utiliser. Il n’y a pas de concept universel, il n’y a pas de raison valable pour tous, pemettant de mettre en place ou non un fablab.
Simplement ce sont des structures qui peuvent procurer du plaisir mais impliquent aussi du travail. Ce n’est en tout cas pas la littérature qui manque pour aider les bibliothèques à prendre les décisions nécessaires.
Il faut signaler que tous les ouvrages recensés dans cet article, à une exception près, parlent explicitement des fablabs en bibliothèque. Il y en a bien davantage, soit qui concernent les fablabs dans d’autres domaines comme les écoles par exemple, soit sur les fablabs en général. Ensuite il y a non seulement de la littérature imprimée mais aussi de nombreux documents numériques, par exemple des travaux de diplôme (Blancpain, 2014), des boîtes à outils (par ex. Makerspace Resources Task Force 2014) et des projets Web (par ex. www.makerspace.com). De nombreux fablabs se présentent eux-mêmes en ligne (par ex., « the Edge », de la bibliothèque de l’Etat du Queensland en Australie, http://edgeqld.org.au, ou en dehors des bibliothèques, le fablab du New York Hall of Science, http://makerspace.nysci.org).
Il est certain que les nombreux textes sur le sujet nécessitent toujours un effort de transposition dans chaque contexte local et on ne doit pas tout croire. Mais finalement, celui qui s’intéresse à la manière dont un fablab peut fonctionner en bibliothèque a aujourd’hui tout le matériau qui convient.
Notes
[1]In der Deutschschweiz scheint vor allem von Makerspaces gesprochen zu werden, in der Romandie von Fablabs. Beide Namen meinen ausserhalb der Bibliotheken eigentlich ähnliche, aber nicht gleiche Einrichtungen. In Bibliotheken scheinen sie aber quasi-synonym verstanden zu werden. Im weiteren wird der Begriff „Makerspace“ verwendet.
[2]Die Besprechung entsteht im Zusammenhang mit dem Projekt LLgomo (Library Lab goes mobile) der HTW Chur, bei dem getestet wird, welche Formen und Ideen von Makerspaces sich in kleineren Gemeindebibliotheken umsetzen lassen.
[3]Zumal neben diesen Publikationen noch zahlreiche Anleitungen für Makerspaces / Fablabs in Schulen existieren, die hier nicht besprochen werden, aber für Bibliotheken ebenso interessant sein können.
[4]Das Magazin erscheint neben der englischen Ausgabe in Deutsch als beigeordnetes Heft der c't als Make: (https://shop.heise.de/zeitschriften/hardware-hacks/make-magazin), Maker Faires gibt es auch in der Schweiz (für die Deutschschweiz „betreut“ aus Deutschland, http://maker-faire.de) und im umliegenden Ausland, d.h. Frankreich (http://makerfaire.fr), Deutschland und Österreich (http://maker-faire.de) oder Rom, Italien (http://www.makerfairerome.eu/en/).
[5]Bücher dieser Art liegen auch für andere Bereiche vor. Laura Fleming (Fleming 2015) argumentiert ähnlich oberflächlich, wenn auch mit weniger Text, für Makerspaces in Schulen (und Schulbibliotheken), obwohl sie es als Lehrerin besser wissen müsste. Es ist also keine Besonderheit von Bibliotheken.
Literatur
Anderson, Chris (2013). Makers : the new industrial revolution. New York: Crown Business, 2013
Bagley, Caitlin A. (2014). Makerspaces: Top Trailblazing Projects (A LITA Guide). Chicago: ALA TechSource, 2014
Blanpain, Coline (2014). Un lab en bibliothèque, à quoi ça sert ?. Villeurbanne Cedex France: enssib, http://www.enssib.fr/bibliotheque-numerique/documents/64259-un-lab-en-bi...
Egbert, Megan (2016). Creating Makers: How to Start a Learning Revolution at Your Library. Santa Barbara ; Denver : Libraries Unlimited, 2016
Fleming, Laura (2015). World of Making: Best Practices for Establishing a Makerspace for Your School. Thousand Oaks: Corwin, 2015
Hamilton, Matthew ; Hanke Schmidt, Dara (2015). Make It Here: Inciting Creativity and Innovation in Your Library. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2015
Hatch, Mark (2014). The Maker Movement Manifesto: Rules for Innovation in the New World of Crafters, Hackers, and Tinkerers. New York et al.: McGraw-Hill, 2014
Kemp, Adam (2013). The Makerspace Workbench: Tools, Technologies, and Techniques for Making. Sebastopol: MakerMedia, 2013
Makerspace Resources Task Force (2015) Making in the Library Toolkit, Young Adult Library Services Association, 2015, http://www.ala.org/yalsa/sites/ala.org.yalsa/files/content/MakingintheLi...
Meinhard, Haike (2014). Das Zeitalter des kreativen Endnutzers: Die LernLab-, Creatorspace- und Makerspace-Bewegung und die Bibliotheken. In: BuB 66 (2014) 479-487
Preddy, Leslie B. (2013). School Library Makerspaces, Grades 6-12. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2013
Wall, Cindy R. ; Pawloski, Lynn M. (2014). The Maker Cookbook: Recipies for Children's and 'Twenn Library Programs. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2014
Willingham, Theresa ; de Boer, Jeroen (2015). Makerspaces in Libraries (Library Technology Essentials, 4). Lanham ; Boulder ; New York ; London: Rowman & Littlefield, 2015
- Vous devez vous connecter pour poster des commentaires
Gilbert Coutaz, Archives en Suisse. Conserver la mémoire à l’ère numérique, Lausanne, Presses polytechniques et universitaires suisses, 2016 (Le savoir suisse, 113), 131 p.
Ressi — 31 décembre 2016
Alain Dubois, Archives de l'Etat du Valais
Gilbert Coutaz, Archives en Suisse. Conserver la mémoire à l’ère numérique, Lausanne, Presses polytechniques et universitaires suisses, 2016 (Le savoir suisse, 113), 131 p.
La collection « Le savoir suisse », qui a notamment pour ambition de porter à la connaissance d’un large public les résultats de la recherche en langue française, consacre l’un de ses derniers numéros à la question des archives en Suisse. Qui mieux que Gilbert Coutaz, directeur des Archives cantonales vaudoises depuis plus de 20 ans, ancien président de l’Association des archivistes suisses, excellent connaisseur du paysage archivistique suisse et de la communauté professionnelle qui s’y rattache, pouvait s’atteler à cette tâche ? Au final, l’auteur nous livre une analyse fine, érudite et sans concession de la question, d’une lecture très agréable, qui se distingue certes de la vaste synthèse Archivpraxis in der Schweiz. Pratiques archivistiques en Suisse parue en 2007, quand bien même elle en reprend certains éléments.
Archives en Suisse n’est pas une introduction à l’archivistique. Il ambitionne plutôt de donner la parole aux archivistes et de rappeler au grand public le rôle crucial, mais souvent incompris qu’ils exercent à une époque où l’explosion du volume d’information et le développement rapide des technologies de l’information et de la communication bousculent les repères et transforment les archives en réalités virtuelles qu’il s’agit de gérer au quotidien, de collecter, de conserver, de communiquer et de mettre en valeur. L’ouvrage de Gilbert Coutaz explore ainsi en sept chapitres un domaine peu connu, celui des archives en Suisse, en raconte l’histoire et en présente les objectifs, le rôle et les défis actuels.
Le premier chapitre, intitulé « Les archives aujourd’hui », donne rapidement le ton de l’ensemble du livre. L’archivistique et la communauté des archivistes sont souvent méjugées et incomprises, car considérées comme poussiéreuses (p. 9), alors que dans le même temps les archives exercent un rôle social et sociétal essentiel. Le métier d’archiviste a de fait connu ces dernières années de profondes mutations, que la société en général ignore, puisqu’il nécessite désormais l’acquisition de vastes compétences non seulement pour gérer des fonds d’archives historiques, mais également pour apporter une réponse adaptée aux exigences et aux défis nés des nouvelles technologies de l’information et de la communication et de la société de l’information et de la connaissance. L’archiviste est ainsi sans cesse tiraillé entre ces deux exigences parfois difficiles à atteindre de concert (p. 21). Gilbert Coutaz cherche ensuite à définir dans le second chapitre ce que sont les archives. Il rend tout d’abord attentif le lecteur à la polysémie du terme « archives » en français, explique ensuite précisément le sens des termes « informations », « données », « documents » et « records », utilisés parfois indifféremment, présente les quatre objectifs que poursuivent les archives (prouver, se souvenir, comprendre et s’identifier), avant de s’intéresser à la constitution des fonds et aux modes d’entrée des archives. Il termine son chapitre par l’évocation d’un aspect fondamental du métier : l’évaluation. Et lève à ce propos un cliché tenace : l’archiviste n’est pas un adepte de la conservation effrénée, puisqu’il ne conserve définitivement que 3 à 10% des documents produits ou reçus par une organisation dans le cadre de ses activités (p. 29).
Le troisième chapitre permet à Gilbert Coutaz de montrer ses vases connaissances de l’histoire des archives en Suisse et de dresser un panorama magistral de l’évolution de ces dernières de l’avènement des chancelleries au Moyen Age à la récente professionnalisation du métier, en passant par le développement de la Registratur au début du XVIIIe siècle, l’apparition des outils archivistiques modernes au XIXe siècle (plan de classement et principe de provenance, entre autres) ou la définition de nouveaux champs d’intervention. Succède à cette rapide fresque historique un chapitre consacré à l’archivistique helvétique, qui oscille entre fédéralisme et universalité. Gilbert Coutaz dépeint tout d’abord la mosaïque des dépôts d’archives publiques en Suisse, qui reproduit l’étagement des pouvoirs politiques (confédération, cantons et communes), et démontre que l’organisation archivistique suisse repose finalement sur les Archives cantonales ou les Archives d’Etat (p. 58). Il consacre également quelques pages à l’Association des archivistes suisses, créée en 1922, qui a tout d’abord contribué à l’affirmation progressive d’une véritable communauté professionnelle et garantit désormais aujourd’hui l’expression des droits, des devoirs et des pratiques de ses membres et la qualité des prestations (p. 66). Gilbert Coutaz dresse enfin le panorama de la formation professionnelle, qui s’est mise en place très tardivement par rapport aux pays voisins et se fonde sur les trois piliers suivants : l’apprentissage, la formation HES et les études postgrades. La communauté des archivistes s’est ainsi peu à peu constituée au cours des dernières années une identité professionnelle.
Le cinquième chapitre s’intéresse, pour sa part, aux pratiques archivistiques en Suisse. Celles-ci ont résolument évolué ces dernières années vers l’amont de la chaîne documentaire ; le cycle de vie des documents forme désormais un tout à maîtriser de l’élaboration des documents et la constitution des dossiers à leur versement dans un service d’archives ou à leur élimination contrôlée. Fort de ce constat, Gilbert Coutaz propose avec beaucoup de pertinence de substituer à la théorie des trois âges des archives, théorisée par Theodore Schellenberg en 1956, la « théorie des trois statuts de l’information » (statut de production, statut de trace et statut de source de connaissance) (p. 77-79). Il s’agit d’un apport original d’Archives en Suisse, qui ouvre de stimulantes pistes de réflexion et offre un complément intéressant au principe du records continuum qui tend actuellement à devenir la norme. La maîtrise de l’information nécessite du reste de pouvoir mobiliser différents outils tout au long de son cycle de vie. Gilbert Coutaz présente ainsi en détail les outils et les méthodes de travail qui fondent la pratique professionnelle : plan de classement et calendrier de conservation, qui permettent de gérer l’information au quotidien, évaluation des dossiers au terme de leur durée d’utilité légale ou administrative, ou encore description des archives selon les normes définies par le Conseil international des archives.
Faisant écho au premier chapitre, le sixième chapitre interroge l’identité professionnelle des archivistes, qui a fortement évolué ces dernières années pour embrasser de vastes champs de connaissances liés à l’ensemble du cycle de vie des documents. Les qualifications traditionnelles en paléographie ou en diplomatique ne suffisent en effet plus et doivent désormais être complétées par des formations poussées dans les domaines de la gestion des documents et des technologies de l’information et de la communication, auxquels il convient par ailleurs d’ajouter des compétences sociales avérées que ne mentionnent pas Gilbert Coutaz, mais qui sont pourtant essentielles dans l’exercice du métier au quotidien. Le profil de qualification rapidement brossé est certes exigeant, mais il correspond aux attentes placées dans les archivistes, qui doivent pouvoir exercer un rôle absolument central dans leur propre organisation en tant qu’expert de l’information. Comme l’énonce le septième et dernier chapitre, en guise de conclusion, « les archivistes doivent être actifs, coopératifs et vindicatifs, convaincants et visionnaires. Ils doivent exprimer leurs préoccupations, défendre leurs compétences et souligner leur niveau d’expertise, rechercher partout où cela est possible des collaborations et des alliances pour combler leurs lacunes, dénoncer les dérives, les manipulations et les négligences en matière de gestion d’archivage » (p. 124).
Archives en Suisse est ainsi une contribution majeure sur le rôle et la place des archives et de l’archiviste dans la société actuelle. Destiné à un large public, l’ouvrage explique de manière didactique et érudite, dans un langage simple, les enjeux qui sous-tendent actuellement la profession et qui permettent à la fois de garantir une gouvernance transparente et responsable, et de constituer, conserver et transmettre aux générations à venir la mémoire individuelle et collective de notre temps. Destiné aux historiens, l’ouvrage tend à montrer qu’un fonds d’archives dépend fortement des conditions qui ont présidé à son élaboration et à sa prise en charge, et qu’il convient par conséquent de tenir davantage compte du contexte d’origine des sources sous peine de mal les interpréter. Destiné aux archivistes, l’ouvrage explique parfaitement l’évolution du métier à travers le temps, à travers ses lignes de permanence et de fracture, et permet ainsi d’ancrer la profession dans un long terme qui gagnerait à être mieux connu. Destiné aux décideurs, enfin, l’ouvrage montre la plus-value que peut apporter aujourd’hui un archiviste au sein de la société de l’information et de la connaissance, par ses nombreux champs d’expertise, ou au sein d’une organisation, qu’elle soit publique ou privée, en termes de gestion de l’information. Il s’agit d’une évidence : un service d’archives est un véritable centre de compétences en matière de gestion de l’information, qui dispose des connaissances nécessaires pour apporter des réponses crédibles, pragmatiques et durables aux besoins exprimés dans ce domaine par une organisation et ses collaborateurs. C’est ce message qui fait de l’archiviste un acteur central et recherché qu’il convient de retenir en priorité de l’ouvrage de Gilbert Coutaz.
Archives en Suisse dresse le portrait d’un archiviste qui travaille en étroite collaboration avec différentes professions pour maîtriser l’information tout au long de son cycle de vie. L’ouvrage évoque ainsi régulièrement la nécessaire coopération avec les informaticiens et les « administratifs » dans le cadre des projets de gestion des documents (p. 93). Dans ce contexte, le contenu du chapitre consacré aux collaborations entre archives, musées et bibliothèques, intitulé « Evitons l’amalgame », est difficilement compréhensible. S’il convient bien évidemment de relever les différences de métier fondamentales qui existent entre ces trois domaines, il me paraît tout aussi important de souligner les collaborations fructueuses qui ont pu être instaurées ces dernières années entre archives, musées et bibliothèques et qui ont débouché sur la mise en œuvre de solutions novatrices et durables, où le rôle des archives a du reste été réaffirmé, voire même renforcé. Quant à la question du rattachement institutionnel, elle me semble mal posée. C’est en effet la figure de l’archiviste, capable d’apporter des réponses crédibles aux besoins de son organisation en termes de gestion des documents et des archives, qui doit être davantage mise en avant que la structure organisationnelle en tant que telle. Si l’on fait aujourd’hui appel à un archiviste au sein d’une organisation, c’est avant tout pour son savoir-faire et non pas en raison de son rattachement hiérarchique à telle ou telle entité. Du moins j’ose l’espérer. Qu’il me soit du reste permis de préciser ici qu’Archives en Suisse se place dans la série « Opinion » de la collection « Le savoir suisse », qui permet aux auteurs invités d’exprimer des vues personnelles sur certaines thématiques. Gilbert Coutaz émet ainsi une position personnelle sur les relations entre archives, musées et bibliothèques, qui n’est pas forcément partagée par l’ensemble de la communauté archivistique.
Finalement, il reste à espérer qu’Archives en Suisse soit diffusé au-delà de la seule communauté des archivistes, qu’il suscite le débat d’idées sur la place de l’archiviste dans la société de l’information et de la connaissance et qu’il nourrisse les réflexions sur le rôle social et sociétal des archives en Suisse et dans le monde.
- Vous devez vous connecter pour poster des commentaires
La conservation numérique: un enjeu de taille! Retour sur la 3e École d’été internationale francophone en sciences de l’information et des bibliothèques
Ressi — 31 décembre 2016
Eunsu Ahn, ENSSIB
Camille Delaune, ENSSIB
Hésione Guémard, ENSSIB
Colin Harkat, ENSSIB
La conservation numérique: un enjeu de taille!
Retour sur la 3e École d’été internationale francophone en sciences de l’information et des bibliothèques
Entre le 27 juin et le 9 juillet 2016, s’est tenue la 3e édition de l'École d’été internationale francophone en sciences de l’information et des bibliothèques. L’École des Bibliothécaires, Archivistes et Documentalistes (EBAD)[1] de l’Université Cheikh Anta Diop (UCAD) (Dakar, Sénégal) a, à cette occasion[2], accueilli chaleureusement pendant deux semaines des étudiants, des professionnels de bibliothèques, de centres de documentation et d’archives, afin de réfléchir ensemble sur les enjeux de la « conservation numérique ». L’école a été l’occasion de suivre des cours et des ateliers, dispensés principalement par Tristan Müller, directeur du service numérisation de la Bibliothèque et Archives Nationales du Québec (BAnQ, Montréal, Canada), d’écouter des retours d’expériences[3], moments forts d’échanges et de débats, et de faire des visites ciblées. Cet article résume l’essentiel des cours et des retours d’expériences, et livre également nos réflexions sur l’espace et la numérisation, la diffusion et la préservation, nous qui avons été des participants à cette 3ème édition de l’école d’été (et qui sommes étudiants en master professionnel à l’ENSSIB).
Espace et numérisation
Cette école d’été a apporté des connaissances sur la gestion de l’espace, car un des atouts indéniable de la numérisation est le gain qu’elle permet d’envisager de ce point de vue dans les structures de conservation. Papa Cheikh Thiéfaye DIOUF, archiviste au service des archives et de la documentation de la Faculté des lettres et sciences humaines de l’UCAD, explique que « la gestion de l’espace est l’une des priorités largement partagée par les spécialistes de l’information documentaire. En effet, les archivistes, les bibliothécaires et les documentalistes, après élimination pour les uns ou désherbage pour les autres, gagnent un minimum d’espace destiné à de nouvelles acquisitions ou à de nouveaux versements ».Nous notons que cette « gestion de l’espace » possible grâce aux projets de numérisation est parfois directement une réponse à des situations d’urgence. Julie Mbarga, de la Bibliothèque Universitaire de l’Université de Douala au Cameroun, illustre ce type de situations avec cet exemple : «des seaux par-ci, par-là sur le sol d’une mezzanine de 300m2 environ qui sert de salle de lecture à cent usagers par jour (chercheurs et étudiants) et de bureau à quinze membres du personnels, du fait d’une étanchéité délabrée. Tel est le spectacle peu reluisant qu’offre cette bibliothèque en saison de pluie». Mais il faut noter que la situation critique n’est qu’un facteur dans la décision de mettre en place le processus de numérisation. La volonté de diffuser largement, et parfois même au delà de nos frontières, est également un argument de mise en place d’un projet de numérisation.
Diffuser auprès du public: une priorité!
La numérisation des fonds répond souvent à une forte demande de consultation des lecteurs. Le flux permanent des arrivées de documents rend d’autant plus indispensable le suivi des projets. L’école d’été n’a fait que rappeler ces deux aspects essentiels dans l’esprit des participants. En effet, Julie MBARGA témoigne « les cours, les ateliers, les échanges, les visites en entreprises dont nous avons bénéficié, grâce à une bourse de l’AIFBD (Association internationale francophone des bibliothécaires et documentalistes), nous ont montré l’urgence de sauvegarder sous forme numérique, et de mettre en ligne le fonds documentaire de la Bibliothèque universitaire (BU), particulièrement les thèses, les mémoires, les rapports de stage, les actes de décrets présidentiels, contenus dans le quotidien national bilingue du Cameroun : « Cameroun Tribune » que la BU reçoit chaque jour depuis 2003, du fait de la demande forte de notre public ». El Hadji Birame DIOUF, Conservateur des bibliothèques au centre de documentation de l’Institut Fondamental d’Afrique Noire (IFAN, Dakar, Sénégal) ajoute que l’Ecole d’été «a permis de prendre conscience que la conservation numérique de l’information ne signifie pas uniquement éviter l’effacement ou la perte des données ou les conserver intacts et intègres. Mais, cela signifie aussi conserver leur intelligibilité, leur lisibilité et la possibilité de les réutiliser pour satisfaire le besoin informationnel des usagers». Cette réflexion nourrie durant l’école d’été a donc amené les professionnels en poste à concrétiser dans un avenir proche des projets, comme c’est le cas avec Armand N’DA KOUADIO, bibliothécaire stagiaire à l’Institut de Géographie Tropicale (IGT) en Côte d’Ivoire : « à travers cette formation [à l’école d’été], je souhaiterais mettre en place un dépôt numérique à l’IGT. La mission primordiale de ce dépôt est de préserver et diffuser les documents aux étudiants et aux enseignants chercheurs. Pour réussir cette mission, nous allons mettre en place une politique de numérisation. Cette politique n’est pas limitée à l’action de convertir un document analogue dans une forme numérique, mais comprend également toutes les activités pouvant amener la mise en ligne d’une copie numérique accessible. Alors, plusieurs professionnels en sciences de l’information documentaire et informaticiens peuvent être appelés à participer à ces activités, qui incluent notamment, la sélection des documents originaux, la création des métadonnées, la conversion numérique, les opérations de post-numérisation et la mise en ligne des documents numérisés ».
La bibliothèque de l’Institut de Géographie Tropicale après la crise post-électorale de 2010.
À gauche: Documents en attente de traitement. À droite: Documents traités et rangés dans les rayons : Source des images : Armand N’DA KOUADIO juillet 2014.
Par ailleurs, nous avons eu la chance d’assister au retour d’expérience de Sophie MADIBA sur le Centre de Recherche et de Documentation sur les Traditions et Langues Africaines Cerdotola (Yaoundé, Cameroun) qui s’est interrogée sur comment organiser la conservation d’une collection orale ? En effet, comment collecter et diffuser un patrimoine oral afin de le conserver et de le transmettre au grand public, dans l’optique de ne pas l’oublier ?
Et maintenant ? Se préparer et persévérer
Tristan MÜLLER a voulu attirer l’attention des étudiants sur la préservation à long terme : sur l’importance de connaître la technologie, comme par exemple la rétrocompatibilité, un concept notable. En effet, même si les documents numériques sont conservés, le matériel informatique et les logiciels actuels, les formats de fichier, ne sont pas forcément adaptés à leur lecture. Travailler sur la compatibilité implique de préserver les technologies, les ordinateurs comme les logiciels, ou alors émuler ces derniers, c’est-à-dire chercher à imiter un comportement physique d’un matériel sur un environnement informatique actuel.
De plus, cette démarche de numérisation implique des enjeux financiers et humains que dorénavant personne ne peut ignorer. Par exemple, la question de savoir comment réutiliser les « métadonnées issues des fichiers numériques » est apparue. Par ailleurs, comment « prioriser la conservation d’une collection » ? De nombreuses interrogations ont été soulevées sur cette thématique. En effet, qu’est-ce qui permet de sélectionner un fonds plus qu’un autre ? Prioriser la numérisation d’un fonds est souvent le témoin de la sauvegarde d’un patrimoine déjà en péril. Par exemple, Aminata CISSE, et Nathalie ALOU (respectivement conservateur et assistante conservateur au Ministère de l’Economie et des Finances à Abidjan, Côte d’Ivoire) vont mener un projet de numérisation d’une publication en série[4] en mauvais état afin de la préserver. Pour illustrer ces interrogations et prolonger les échanges, les ateliers, et plus particulièrement le deuxième[5], ont permis de se questionner sur les lois et règles en vigueur (nationales et internationales) relatives à la préservation, la conservation et à la communication des documents.
Papa Cheikh Thiéfaye DIOUF rappelle qu’ « en tant que professionnel dans le domaine de l’information documentaire et étant averti, l’ambition d’être à la hauteur du temps (l’ère du numérique) ne doit en aucun cas nous pousser à ne pas prendre en compte les exigences très subtiles de la numérisation. N’eût été la nouvelle conception que l’on a aujourd’hui de la numérisation après avoir suivi les ateliers de l’école d’été, on serait aisément « séduit » par les avantages qu’elle offre (dématérialisation, gain d’espace physique, visibilité) sans pour autant s’arrêter un instant sur les préalables que requiert un projet de numérisation ». En effet, les apprenants se sont totalement appropriés, tant d’un point de vue théorique que pratique, les enseignements afin de les intégrer dans leurs milieux professionnels prochainement. Aujourd’hui, Adjovi Essenam FUMEY, étudiante en Master à l’EBAD affirme : « je me sens donc plus opérationnelle dans le cadre de mon emploi actuel pendant lequel nous sommes appelés à muter les documents audiovisuels et audio sur des supports en vu de leur diffusion et de leur conservation ».
Enfin pour conclure, les étudiants de l’Enssib recommandent une participation aux futures écoles d’été. En effet, « en tant que futurs professionnels nous sommes ravis d’avoir participé car au delà de tous ces apprentissages, cette école d’été a été l’occasion pour nous d’échanger culturellement et professionnellement ». La quatrième édition de l’école d’été se déroulera à l’EBSI, l’Ecole de bibliothéconomie et des sciences de l’information à Montréal, (Québec, Canada), et nous espérons vous y voir nombreux !
Eunsu Ahn, Camille Delaune, Hésione Guémard, Colin Harkat
(étudiants en master professionnel à l’Enssib et ayant participé à la troisième édition de l’école d’été internationale francophone en sciences de l’information et des bibliothèques).
Notes
- Complément d’informations sur le programme : http://www.ebad.ucad.sn/sygea/Ecole_ete_2016.html
- Le site web (https://2eifsib.wordpress.com/) met à disposition toutes les informations complémentaires.
[1]Les représentants de chaque école sont intervenus durant la cérémonie d’ouverture le lundi 27 juin 2016. Une video est disponible sur la chaîne télévisée RTS (Radiodiffusion Télévision Sénégalaise).
[2]Après une première édition à l’École de bibliothéconomie et des sciences de l’information (EBSI, Montréal, Canada) sur la thématique « marketing et médiation numérique en bibliothèques » et une deuxième à l’École nationale supérieure des sciences de l’information et des bibliothèques (Enssib, Villeurbanne, France) sur « patrimoine, public, numérique », en 2016 le partenariat se renforce puisque la Haute École de Gestion (HEG, Genève, Suisse) a rejoint l’organisation.
[3]Sophie MADIBA sur le Centre de Recherche et de Documentation sur les Traditions et Langues Africaines (Cerdotola) (Yaoundé, Cameroun); Yvonne Berthe CISSE NOUDOFININ sur la Bibliothèque Centrale de l'Université Cheikh Anta Diop de Dakar (Sénégal); Christian CHABRIER de la société privée de numérisation de fonds anciens Arkhênum (Bordeaux, France); Mor DIEYE de la section Archives de l’EBAD (Dakar, Sénégal).
[4]Elles déclarent : « En effet, notre production REF [Revue Économique et Financière] qui retrace la mémoire économique de la CI [Côte d’Ivoire] est en danger. Un inventaire effectué en 2015, nous révèle que les premiers numéros de cette publication sont en voie de disparition. Nous souhaitons conduire des numérisations des dix premiers numéros de la revue économique et financière ivoirienne. Ce projet permettra la sauvegarde de ce patrimoine et sa diffusion auprès de larges publics ».
[5]Le deuxième atelier portait sur le cas précis des Archives de la construction de la Grande Mosquée de Dakar. L’exercice consistait à estimer les risques, leurs impacts, et ensuite d’imaginer les moyens de prévention pour limiter ces incidents.
- Vous devez vous connecter pour poster des commentaires
Quelle gouvernance informationnelle pour une PME High Tech ?
Ressi — 31 décembre 2016
Aurèle Nicolet, Haute Ecole de Gestion, Genève
Résumé
Le présent article résume et condense un travail réalisé dans le cadre du Master en sciences de l’Information durant la première partie de l’année 2016.
Alpes Lasers, petite entreprise neuchâteloise, fait appel à la Haute école de gestion pour l'aider à mettre en place une gouvernance de l'information. Une enquête est menée sous la forme d'un état des lieux des documents et des pratiques documentaires. Deux instruments de collecte sont utilisés : un inventaire typologique et des entretiens semi-structurés avec les responsables des différentes unités. L'enquête pointe plusieurs lacunes que l'on peut résumer en un manque de vision d'ensemble de la gestion de l'information au sein de l'entreprise et une absence de maîtrise du cycle de vie documentaire. Suite à ces résultats, plusieurs recommandations sont formulées : définition d’une politique, nomination d’une personne responsable et mise en place d’outils méthodologiques (plan de classement, calendrier de conservation, politique de nommage, plan de gestion des données et plan de protection des documents essentiels).
Quelle gouvernance informationnelle pour une PME High Tech ?
Introduction
Fondée en 1998, Alpes Lasers est une jeune société anonyme spécialisée dans la recherche et le développement de laser à cascade quantique, une technologie relativement nouvelle, puisque les premiers essais concluants ont été menés au début des années 90 et les premières commercialisations ont commencé à l’orée des années 2000 (Quantum cascade laser 2016).
Constatant des difficultés à gérer efficacement son information, l’entreprise contacte la Haute école de gestion et lui demande de l’accompagner dans une démarche de gouvernance informationnelle, sous la forme d’un mandat. Deux principaux objectifs sont établis : cartographier les ressources informationnelles et formuler des recommandations.
Méthodologie
Afin de réaliser notre premier objectif, nous avons mené une enquête qui visait à dresser deux états des lieux, celui des ressources documentaires de l’entreprise et celui de ses pratiques de gestion de l’information.
Pour le premier point, nous avons choisi d’établir un inventaire typologique. Pour le second, nous avons opté pour des entretiens semi-directifs. En plus de ces deux états des lieux, nous avons également procédé à une analyse des exigences légales et réglementaires auxquelles est soumise l’entreprise.
Inventaire typologique
Pour réaliser notre inventaire, nous nous sommes inspirés de travaux préexistants, comme celui qu’a réalisé Mme Conus dans le cadre de son travail de Bachelor (Conus 2013, p.77). Nous avons aussi fait le choix de ne concevoir qu’une seul grille, prévue aussi bien pour les documents papiers que pour les documents numériques, car, pour Jean-Pascal Perrein, la non-différenciation du format est l’un des cinq piliers de la gouvernance informationnelle (Perrein 2014a). Notre grille comporte dix entrées :
- Numéro de référence
- Lieu de conservation
- Titre du dossier : Il s’agit du titre inscrit sur le classeur ou la boîte d’archive ; pour les documents numériques, le nom du dossier ou du sous-dossier.
- Description : le détail du contenu lorsque le titre n’est pas assez explicite ou inexistant.
- Dates extrêmes
- Unité productrice : cela désigne l’unité créatrice des documents ou de leur enregistrement.
- Nature du support
- Volume : il est donné en mètres linéaires pour les documents papier et en kilo-octet pour les documents numériques afin de faciliter la conversion en giga-octet.
- État : Pour l’état de conservation, nous avons créé une échelle de trois degrés : bon, moyen et mauvais. Le niveau « mauvais » correspond à un état critique, tels que des moisissures, de l’urine ou d’autres éléments affectant l’intégrité des documents. Le niveau « moyen » est utilisé pour des documents présentant des pliures ou des déchirures, mais qui ne nuisent pas à son intégrité. Enfin, le niveau « bon » correspond à des documents ne présentant pas de dégâts ou extrêmement minimes. Comme l’échelle peut difficilement être reportée pour les documents numériques, nous avons utilisé l’entrée pour noter d’éventuels problèmes de lecture des fichiers.
- Remarques : elles ont été utilisées pour des notes comme des indications données lors des entretiens ou des constatations au moment de l’inventaire.
Pour commencer notre inventaire, nous sommes partis de la liste de classeurs et de boîtes fournie par l’assistante administrative. Très vite, nous avons constaté que cette liste ne reflétait plus la réalité du terrain. En raison d’un récent déménagement, les lieux de stockage indiqués ne correspondaient plus et les classeurs/boîtes ne respectaient plus un ordre logique. Ainsi, différents éléments d’une même série se retrouvaient dispersés sur plusieurs étagères. De plus, des cartons contenant des classeurs de la filiale allemande n’avaient pas été ouverts.
Tous ces éléments ont engendré un retard sur le planning prévu et nous ont amené à continuer l’inventaire en parallèle des entretiens. Cependant, ce délai supplémentaire n’a pas été uniquement négatif, puisque les entretiens nous ont permis d’affiner notre compréhension sur certains dossiers et de découvrir l’existence de séries de documents que nous n’aurions pas soupçonnée.
Une fois terminé l’inventaire de documents papier, nous nous sommes attaqués aux documents numériques et avons exploré l’espace partagé « Common », le principal lieu de stockage en dehors des bases de données. Nous nous sommes heurtés à deux difficultés : le degré de détail de l’inventaire et l’identification du producteur. En effet, pour des documents physiques, le niveau de description est assez facile. Il s’agit généralement du classeur ou de la boîte d’archives. Dans le cas d’un dossier numérique, la séparation est plus difficile. Nous avons finalement opté pour une description au niveau du sous-dossier, nous réservant néanmoins le droit d’adapter ce niveau de description selon les cas rencontrés. Ainsi, l’organisation labyrinthique du dossier « Admin » nous a amené à affiner le degré de détail, alors que le dossier « Measurement », dont le type de contenu est extrêmement répétitif et standardisé, a été décrit au niveau du dossier.
Pour le deuxième problème, celui de l’identification claire d’un producteur, deux cas se présentaient. Dans l’un, le créateur du fichier ou du dossier n’était pas humain. On peut prendre comme exemple les programmes de mesure qui créent automatiquement des fichiers dans le dossier « Measurement ». Dans l’autre cas, le producteur est humain, mais nous ne possédons aucune indication de son nom ou de sa fonction. Or, au sein de l’entreprise, des personnes peuvent cumuler plusieurs responsabilités et les dossiers peuvent contenir des fichiers appartenant à des services différents.
Ces éléments problématiques ont rendu difficile l’établissement d’une comparaison claire entre les dossiers numériques et les dossiers papier.
Entretiens
Sur la base de l’organigramme, nous avons sélectionné huit personnes à interviewer : les différents de chefs de service/unité, l’assistante administrative et le CEO. Puis, nous avons préparé un guide d’entretien, basé sur un exemple fourni par notre directrice de mémoire (Makhlouf Shabou [ca. 2016]) et sur l’article de Crockett et Foster qui propose plusieurs questions à poser aux producteurs d’archives (Crockett et Foster, 2004, p. 51). Nous avons choisi d’orienter la discussion autour de trois éléments : les fonctions et activités du collaborateur, les problèmes d’accès à l’information et ses pratiques de gestion et d’archivage des documents. Une dernière partie permettait à l’interviewé d’exprimer ses attentes vis-à-vis du projet.
Une fois le guide terminé, nous avons contacté les collaborateurs afin de préciser le but de notre rencontre et fixer une date de rendez-vous. Les entretiens ont duré environ quarante-cinq minutes. Pour une meilleure flexibilité et afin que nos interlocuteurs soient plus à l’aise pour présenter leurs pratiques et problèmes, nous avons fait le choix de ne pas enregistrer les entretiens. Une fois les notes mises au propre, nous en avons envoyé une copie afin de les faire valider par le participant.
Résultats
Volumétrie
Commençons par la volumétrie. Alpes Lasers compte environ 50 mètres linéaires et 360 Go de données numériques. Pour des raisons de calcul, nous avons séparé les documents numériques des documents papier, car il est difficile d’établir une comparaison entre le poids d’un fichier et un métrage linéaire (Chabin 2013).
Figure 1 : Volumétrie des documents papier par service
Trois unités se partagent un peu plus de 90% de la masse documentaire papier. Il s’agit de l’assistante administrative (53%), de la filiale allemande AL-Technologie (23%) et de l’unité Back-End (17%) qui s’occupe du montage, de l’analyse des mesures et de la sélection des lasers. Leur prédominance s’explique assez bien. L’assistante administrative a la charge de la comptabilité, des ressources humaines, des relations avec les fournisseurs ou encore des dossiers des clients. Pareillement, nous retrouvons pour AL-Technologie les dossiers comptables, ceux du personnel et les différentes commandes passées. Or, malgré le développement du numérique, tous ces éléments restent encore très souvent sous format papier. Pour l’unité Back-end, la majorité de ses documents sont des feuilles de mesure et des ordres de fabrication, qui jusqu’à présent étaient systématiquement imprimés.
Concernant la volumétrie de l’espace partagé « common », en raison du problème d’identification claire des producteurs évoqué plus haut, il nous était impossible de la présenter par service. Nous avons donc fait le choix de garder la structure de l’espace.
Figure 2 : Volumétrie des dossiers de l’espace partagé « common »
Quatorze dossiers composent l’espace partagé, mais n’ont pas tous la même importance. Nous pouvons tout de suite remarquer le poids important du dossier « Measurement » et celui dérisoire (<1%) de six dossiers. Pour quatre d’entre eux (« Attic », « Exe », « Lost and founds » et « Test set perms »), la raison est simple. Il s’agit de dossiers utilisés par l’unité IT comme débarras, zone de test ou d’aide à l’installation de programme. Concernant les deux derniers, l’explication est différente. « Produits » est un dossier récemment créé, dont une grande majorité de ses sous-dossiers sont vides, car la documentation pour les produits n’est pas encore rédigée. Enfin, la légèreté du dossier « Documentation » tient à la nature de ses documents : modèles, manuels et autres fichiers de texte.
Besoins et environnement d’Alpes Lasers
En parallèle de l’enquête menée via l’inventaire et les entretiens, nous nous sommes intéressés aux besoins et à l’environnement d’Alpes Lasers afin de les prendre en compte dans notre projet de gouvernance. Trois points sont ressortis : les objectifs stratégiques, les exigences réglementaires et normatives, ainsi que les besoins du secteur.
Puisqu’il n’existe pas de document présentant explicitement les objectifs stratégiques de l’entreprise, nous avons demandé au CEO de nous en dresser une liste. Trois objectifs sont ressortis, qui s’avèrent davantage opérationnels que stratégiques : la réduction du risque de développement, l’optimisation de la prévisibilité de la production et la maximisation des opportunités de comprendre les mécanismes sous-jacents. Ce sont trois éléments que nous pouvons relier à ceux de tout programme de gouvernance informationnelle (GlassIG 2016) : minimiser les risques, minimiser les coûts et optimiser la valeur.
Concernant la législation et dans le domaine qui nous intéresse, Alpes Lasers est principalement soumise, comme toute société anonyme, au Code des Obligations et à l’Ordonnance concernant la tenue et la conservation des livres de comptes (Olico). À ces deux textes, nous pouvons ajouter l’article 70 de la loi sur la TVA qui précise certains délais de conservation dans le cas des créances fiscales. De plus, comme la société a pris en charge les documents de sa filiale située en Allemagne en cours de fermeture, elle est également soumise à la législation allemande.
Pour les entreprises, la recherche et le développement jouent un rôle important, particulièrement dans un domaine novateur comme les lasers à cascade quantique. Deux éléments sont à prendre en compte : les brevets et les données de la recherche.
La quantité de brevets détenus par une société est un élément fondamental dans la course à l’innovation (Seuillot 2015). Ainsi, l’un des fondateurs d’Alpes Lasers, Jérôme Faist a presque dû réinventer le laser à cascade quantique, car les brevets de son invention « appartenaient aux Laboratoires Bell et étaient bloqués » (Fonds national suisse 2007, p. 2).
Depuis plusieurs années, les milieux universitaires et les organismes de financement s’intéressent à la gestion des données de la recherche et surtout à leur réutilisation possible. Ainsi, dans le cadre du programme Horizon 2020, l’Union européenne a lancé un projet pilote qui demande à chaque groupe de chercheurs un plan de gestion des données ou data management plan (DMP). Ce document planifie la gestion des données durant toute la durée d’un projet et au-delà, s’intéressant aux questions de conservation et de diffusion de données. Pour le moment, en Suisse, la rédaction d’un DMP n’est pas encore obligatoire, mais fait partie des mesures du programme pluriannuel 2017-2020 du Fonds national suisse de la recherche scientifique.
On pourrait être tenté de croire que l’adoption d’un DMP ne concerne que la recherche publique, car il a trait à l’ouverture des données, un élément qui coïncide peu avec des intérêts commerciaux. Cependant, il faut bien prendre garde à ne pas assimiler la gestion des données de la recherche à leur partage systématique (Donnelly 2015, p.11). En fait, les entreprises peuvent tirer plusieurs bénéfices d’un DMP, comme une amélioration du flux de données, une plus grande efficacité dans l’enregistrement ou encore la réutilisation des données au sein de l’entreprise (Beagrie, Pink 2012, p. 3).
Problèmes constatés
Notre enquête nous a permis de relever plusieurs éléments problématiques que nous avons ensuite apprécié selon les principes d’ARMA, car « [ils] forment les bases à partir desquelles tout programme efficace de gouvernance de l’information est élaboré, évalué et – que l’organisation ou son personnel les connaisse ou non – un jour ou l’autre jugé. » (ARMA International 2015, p. 2).
Commençons par l’absence d’une direction de l’information qui touche au principe de responsabilité. Cela entraine un manque de vision d’ensemble permettant de coordonner les efforts de chacun. Ainsi, chaque collaborateur développe sa propre méthode sans avoir connaissance de celle des autres ou de retour sur la sienne, un manque qui a plusieurs fois été exprimé lors des entretiens.
Le second élément problématique est celui de la disponibilité. Il est difficile d’accéder à l’information, en dehors des dossiers connus et utilisés régulièrement. Plusieurs facteurs peuvent l’expliquer. Tout d’abord, chaque unité a sa propre méthode de classement. Ensuite, il n’y a pas de processus d’élimination des éléments obsolètes ou redondants, ce qui engendre du bruit. Enfin, l’environnement informatique hétérogène rend l’accès difficile à certains programmes.
Lors de l’inventaire, nous avons relevé la difficulté d’identifier clairement le producteur. Cette absence d’information sur le contexte de création, comme l’identité de l’auteur, rend problématique la vérification de l’authenticité et de la fiabilité d’un document et donc au principe d’intégrité.
D’une manière générale, Alpes Lasers veille à la protection de ses données et à leur confidentialité. Cependant, lors de nos entretiens, nous avons appris que plusieurs collaborateurs utilisaient des services comme Dropbox ou Google Drive pour le travail à distance ou le partage de documents avec des personnes externes à l’entreprise, comme des fournisseurs ou des clients. Cela pose des problèmes de perte de maitrise de l’information, car les conditions exactes de stockage et de protection de ces fournisseurs sont peu transparentes.
En ce qui concerne les principes de conservation et de disposition de l’information, nous relevons l’absence d’un sort final pour les documents. Une fois créés, ils sont conservés, quelle que soit leur valeur. Ceci engendre plusieurs problèmes. Tout d’abord, la présence de documents redondants ou obsolètes entraine un bruit lors des recherches. Ensuite, tôt ou tard, se posera la question de la place.
Enfin, le dernier point problématique touche au principe de transparence. Alpes Lasers documente peu ses processus ou sa production. Cette absence de documentation est caractéristique des PME, « car la proximité permet les échanges oraux sans formalisation écrite » (Hassanaly 2013, p.47). À ce titre, le choix adopté par l’unité IT de proposer une aide ponctuelle plutôt que de concevoir des manuels d’utilisateur est particulièrement illustratif. Consciente de cette lacune, l’entreprise a entrepris des efforts dans ce sens, mais la démarche est récente et apparaît peu dans les entretiens, ce qui tend à penser que cela n’a pas encore été bien intégré par les collaborateurs.
Recommandations
À partir des résultats de l’enquête et des lacunes constatées, nous avons exprimé une série de recommandations qui s’articule autour de trois points : définition d’une politique, engagement d’une personne responsable de l’information et adoption d’outils méthodologiques.
Définir une politique de gouvernance informationnelle
Document qui traduit l’engagement de la direction dans la gestion de l’information, la politique de gouvernance informationnelle cadre et légitime « un ensemble d’exigences et de règles, formalisées et rendues applicables dans un référentiel ». (Perrein 2013). Elle possède quatre objectifs (Makhlouf Shabou 2015, p. 8) :
- Consigner la stratégie et les décisions prises concernant la gouvernance ;
- Communiquer cette stratégie et les décisions prises à l’ensemble de l’organisation ;
- Impliquer la direction ;
- Uniformiser les pratiques.
Comme il s’agit d’une pratique encore peu répandue, il n’existe, pour le moment, pas de modèle canonique. Cependant, différents éléments tendent à se retrouver dans les politiques que nous avons analysées. On trouve souvent un exposé des bénéfices et des objectifs, une définition des rôles et responsabilités, et enfin une liste des normes et des standards auxquels se référer.
Pour réaliser une première version de notre politique de gouvernance, nous nous sommes inspirés de celle de l’Université de Lausanne (UNIRIS 2014a). Deux éléments ont présidé ce choix. D’une part, son cadre légal est, en partie, similaire à celui d’Alpes Lasers : les deux organisations sont suisses. D’autre part, la forme claire et didactique nous semblait parfaitement convenir pour une entreprise qui n’est pas familiarisée avec les questions de gouvernance. Il faut toutefois noter que la politique proposée dans notre travail, l’est à titre d’illustration. Mettre en place une politique nécessiterait plus de temps que ce que nous avions à disposition.
Nommer une personne responsable
Tous (ARMA International 2015, p. 2 ; Perrein 2015) s’accordent sur l’importance de nommer une personne ou une entité dédiée à la gouvernance de l’information. Dans notre travail, nous avons envisagé de confier cette responsabilité à une seule personne, mais, suite aux remarques de notre expert, il nous semble plus intéressant d’établir un comité en charge de la gouvernance et d’avoir une personne spécialiste de l’information pour sa mise en application. Concernant cette personne, trois scénarios sont possibles : l’engagement d’un ou d’une professionnelle à 40%, l’appel à une entreprise spécialisée ou un partenariat avec la Haute école de gestion.
L’engagement d’un professionnel offre plusieurs avantages. La personne est intégrée dans la société et a une bonne connaissance de ses processus et de ses ressources, ce qui facilite la coordination entre les différents acteurs, comme l’IT, la direction et les producteurs d’information. De plus, elle peut plus facilement s’engager dans des projets à long terme comme la valorisation des archives définitives. Seul inconvénient, l’engagement est une charge fixe, difficile à moduler selon les ressources financières de l’entreprise.
L’appel à une société spécialisée, par rapport à l’engagement d’une personne fixe, offre un avantage d’ordre budgétaire, puisqu’il est plus facile d’ajuster la dépense selon la situation financière ; mais en raison de son externalité, elle risque de ne pas avoir une vision d’ensemble et de coordination entre les services et donc de ne pas conduire à une véritable gouvernance de l’information.
Enfin, le troisième scénario, un partenariat avec la Haute école de gestion, dispose des mêmes avantages et inconvénients que le deuxième. Nous retrouvons une dépense moindre, puisqu’il s’agit d’étudiants en formation, mais le problème d’externalité est augmenté. En effet, il est difficile de disposer d’une vision d’ensemble, lorsque chaque étudiant doit s’approprier le contexte de l’organisation. Le troisième scénario pourrait davantage prendre la forme de mandats ponctuels portant sur des éléments précis, tels que la mise en place d’un plan de classement ou d’un calendrier de conservation.
Mettre en place des outils méthodologiques
Plan de classement
Selon la norme ISO 15489, le plan de classement a trois usages (ISO 15489-2, p. 9). D’une part, il permet d’organiser, décrire et articuler les documents. Il sert également à relier et à partager les documents communs à plusieurs entités, en interne comme à l'extérieur de l'organisme. Enfin, il offre la possibilité d’améliorer l'accès, la recherche, l'utilisation et la diffusion des documents de la manière la plus appropriée.
Une fois le plan de classement validé, se pose la question de sa mise en place. La commission « Records Management » de l’association des archivistes français considère trois stratégies : la renaissance, la reprise partielle ou la reprise totale (Groupe interassociation AAF-ADBS "Records Management" 2011, p. 29).
La stratégie de la renaissance consiste à arrêter une date à laquelle l’ancienne arborescence ne peut plus être modifiée. Seule la lecture est autorisée et les documents ne sont pas repris dans le nouveau classement. L’avantage de cette méthode tient à sa simplicité et à la possibilité de repartir à zéro. Cependant, le constant va-et-vient entre les deux structures risque d’entretenir la confusion plutôt que la dissiper.
La stratégie de la reprise partielle laisse les documents non essentiels et inactifs dans l’ancienne structure et rapatrie les autres dans la nouvelle. Cette option offre un bon compromis. La dépense en temps est moindre que pour la reprise totale. Son principal point noir est le risque de prolonger la transition entre les deux systèmes, mais le problème est moins important que pour la stratégie de renaissance.
La stratégie de la reprise totale fait le choix d’abandonner complètement l’ancienne arborescence et de transférer l’ensemble des documents sur la nouvelle. Cela a le mérite d’assurer une cohérence et une unité à l’ensemble, mais le coût en temps et en moyen est énorme. De plus, il existe un risque, faible mais réel, que certains documents ne puissent être repris dans la nouvelle structure, si certaines activités de l’entreprise ont changé, par exemple.
Pour notre part, nous recommandons cette dernière stratégie. Certes, l’investissement en temps est important, mais ce délai peut être mis à profit en éliminant les éléments obsolètes parallèlement au transfert des documents.
Calendrier de conservation
Présenté généralement sous la forme d’un tableau, le calendrier de conservation répertorie les différents types de documents d’une organisation et définit plusieurs éléments : le responsable de l’exemplaire principal et ceux des exemplaires secondaires pour chaque type de document ; la durée de conservation du document lorsqu’il n’est plus actif et enfin le sort final du document (élimination ou archivage définitif). Cela permettra à Alpes Lasers de maitriser le cycle de vie de ses documents.
Politique de nommage
Un nommage clair et précis rend facile l’identification et la classification des documents. Il peut en outre pallier à une absence de métadonnées (UNIRIS 2014b). Il convient cependant de ne pas imposer une politique artificielle, mais d'harmoniser les pratiques déjà existantes, car le succès dépend de plusieurs éléments, comme la consultation et l'adhésion des utilisateurs (Scaglione 2016, p. 4).
Plan de gestion des données de la recherche
En raison de la part importante de la recherche et du développement au sein d’Alpes Lasers, il nous semble important de mettre en place un DMP pour chaque projet, aussi bien interne qu’externe. Il n’est cependant pas nécessaire d’en créer un de toutes pièces. C’est pourquoi nous proposons d’adopter celui conçu pour le programme d’Horizon 2020 (Commission européenne 2016, p. 5).
Plan de protection
Alpes Lasers a déjà pris certaines mesures, comme la conservation de documents sensibles dans un coffre d’une banque. L’adoption d’un plan de protection des documents essentiels permettra de systématiser et d’unifier la pratique.
Conclusion
L’enquête menée nous a permis de relever plusieurs éléments problématiques, tels qu’une organisation des dossiers propres à chaque unité, voire à chaque collaborateur, ou encore une absence d’élimination des informations obsolètes ou redondantes. Ceci pointe un manque de gouvernance claire chez Alpes Lasers, d’une vue d’ensemble du fonds documentaire et du cycle de vie. Le problème n’est pas propre à notre mandant et touche de nombreux organismes.
Pour pallier ce problème, nous avons proposé une série de recommandations qui relèvent finalement davantage du records management que véritablement de la gouvernance informationnelle. Cela n’est pas étonnant, puisqu’on peut considérer le records management comme le socle de la gouvernance de l’information (Pagnamenta 2014, p. 11). Enfin, nous tenons à rappeler que les recommandations proposées ne constituent pas une fin en soi, mais ne sont qu'une première étape. En effet, la gouvernance de l'information n'est pas un projet à court terme, mais doit être envisagée sur le long terme (Smallwood 2014, chap.1 ; GlassIG 2016).
Bibliographie
ARMA INTERNATIONAL, 2015. Principes de tenue des enregistrements (Generally Accepted Recordkeeping Principles). ARMA International [en ligne]. 2015. [Consulté le 2 août 2016]. Disponible à l’adresse : http://www.arma.org/r2/generally-accepted-br-recordkeeping-principles
BEAGRIE, Neil and PINK, Catherine, 2012. Benefits from Research Data Management in Universities for Industry and Not-for-Profit Research Partners [en ligne]. Charles Beagrie Ltd and University of Bath, novembre 2012. [Consulté le 01 juillet 2016]. Disponible à l’adresse : http://opus.bath.ac.uk/32509/
CHABIN, Marie-Anne, 2013. Le mètre linéaire, unité de mesure des archives. Transarchivistique [en ligne]. 26 mai 2013. [Consulté le 5 août 2016]. Disponible à l’adresse : http://transarchivistique.fr/le-metre-lineaire-unite-de-mesure-des-archives/
COMMISSION EUROPÉENNE, 2016. Lignes directrices pour la gestion des données dans Horizon 2020. openaccess.inist.fr [en ligne]. 15 février 2016. [Consulté le 22 juin 2016]. Disponible à l’adresse : http://openaccess.inist.fr/IMG/pdf/lignes_directrices_gestion_des_donnees_horizon_2020_version2._1_tr_fr.pdf
CONUS, Lina-Luz, 2013. Analyse des pratiques d'archivage au sein de la Mairie de Chêne-Bourg en vue de la mise en place d'un système de gestion des archives [en ligne]. Genève : Haute école de gestion de Genève. [Consulté le 17 avril 2016]. Disponible à l’adresse : https://doc.rero.ch/record/233050
CROCKETT, Margaret, FOSTER, Janet, 2004. Using ISO 15489 as an Audit Tool. The Information Management Journal [en ligne]. July/August 2004. Vol. 38, pp.46-53. [Consulté le 1er août 2016]. Disponible à l’adresse : http://www.arma.org/bookstore/files/CrockettFoster.pdf
DONNELLY, Martin, 2015. Research Data Management & the H2020 Open Data Pilot. In : UNIVERSITÉ DE CHYPRE. Open Access to research publications and data. Nicosie, 22-23 octobre 2015 [en ligne]. FOSTER, 2015. [Consulté le 5 juillet 2016]. Disponible à l’adresse : https://www.fosteropenscience.eu/content/research-data-management-h2020-open-data-pilot
FONDS NATIONAL SUISSE, 2007. Mission sur Mars, avec le Fonds national suisse. snf.ch [en ligne]. Février 2007. [Consulté le 8 août 2016]. Disponible à l’adresse : http://www.snf.ch/SiteCollectionDocuments/Dossiers/dos_Grundlagen_Mars_f.pdf
GLASSIG, 2016. What have we learned about Information Governance?. GlassIG [en ligne]. 24 février 2016. [Consulté le 23 juillet 2016]. Disponible à l’adresse : http://www.glassig.com/2016/02/24/learned-information-governance-1-3/
GROUPE INTERASSOCIATION AAF-ADBS « RECORDS MANAGEMENT », 2011. Le plan de classement des documents dans un environnement électronique : concepts et repères [en ligne]. Site de l’Association des archivistes français (AAF), 17 juin 2011. [Consulté le 6 juillet 2016]. Disponible à l’adresse : http://www.archivistes.org/Groupes-de-travail-et-commissions
HASSANALY, Parina, 2013. Management de l'information : quelle réalité pour les TPE/PME ?. Documentaliste-Sciences de l'Information [en ligne]. 2013/1 (Vol. 50), pp.46-47. ISSN 0012-4508. [Consulté le 15 juillet 2016]. Disponible à l’adresse : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2013-1-page-38.htm#s1n6
MAKHLOUF SHABOU, Basma, 2015. Politique de Gouvernance de l’Information. [document PDF]. 1er octobre 2015. Support de cours: Module 10 « Gouvernance de l'Information (GI) », Haute école de gestion de Genève, filière Information documentaire, année académique 2015-2016
MAKHLOUF SHABOU, Basma, [ca. 2016]. Guide d'entretien destiné au personnel du Système de Management Environnemental de l’Etat [document Word].
ORGANISATION INTERNATIONALE DE NORMALISATION, 2001. Information et documentation : "records management". 1ère éd. 2 vol. Genève : ISO, 15 septembre 2001. ISO/IEC, 15489.
PAGNAMENTA, Roxane, 2014. Gouvernance de l’information : définition, enjeux et perspectives en Ville de Genève [en ligne]. Genève : Haute école de gestion de Genève. Travail de master. [Consulté le 01 juillet 2016]. Disponible à l’adresse : http://doc.rero.ch/record/232841
PERREIN, Jean-Pascal, 2013. Définition de la gouvernance de l’information par des mots : Extrait du livre GouvInfo “Océan bleu”. 3org – Points de vue sur le flux Information [en ligne]. 2 avril 2013. [Consulté le 21 juillet 2016]. Disponible à l’adresse : http://www.3org.com/news/gouvernance_de_linformation/definition-de-la-gouvernance-de-linformation-par-des-mots-extrait-du-livre-gouvinfo-ocean-bleu/
PERREIN, Jean-Pascal, 2014. Les 5 piliers de la gouvernance de l’information. 3org – Points de vue sur le flux Information [en ligne]. 26 juin 2014. [Consulté le 23 juillet 2016]. Disponible à l’adresse : http://www.3org.com/news/gouvernance_de_linformation/les-5-piliers-de-la-gouvernance-de-linformation/
PERREIN, Jean-Pascal, 2015. L’instance de gouvernance de l’information trouve sa légitimité. 3org – Points de vue sur le flux Information [en ligne]. 13 janvier 2015. [Consulté le 2 août 2016]. Disponible à l’adresse : http://www.3org.com/news/flux_information/instance-de-gouvernance-de-linformation-trouve-sa-legitimite/
SCAGLIONE, Marc, 2016. Synthèse du questionnaire « Politique de nommage » [document PDF]. 17 mai 2016. Diffusé sur Swiss-lib Digest, Vol 85, Issue 10
SEUILLOT, Guillain, 2015. Retranscription de l’interview de Nicolas Grandjean sur les lasers. PodcastSciences.fm [en ligne]. 8 avril 2015. [Consulté le 28 juillet 2016]. Disponible à l’adresse : http://www.podcastscience.fm/dossiers/2015/04/08/retranscription-de-linterview-de-nicolas-grandjean-sur-les-lasers/
SMALLWOOD, Robert F., 2014. Information governance: concepts, strategies and best practices. Hoboken : Wiley, 2014. Wiley CIO series. ISBN 978-1-118218-30-3
UNIRIS, 2014a. Politique de records management et d’archivage pour une gouvernance informationnelle [en ligne]. Université de Lausanne, 30 juin 2014. [Consulté le 16 juillet 2016] Disponible à l’adresse : http://www.unil.ch/uniris/home/menuguid/a-telecharger/documents-de-reference.html
UNIRIS, 2014b. Politique de records management : Règles de nommage des documents électroniques [en ligne]. Université de Lausanne, 18 mars 2014. 7 novembre 2014. [Consulté le 16 juillet 2016] Disponible à l’adresse : http://www.unil.ch/uniris/home/menuguid/a-telecharger/pour-les-unites.html
- Vous devez vous connecter pour poster des commentaires
Big Data et intelligence économique : rendre le futur moins incertain : compte-rendu de la 13eme journée franco-suisse sur la veille stratégique et l’intelligence économique, 9 juin 2016, Genève
Ressi — 31 décembre 2016
Angélique Broye, Haute Ecole de Gestion, Genève
Cette 13ème journée franco-suisse sur la veille et l’intelligence économique avait pour but de montrer l’enjeu stratégique des Big Data aujourd’hui dans divers domaines tels le marketing, la santé, les transports publics, la gestion des risques et bien d’autres encore. En matière d’intelligence économique, les enjeux liés à l’exploitation des données du Big Data sont considérables. Ces données transforment les attentes des entreprises qui visent encore plus la performance et l’innovation.
C’est donc sur ce thème que la directrice de la Haute Ecole de Gestion de Genève, Madame Claire Baribaud, a ouvert cette journée de conférences devant la septantaine de personnes présentes dans l’aula du nouveau bâtiment de la HEG-Genève.
S’en est suivi le discours de bienvenue de Monsieur Nicolas Walder, maire de la ville de Carouge, se réjouissant de la continuation des liens franco-suisses par le biais du comité Jveille et invitant les participants à débuter l’écoute des conférences.
Big Data et prospective, par Thomas Gauthier
Monsieur Gauthier cherche à savoir quel est le rôle de l’anticipation pour une entreprise. Il explique qu’actuellement notre monde est devenu complexe. Ainsi, pour qu’une entreprise puisse garder ses clients, il faut qu’elle intègre dans ses produits et services des technologies informatiques qui évoluent vite. Mais il lui faut également des atouts qu’il lui faut chercher internationalement. Le plus important pour elle est donc d’élargir son intelligence et de construire des réseaux de coopération. De ce fait, il faut maintenant qu’une entreprise soit sans frontières.
En parallèle de cela, l’entreprise doit mettre en place une démarche de prospective. Cette dernière s’intéresse au présent et non au futur et doit permettre de mieux agir dans le présent en préparant l’avenir. Thomas Gauthier le démontre par l’exemple de l’entreprise Shell qui, dès les années 70, motive ses équipes à penser « l’impensable » en matière de scénarios catastrophes. Cette culture de la prospective permettra à la compagnie de faire face de manière efficace aux divers problèmes qu’elle a pu rencontrer et ainsi lui permettre une résilience plus aisée.
Cependant, cette démarche de l’entreprise doit concorder avec la complexité de notre monde actuel et pour cela, plusieurs outils d’appréhension de cette complexité ont été mis en place tels des analyses de tendances et signaux faibles, des analyses de jeux d’acteurs ou encore des diagnostics stratégiques et prospectifs de l’entreprise. Grâce à eux, les entreprises et les sociétés peuvent se faire une idée de leur pérennité et de leur situation future.
Pour développer cette prospective, il faut donc des données et notre monde en dispose toujours plus. Il y a donc là un nouveau gisement à exploiter et qui est de plus en plus facile à stocker. Cependant, il faut savoir exploiter ces données et ne pas tomber dans le piège des biais cognitifs et d’une attitude scientiste. La prospective interroge donc nos modèles mentaux. D’après Peter Drucker, pour prendre des décisions efficaces, il ne faut pas commencer avec des faits mais avec des opinions. Par la suite, nous obtenons des faits grâce aux critères de pertinence qui sont indispensables à cette tâche.
L’intelligence artificielle et le cognitive computing sont-ils réservés aux sociétés multinationales ? par Pierre Kauffmann
Pierre Kaufmann explique l’intelligence artificielle (IA) et le cognitive computing grâce à l’exemple de Watson, IA sur ordinateur créée par l’entreprise IBM. Cette intelligence a été testée lors d’un jeu télévisé de réponses à des questions, Jeopardy, qui l’opposait à deux concurrents humains. Le but pour la machine était de se battre sur la compréhension du langage humain. Elle devait donc comprendre le langage naturel. Pour cela, elle devait passer par une première phase d’analyse du texte de la question. Dans la deuxième phase, Watson tentait de comprendre ce que l’on cherchait. Lors de la troisième phase, il a recherché les informations qui répondaient à la question dans toutes les informations qu’il a intégrées dans son système. Finalement, il a dû décider entre toutes les réponses qu’il a obtenues laquelle était la meilleure pour répondre à la question. Et il a gagné le jeu.
Suite à cela, Watson a été considéré tellement performant qu’il a été commercialisé en 2015 dans le monde de la recherche et notamment de la médecine. En effet, dans ce domaine la machine peut se montrer d’une grande aide pour le professionnel de la santé. Elle lit toutes les publications disponibles sur un sujet donné, elle met les informations en relation et intègre toutes ces données. Le but de cela étant de pouvoir soigner le mieux possible un patient. De ce fait, elle met en relation les informations acquises avec celles concernant la personne devant être soignée afin de proposer le meilleur diagnostic possible. Enfin, elle conseille le médecin qui sera le seul à prendre la décision finale concernant le traitement du patient. La machine est donc là pour montrer les liens entre les données, pour guider et conseiller mais elle ne prend jamais la décision finale.
En 2016, l’IA passe au cognitive computing qui est une solution qui comprend, raisonne et apprend en interaction avec les humains. Elle est également capable de lire et de voir. Tout cela est possible grâce au grand nombre de données intégrées par la machine. Avec le cognitive computing, nous ne sommes plus dans le monde des machines ou des systèmes que l’on programme mais dans un monde où la machine s’adapte à l’environnement qui l’entoure grâce à l’interaction avec l’être humain.
Pour que le cognitive computing puisse prendre vie, il lui faut trois éléments : les données, les algorithmes et la puissance de calcul. Grâce à cela, il est en évolution permanente et peut traiter les données de manière toujours plus performante. De ce fait, le cognitive computing peut donc servir dans diverses situations comme dans les helpdesks afin de répondre aux questions du public et détecter ce qui peut être anormal dans une situation donnée. Il peut aussi servir dans le domaine de la santé grâce à la détection sur photo de potentiels mélanomes sur un corps humain. Une autre utilisation est possible avec le discovery advisor qui permet de travailler sur des modèles prédictifs afin de permettre aux entreprises de faire des économies.
La machine dispose donc de nombreux avantages car elle n’est pas fatiguée, elle peut répondre aux diverses interrogations en tout temps et elle gère une très grande quantité d’informations. Cependant, ces avantages s’arrêtent après un certain niveau de précision au-delà duquel elle a besoin de l’homme. C’est notamment le cas pour les questions d’opinion. Ce n’est donc pas encore aujourd’hui que la machine prendra le pas sur l’humain.
Le Big Data au service des tpg : amélioration de la performance et de la satisfaction client, et outil de prospective, par Antoine Stroh et Mickaël Chopard
Antoine Stroh et Mickaël Chopard expliquent qu’actuellement les transports publics genevois (tpg) observent une montée de la concurrence avec entre autres les CFF, Uber, le CEVA et Google Car. Ils ont donc décidé de se servir des données recueillies par leurs véhicules afin de maintenir leur position.
Avec le transport de près de 500'000 personnes par jour, la quantité de données obtenues est intéressante. En effet, chaque bus peut recueillir des informations par le biais du Wifi, du GPS, du ticketing, de la priorité au feu, de la radio et du système informatique. Le but premier de cette récolte de données était d’assurer la sécurité des voyageurs et de mieux communiquer avec eux. Mais s’est présentée pour les tpg, la question de l’exploitation de ces informations qu’il leur faut donc traiter, analyser afin d’améliorer leurs performances et éventuellement diffuser.
Les tpg sont déjà doués dans le métier du transport. La donnée doit donc leur apporter de la valeur et une vision complémentaire. Elle permet d’améliorer les connaissances et de trouver des solutions aux problèmes de ponctualité, de confort des voyageurs, de charge du véhicule mais aussi des conditions de travail des conducteurs, de leur temps de parcours et de battement.
Messieurs Stroh et Chopard mettent en avant le fait qu’aujourd’hui, avec internet et les smartphones, notre population est habituée à tout avoir rapidement. Les transports misent donc tout sur la ponctualité de leurs véhicules. De ce fait, un retard de bus peut provoquer une série de plaintes sur les réseaux sociaux et cela nuit à la réputation des tpg. Les données sont donc primordiales pour améliorer les services et donc par-là, la satisfaction et la relation client.
Les tpg pratiquent également l’open data. Le citoyen devient ainsi co-créateur et cette démarche permet à l’entreprise d’améliorer sa proximité avec le public, d’être transparente et d’induire une démarche d’innovation.
La valorisation des données permet donc d’aider les personnes à faire leur travail et à s’améliorer.
Le Big Data va-t-il changer les règles de l’intelligence économique ? par Loïc Gourgand
Loïc Gourgand explique que la société Spallian, pour laquelle il travaille, a accès à des bases de données non-exploitées jusqu’à aujourd’hui, qu’elle possède des fonds de cartographie et met en place des stratégies de smart data permettant d’extraire toutes les données utiles à l’entreprise. Par ailleurs, Spallian fait des études de géomarketing et pratique la smart gouvernance. Le but étant d’utiliser la prospective pour avoir un avantage concurrentiel dans le futur. Spallian obtient également ses données en temps réel qu’elle peut exploiter afin de conseiller et d’aider les entreprises qui la mandatent.
Pour tous ces services, Spallian crée des dashboards sur mesure pour ses clients qui intègrent des données en temps réel.
Afin d’obtenir toutes ces informations, elle dispose de plusieurs outils qu’elle a créé. Le premier est un outil Stat’ permettant l’extraction de données et leur traitement en masse. Cela permet à l’entreprise de traiter toutes les données dans un même endroit.
Ensuite, vient Corto qui permet de pratiquer la cartographie analytique. L’exemple d’utilisation de cet outil donné par Monsieur Gourgand concerne un projet d’implantation d’un groupe immobilier dans un parc. Un des buts de ce groupe était de savoir si l’endroit était rentable et sécurisé. Pour vérifier cette dernière donnée, Corto a pu fournir à Spallian une cartographie des données enregistrées par la police concernant des actes malveillants perpétués dans et aux alentours de cette zone.
L’outil a aussi permis de prendre des décisions à court terme notamment dans l’exemple de sécurisation des agences d’une banque lors de l’Euro 2016. Pour ce faire, Corto a répertorié les fanzones, a géolocalisé les réseaux de transports et a finalement couplé les localisations des agences de la banque afin de savoir lesquelles se trouvaient en zone de danger. Cela a permis à la banque de pouvoir prendre des mesures de protection pour les sites concernés.
En plus de cela, Spallian développe des produits permettant l’utilisation de données mobiles. Notamment lors de l’épidémie d’Ebola, un système d’alerte a pu être mis en place afin de géolocaliser des personnes travaillant pour une certaine entreprise dans les zones à risques.
Pour mener à bien ses projets, Spallian dispose d’un département de data scientists qui vérifient les données récoltées. En effet, les outils doivent toujours être mis à jour. De plus, l’entreprise dispose également de personnel formé dans le marketing ou la gestion afin de répondre au mieux aux attentes des clients et aux exigences marketing de l’entreprise.
Par ces exemples, nous pouvons voir dans quelles mesures l’exploitation de Big Data permet de gérer au mieux la sécurité d’une entreprise ou d’une personne mais également d’aider des sociétés et des entreprises à prendre des bonnes décisions, ce qui est aussi une des finalités de l’intelligence économique.
Détection systématique de communautés à l’échelle de Twitter, par Clément Levallois
Clément Levallois explique que Twitter dispose aujourd’hui de 117 millions d’utilisateurs actifs. Ce réseau est très riche en métadonnées grâce aux tweets et aux profils des utilisateurs. Ces éléments permettent aux chercheurs des universités de mener à bien diverses recherches concernant les perceptions d’une marque par les utilisateurs à travers leurs tweets. Il est possible de savoir si une marque est perçue comme écologique en suivant par exemple tous les comptes twitter concernant la marque et tous ceux propres à Greenpeace. En les comparants, c’est-à-dire en regardant si les personnes qui suivent les activités de l’une suivent aussi celles de l’autre, il est possible de répondre à cette question. Notamment en utilisant divers outils présents sur le marché tels Tweetdeck, Bluenod et Visibrain qui permettent de visualiser les communautés de Twitter.
Monsieur Levallois a mené un projet à l’EM-Lyon Business School visant à combler le vide que laissent ces outils. En effet, ces derniers répondent aux demandes faites mais sans vraiment résoudre le problème de la visualisation des communautés. Le but de ce projet était donc d’obtenir, via une carte, une visualisation complète de Twitter pour ensuite détecter les communautés du réseau à une échelle globale. Cela devrait permettre de savoir quels types de communautés parlent de quelle marque mais aussi de comprendre comment une publicité ou un buzz se propage dans le monde. Les réponses à ces questions devraient être disponibles prochainement.
Cependant, les données relationnelles entre utilisateurs de Twitter sont, à l’heure actuelle, difficiles à acquérir. Des substituts ont été imaginés mais sans succès car toute la difficulté est de réussir à suivre les relations entre utilisateurs et de détecter les biais. On estime que les données relationnelles sont pertinentes lorsque les utilisateurs partagent trois listes en commun.
Avec ce projet, Clément Levallois souhaite mettre à disposition du public une carte réseau via un site web ou une API. Cette carte sera remplie au fur et à mesure grâce à la collaboration d’entreprises au projet.
Par cet exemple, nous pouvons observer à quel point le Big Data peut aider des marques à développer leur marketing, cibler leur public et diffuser leur publicité d’une façon plus précise.
Conclusion
Grâce aux exemples des conférences données lors de cette 13ème journée franco-suisse sur l’intelligence économique, nous avons pu constater que la multiplication des données ces dernières années est une nouvelle source d’information permettant aux entreprises de mieux s’armer aujourd’hui pour le monde de demain. La prospective est d’ailleurs un élément non négligeable que cette accumulation de données permet de préciser.
Ces Big Data permettent d’améliorer les services et les performances, mais aussi de trouver les problèmes à résoudre. Par le biais de l’intelligence artificielle et du cognitive computing, elles peuvent faire gagner du temps aux professionnels de divers métiers tout en renforçant leurs compétences décisionnelles. En étant utilisées comme dans l’exemple des tpg, elles permettent d’améliorer les performances d’une entreprise et lui permettent de se maintenir en position de concurrence. Les Big Data sont également très utiles pour une marque souhaitant se démarquer sur les réseaux sociaux et cibler au mieux ses différents publics.
Finalement, quand on sait exploiter ces informations convenablement, elles servent également dans le domaine de choix d’implantation et de sécurité comme l’a démontré l’entreprise Spallian avec ses nombreux exemples.
Nous pouvons donc conclure que les Big Data bien exploitées permettent d’avoir une meilleure prise sur l’avenir et donc, de « rendre le futur moins incertain ».
- Vous devez vous connecter pour poster des commentaires
L’archivage du web : présentation des méthodes de collecte et recommandations pour l’accès aux contenus –et leur structuration-
Ressi — 31 décembre 2016
Jonas Beausire, Haute Ecole de Gestion, Genève
Résumé
Cet article – synthèse d’un travail de bachelor – consiste en l’établissement d’un panorama des grandes approches méthodologiques et stratégies de collecte de l’archivage du web, une analyse des attentes et des résistances du public des chercheurs face à ces nouvelles archives et la présentation de pistes d’innovations et de recommandations pour mieux appréhender l’archivage du web.
Les approches de l’archivage du web sont exposées : intégrale, exhaustive, sélective et thématique. Elles se combinent souvent sur le terrain mais doivent être repensées pour être renouvelées. Chacune d’entre elles peut être accompagnée d’une stratégie de collecte : automatisée, semi-automatisée ou manuelle.
Les attentes des chercheurs, leurs besoins et résistances sont mis en lumière par des résultats d’enquêtes. Si la communauté scientifique s’accorde sur la nécessité de constituer une mémoire du web, la fiabilité et la légitimité des collections issues du web cristallisent les résistances exprimées par les chercheurs. Globalement, les questions épistémologiques et méthodologiques pour inscrire ces archives dans un usage scientifique établi ne sont pas encore résolues.
Enfin, des recommandations techniques et conceptuelles sont abordées : elles mettent notamment l’accent sur la construction d’interfaces d’accès et la description des archives et de leur contexte grâce, en particulier, aux métadonnées. Une variété d’outils d’analyse du web constitue également des leviers privilégiés pour exploiter et mettre en valeur les futures archives du web.
L’archivage du web : présentation des méthodes de collecte et recommandations pour l’accès aux contenus –et leur structuration-
Introduction
Les questions soulevées par l’archivage du web préoccupent les acteurs du monde de l’information depuis presque vingt ans maintenant. Il est aisé de situer dans le temps les prémices des réflexions qui entourent les questions d’une mémoire du web. En effet, des initiatives comme celle, bien connue et la plus ancienne de toute, de la fondation « Internet Archive »[1] ont pris naissance dès 1996 dans un climat d’urgence à se saisir des nouvelles traces qui faisaient déjà la mémoire de la fin du XXe siècle (Peyssard 2012). La multiplication des ordinateurs connectés durant la bulle Internet jusqu’en 2000 confirmera la nécessité de sauvegarder les contenus désormais « nés numériques » du prochain millénaire.
L’établissement, durant la première décennie du XXIe siècle, de programmes d’archivage du web institutionnalisés (le plus souvent au sein de bibliothèques nationales) va peu à peu voir opérer un changement de paradigme essentiel : de la numérisation généralisée du patrimoine, il s’est agi de patrimonialiser le (né) numérique. Ce passage, symptôme de la légitimation de ces nouvelles archives, n’est pas sans poser un catalogue de questions : Comment préserver ces nouveaux documents ? Selon quelles logiques documentaires ? Comment les conserver de façon pérenne ? De quelles façons les rendre accessibles et à qui ? Au fond, comment prendre en charge une masse documentaire exponentielle, qui a valeur de patrimoine, et qui ne cesse de disparaître de plus en plus rapidement ?
Si désormais les contenus nés numériques préoccupent les institutions patrimoniales et constituent un segment de notre mémoire collective, les différents acteurs concernés par leur archivage pointent également une autre réalité : la disparition du web d’hier est toujours plus importante. En effet, les documents et données issus du web sont aujourd’hui trop souvent inaccessibles, hantés par le spectre de l’erreur http 404 (fichier introuvable) ; la durée de vie moyenne d’une page web avant modification ou suppression est d’environ cent jours (Laporte, Kahle, 2011)[2]. La dimension fragile, fuyante et nomade de ces documents exhorte les archivistes, les bibliothécaires et les chercheurs à penser de nouveaux modèles de collecte et plus largement à assimiler de nouveaux lieux de notre mémoire collective.
Les sources mobilisées pour la réalisation de ce travail proviennent majoritairement du web et étonnent souvent par leur complexité lorsqu’elles sont destinées au public de l’ingénierie informatique, par exemple. Le caractère fondamentalement transdisciplinaire des entreprises d’archivage du web se traduit dans la pluralité des publics auxquels s’adressent les ressources scientifiques disponibles sur le sujet. Les publications liées aux activités de l’International Internet Preservation Consortium (IIPC)[3] demeurent le réservoir privilégié des ressources disponibles aujourd’hui, associant souvent études de cas et réflexions holistiques sur l’archivage du web. Les trois axes majeurs de travail du consortium rejoignent ceux associés au circuit du document en bibliothèque : collecte, consultation et préservation (Illien 2011). Par ailleurs, certains médias, spécialisés ou non, soulignent peu à peu les enjeux de la sauvegarde de cette mémoire numérique et cherchent à sensibiliser des publics plus divers et moins avertis.
Au carrefour des enjeux d’accessibilité, de représentativité, de légitimité et de fiabilité des documents nés numériques, cet article[4] se propose de dégager les grandes approches méthodologiques et stratégies de collecte de l’archivage du web à l’œuvre aujourd’hui, mises en regard avec les programmes de la Bibliothèque nationale suisse (BN) et de la Bibliothèque nationale de France (BnF). Il analysera les attentes et les résistances du public des chercheurs face à ces nouvelles archives et enfin présentera des pistes d’innovation et des recommandations pour mieux appréhender l’archivage du web.
Cadre théorique
Il est possible d’identifier aujourd’hui de grandes approches et stratégies de collecte. Une typologie conceptualisée par Thomas Chaimbault (enseignant à l’ENSSIB) offre à voir un panorama des stratégies et modes de dépôt (voir tableau récapitulatif n°1, p. 5) développés par différents établissements nationaux et soutenus par des consortia (Chaimbault, 2008).
En rappelant que ces approches demeurent de purs cadres théoriques et qu’elles doivent être renouvelées – notamment en raison des mutations techniques extrêmement rapides du web – il est également à souligner que les réalités du terrain sont multiples et mêlent bien souvent plusieurs approches et stratégies pour répondre aux besoins spécifiques d’un seul et même programme d’archivage du web.
Les approches
L’approche dite « intégrale » consiste à collecter l’entier du web, sans distinction ni critère de sélection. Les questions liées à une valeur patrimoniale des documents sont évacuées au profit d’un projet de pure exhaustivité. Le projet « Internet Archive » en est aujourd’hui l’exemple unique et concentre la plus large audience des collections issues du web au travers de son interface d’accès aux documents d’archive, la « Wayback Machine »[5]. Avec près de 273 milliards de pages web collectées (Internet Archive, 2016) et au centre d’un partenariat qui la lie avec près de 440 organismes partenaires, la fondation s’inscrit dans un double mouvement, à la fois celui de la collecte autonome, mais également celui d’un échange continu avec d’autres organisations de collecte. (Leetaru, 2016)
L’approche « exhaustive », quant à elle, vise également une certaine idée de la complétude mais dans un périmètre circonscrit, celui d’un nom de domaine, d’un espace national particulier ou, moins souvent, d’un type de sites. Cette approche, relativement répandue, s’intègre facilement dans les missions d’une institution patrimoniale comme les bibliothèques nationales mais cristallise les ambiguïtés liées à la territorialité du web : des contenus web particulièrement signifiants peuvent être enregistrés sous un nom de domaine hors collecte, par exemple.
A l’inverse des deux précédentes approches, celle dite « sélective » consiste à se saisir de contenus prédéfinis au moyen de critères choisis extrêmement variés : thématiques, en lien avec la nature de la ressource, qualitatifs, etc. Cette approche rompt avec un certain souci d’exhaustivité et se propose de compiler régulièrement des instantanés de sites répondant aux critères de sélection choisis.
Enfin, l’approche « thématique » doit se comprendre comme un embranchement particulier de l’approche sélective : il s’agit d’archiver une collection de sites web en lien avec un événement spécifique. Les collectes des sites web et autres ressources liés aux élections présidentielles françaises menées par la BnF illustrent parfaitement cette approche. (Greffet, 2012) Sa logique renvoie directement à la notion de « collection », voire de « fonds d’archive » puisqu’il s’agit bien pour les bibliothécaires de sélectionner et d’éliminer en vue de former un corpus cohérent, pouvant ainsi former de véritables « produits d’appel » tournés vers un public encore aujourd’hui embryonnaire (Illien, 2008).
Les stratégies
Parallèlement aux différentes approches décrites, Thomas Chaimbault dégage également trois stratégies de collectes différentes. La stratégie « automatisée » qui engage la mise en place d’un logiciel-robot (moissonneur et collecteur du web) : un espace web circonscrit à un domaine choisi est ainsi collecté de façon automatique. Cette stratégie accompagne généralement des approches intégrales ou exhaustives de l’archivage du web. La stratégie « semi-automatisée » implique également l’usage d’un logiciel-robot mais ajoute à son utilisation des critères de sélection plus précis ; elle peut être mobilisée dans le cadre d’une approche sélective du web. Enfin, l’approche « manuelle », même si elle exige également des ressources techniques, replace l’humain au centre des processus de collecte ; les bibliothécaires sont amenés à sélectionner eux-mêmes les sites pertinents. Cette logique combinatoire est essentielle dans le contexte d’une approche thématique.
En assignant la typologie de Thomas Chaimbault au programme d’archivage de la BN, on peut aisément le qualifier de sélectif et thématique. En effet, dans la tradition des Helvetica, la collection « Archives Web Suisse » regroupe en grande majorité des sites web patrimoniaux et helvétiques, selon un périmètre et des critères décidés collégialement. En rejetant tout projet d’exhaustivité et en cartographiant les sites archivés au moyen d’un catalogue de grands principes de sélection et d’exclusion[6], la BN se distingue radicalement de la BnF. En effet, l’institution française combine trois approches : exhaustive, sélective et thématique qui renvoient à autant de modes de collecte. Exhaustive car la BnF procède à des collectes dites « larges » qui moissonnent l’entier du nom de domaine français, mais superficiellement en ce qui concerne la profondeur des sites. Sélective et thématique lorsque la BnF mène ses collectes dites « ciblées » qui visent à s’emparer des sites en profondeur et à une fréquence plus élevée, choisis pour leurs contenus signifiants. (BnF, 2015)
Table 1 : Récapitulatif des grandes approches et stratégies
Stratégie automatisée | Stratégie semi-automatisée | Stratégie manuelle | |
Approche intégrale |
|
Néant | Néant |
Approche exhaustive |
|
Néant | Néant |
Approche sélective | Néant |
|
Néant |
Approche thématique | Néant | Néant |
|
Un cadre légal différencié, des usages communs
Au cœur du régime différencié des programmes de la BN et de la BnF, réside le cadre légal sur lequel repose les approches mises en œuvre. En effet, ce dispositif structure largement les possibilités des deux institutions. Il est également le reflet d’une « accréditation culturelle de l’éphémère » (Merzeau, 2003). L’absence de dépôt légal suisse au niveau national implique pour la BN une approche sélective et thématique du web. A l’inverse, le dépôt légal du numérique permet à la BnF de s’emparer indifféremment de la quasi-totalité de la production éditoriale numérique française, tendant à une forme d’exhaustivité sans jugement de valeur documentaire. L’accessibilité des archives est une conséquence directe du cadre législatif différent de chacune des deux bibliothèques : la BnF est contrainte d’encadrer son accès pour protéger le droit d’auteur des contenus qu’elle moissonne, alors que la BN est plus souple puisque les accords des producteurs ont été obtenus préalablement.
Il est à noter que l’approche dite « thématique » est partagée par les deux institutions : dans les deux cas, des bibliothécaires sélectionnent en amont les sites signifiants et tentent de former des collections parfois thématiques ou gravitant autour d’événements majeurs. Certains outils informatiques et des préoccupations liées à la profondeur de l’archivage sont partagés par les deux bibliothèques. Le rapprochement s’opère également sur le plan international puisque la BN et la BnF sont membres du Consortium IIPC au travers duquel elles collaborent. Comité de pilotage et groupes de travail au sein de ce consortium sont autant de lieux d’échanges et de retours d’expérience, notamment concernant l’usage de divers logiciels développés par certains membres.
Besoins, attentes et résistances des chercheurs
Le public des nouvelles collections issues des différents programmes de l’archivage du web demeure une question centrale. Si des publics variés peuvent aujourd’hui consulter ces nouvelles archives, celui des chercheurs scientifiques semble être le plus important. (Chevallier, Illien, 2011) (Aubry et al. 2008) De nombreuses questions sont soulevées par ce public particulier : un site Internet peut-il réellement constituer une source fiable ? Quelle procédure existerait-il pour valider la qualité d’une telle source ? Comment justifier le choix de convoquer tel site plutôt qu’un autre dans une sitographie ?, etc. (Chevallier, Illien, 2011)
Malgré des attentes contradictoires et des réticences notamment méthodologiques et épistémologiques, la communauté scientifique semble s’accorder sur la nécessité de travailler avec le numérique, de s’interroger sur les conditions d’une meilleure appréhension du patrimoine numérique natif et sur la conservation de nouvelles formes d’expressions numériques. (Joutard, 2013) La conservation d’une mémoire du web nécessite une reconceptualisation des modèles traditionnels de l’archivage en les pensant spécifiquement pour les documents numériques natifs. Les pertes de certains contenus nés numériques et les liens morts inquiètent certains acteurs du monde académique, notamment les historiens, qui voient disparaître des ressources à durée de vie limitée. Les doutes et les interrogations se cristallisent majoritairement autour de la fiabilité de ces nouvelles archives dont les contours documentaires peinent à être scientifiquement définis ; en effet, même si certains chercheurs s’accordent autour du bien-fondé de l’archivage des sites institutionnels et des blogs, les actions ou traces individuelles laissées sur le web sont considérées avec davantage de circonspection. (Chevallier, Illien, 2011) C’est bien entendu la question irrésolue de la légitimation du statut de collection de ces archives qui se pose ici en filigrane. Ainsi, l’organisation, la hiérarchisation, voire la discrimination des contenus du web sont attendues de la part des chercheurs pour considérer plus sûrement les nouveaux corpus. La variété des contenus agrégés exige des efforts organisationnels majeurs pour un usage scientifique de ces données. (Leetaru, 2016) La bibliothèque peut endosser un rôle important dans ce processus de légitimation. (Illien, 2011)
Plus concrètement encore, ce sont les difficultés d’accès, autant physiques que techniques, qui préoccupent les chercheurs : le supposé déplacement au sein des bibliothèques dépositaires des fonds et les interfaces difficiles à prendre en main empêchent trop souvent le public de s’approprier ces nouvelles ressources. L’indexation plein texte constitue toujours la voie d’accès privilégiée aux volumes exceptionnels de ces collections, malgré les insatisfactions récurrentes liées aux technologies utilisées (Gomes, Miranda, Costa, 2011). Enfin, l’instabilité du média Internet, la volatilité des données et la difficulté à traiter de gros volumes de données souvent très hétérogènes constituent les principaux freins méthodologiques rencontrés par le monde de la recherche (Mussou 2012).
Recommandations techniques et innovations
En dehors des grandes initiatives nationales et des projets circonscrits à une institution donnée, l’IIPC peut être considéré comme un laboratoire d’innovations incontournable sur la scène internationale. Cet organisme a notamment pour but de sensibiliser aux enjeux liés à la conservation des ressources nées numériques. (Bonnel, Oury, 2014) De nombreuses sources sont accessibles par le biais de cet institut : articles, études de cas et conférences enrichissent des sources souvent disparates sur l’archivage du web. Le lieu des innovations en matière de conservation du web se situe ainsi surtout dans le cadre de collaborations internationales.
Quelques outils du « web vivant »
Il existe aujourd’hui de nombreux outils de pointe pour appréhender, étudier et investir le « web vivant », par opposition au web archivé. Mais comment valoriser, analyser et exploiter des collections issues du web ? Des chercheurs de l’« Oxford Internet Institute »[7] proposent de transposer certains de ces outils aux archives du web (Meyer, Thomas, Schroeder, 2011). Nous en retenons ici quelques-uns :
La visualisation peut constituer une fenêtre d’accès inédite aux archives. Dans l’esprit des infographies, elle permettrait de visualiser la façon dont les différentes archives sont reliées entre elles. Un fort développement de cet outil pour le web vivant existe déjà. La recherche profonde, quant à elle, permet d’interroger finement de gros ensembles de données. La prolifération des informations postées (puis archivées) exigerait ainsi de nouveaux moyens d’accès à de très gros volumes d’informations. Les outils d’analyse des réseaux sociaux (SNA) n’ont pas été adaptés aux archives. Ceux-ci pourraient permettre aux archivistes du web l’analyse des liens hypertextes comme révélateur de la structure des interactions des différents sites web composant leurs collections. Les liens et leur analyse expriment quelque chose de la nature du réseau, de ses jeux d’interactions. Enfin, cette analyse pourrait être complétée par l’archivage des liens et autres annotations qui pointent vers les sites archivés afin d’observer leurs évolutions dans le temps.
D’autres pistes d’innovation sont énoncées au sein de l’étude de Meyer, Thomas et Schroeder (2011) : la première est celle dite du « web cumulatif » : il s’agit de considérer le web archivé littéralement en parallèle du web vivant. Cette organisation en filigrane de couches d’archives viendrait combler la fragmentation et les trous du web (comme les liens morts qui désormais pointeraient vers la ressource archivée). Cette piste, relativement utopique, supposerait un changement structurel et profond du web.
S’il est aujourd’hui possible de comprendre l’organisation et les usages des sites présents sur le web et de consulter certains d’entre eux qui n’existent plus, il demeure impossible encore de comprendre l’usage passé des archives du web. Afin d’y parvenir, les chercheurs proposent d’archiver également les journaux des serveurs (« servers logs ») des sites d’archivage du web. De cette façon, il deviendrait possible de comprendre et d’étudier comment les archives du web ont été ou sont utilisées. En conservant le web d’hier, mais également les usages associés à ce web disparu, il serait possible de combler l’une des attentes exprimées par les chercheurs sur la nécessité d’interroger les pratiques scientifiques qui entourent ces nouvelles archives.
Un autre usage possible des archives du web est celui de ses images et de son fort potentiel visuel. Il s’agirait de saisir certains changements du monde au travers des images circulant sur la toile. En extrayant sur une certaine durée des images d’archives d’un même objet, cela permettrait de superposer les clichés et de proposer un rendu visuel de l’évolution de l’objet.
L’exploitation statistique des archives constitue également une opportunité majeure. Quels sont les outils d’analyse à mettre en place pour faire parler de très importantes collections d’archives du web ? Comment ces outils statistiques permettraient de mieux comprendre la structure des collections et conséquemment celle du web en général ? En s’intéressant, par exemple, aux langues des sites web ou à leur date de création, il serait possible de dégager de grandes tendances structurelles du web. Les travaux d’analyse menés par l’ « Observatoire du dépôt légal » de la BnF[8] sur ses collectes larges s’inscrivent dans cette logique statistique.
En lien avec une analyse structurelle du web, il serait possible de rendre compte de la prolifération d’une idée sur le web, de sa viralité et de ses déplacements. Pour repérer et comprendre où les idées surgissent et comment elles se propagent sur le web, il faut pouvoir remonter à l’origine de l’idée. Cette archéologie suppose une profondeur et une granularité des archives très importantes. Dans cette perspective, la temporalité du web, c’est à dire le tempo des publications et les hyperliens qui les relient, doit être archivée. Sans une profondeur suffisante de l’archivage, cette dimension est impossible à extraire des archives.
Enfin, la question du web illicite interroge les chercheurs sur la meilleure façon de rendre compte de ces matériaux circulant sur le web. Les contenus sexuels illicites, sur les drogues, sur les groupes prônant la haine raciale, le terrorisme, etc. sont nombreux. Quelle entité serait habilitée à prendre en charge leur archivage et dans quel cadre juridique ? Ce genre d’archive pourrait autant intéresser des chercheurs que certaines autorités, la justice ou encore les professionnels de la santé, par exemple. L’enjeu réside ici dans la mise en place d’un mécanisme juridique pour protéger et légitimer l’institution garante de ces documents au contenu illégal, et qui saurait mettre en valeur leur intérêt scientifique. (Meyer, Thomas, Schroeder, 2011)
Interfaces, accessibilité et contextualisation
Malgré de nouvelles perspectives pour l’exploitation de la mémoire du web, les chercheurs constatent une absence globale d’interfaces stables et conviviales pour construire et accéder à de solides archives du web[9]. Dans ces conditions, le déploiement des différentes initiatives demeure compliqué. Plusieurs études (Bonnel, Oury 2014 ; Leetaru, 2012) insistent sur l’opportunité de mettre en place des interfaces d’accès aux archives les plus efficaces possibles, qui sachent explorer de très gros volumes de données. Selon Leetaru (2012), l’interface de Twitter constituerait un modèle standardisé très simple d’utilisation. Ces interfaces doivent également être spécifiquement pensées pour les chercheurs qui formeront sans doute une communauté importante se saisissant de ces archives. Toujours dans la volonté d’offrir une voie d’accès améliorée aux archives, c’est bien une description fine des collections au travers de métadonnées variées qui constituera une mise en valeur des fonds. Cette pratique suppose que les administrateurs des programmes connaissent précisément le contenu de leurs archives, ce qui n’est pas toujours le cas, surtout dans le cadre d’approches exhaustives ou intégrales.
Si les chercheurs se saisissent petit à petit de ces nouveaux contenus et citent désormais des sources provenant de celles-ci, il s’agit donc de penser également à la normalisation de ces citations. Cette préoccupation participe au travail de leur légitimation, qui ne doit pas échapper aux usages actuels de référencement des sources traditionnelles. La mise en place d’un identifiant unique et permanent de chaque page web archivée participerait à un système de citation efficace dans les publications scientifiques. Comme pour la citation des pages du web vivant, certaines métadonnées comme la date de capture de la page sont essentielles pour la constitution de notices complètes. Certaines tentatives basées sur les standards MLA et impulsées par Internet Archive vont dans ce sens aujourd’hui[10].
Si les choix documentaires d’acquisition des bibliothécaires sont longtemps restés opaques pour le grand public, il serait envisageable de renverser cette tendance en documentant les biais, souvent algorithmiques, des crawlers et autres robots qui moissonnent le web pour l’archiver. De la même façon qu’une transparence des politiques documentaires, la mise en lumière de certains détails techniques propres à un programme peuvent contextualiser telle ou telle collection. (Leetaru 2016) Parfois, la date d’archivage d’un site peut ne pas correspondre à la date de capture du même site. Cette réalité peut constituer un biais majeur pour l’étude d’une chronologie exacte de l’évolution d’un site. Si l’on cherche à comparer, par exemple, le nombre de pages traitant de la candidature d’un politicien à une élection avec celui d’un concurrent, les résultats obtenus peuvent ne pas correspondre avec la réalité du web d’alors. Le nombre d’occurrences peut être influencé par certaines politiques d’archivage, par l’algorithme selon lequel le robot moissonne le web, etc. La documentation des archives du web doit éclairer ces potentiels biais techniques. Si on donne à un chercheur la possibilité d’accéder au «journal» du crawler, il pourrait connaître les lieux où le robot a peut-être buté contre tel ou tel contenu : les zones blanches des archives peuvent recéler un sens précieux pour ceux qui les étudient. Par ailleurs, si beaucoup de sites dits « dynamiques » adaptent leurs contenus en fonction de l’emplacement physique de l’internaute, la géographie du robot doit également être un élément de contexte documenté pour les utilisateurs des archives du web ; elle influe directement sur les contenus affichés (et donc collectés), l’ordre des pages, etc. En d’autres termes, un crawler installé en Russie ne collectera pas les mêmes contenus qu’un autre localisé en France.
En définitive, l’ensemble de ces préoccupations techniques renvoie à la question de l’archivage du contexte de l’archive. Les liens sortants d’un site archivés donnent à voir un écosystème global dans lequel le site en question se déploie. Les métadonnées associées ou la localisation du crawler s’inscrivent dans cette même logique. A titre d’exemple, l’archivage des documents audiovisuels du web pratiqué par l’INA suppose l’intégration de paratextes qui vont définir et aider à interpréter et s’approprier les documents d’archive. (Carou, 2007) C’est également une attente spécifique des chercheurs, qui souhaitent pouvoir accéder à toute une série de données contextuelles comme l’URL, la date de capture, la place de la page capturée dans le site, l’arborescence ou encore des statistiques de vue. (Chevallier, Illien, 2011) En conservant le contexte, l’archive fait sens et peut faire rayonner tout son pouvoir mémoriel et remplir sa fonction cardinale de témoignage.
Archives sociales, fonction d’authentification et pédagogie
Suite à l’avènement d’un web ultra collaboratif où les échanges et les commentaires constituent le régime privilégié des internautes, la dimension sociale représente aujourd’hui une part substantielle de l’écosystème global d’un site. Les interactions sociales qui entrent en résonnance avec les documents présents sur le site doivent également être archivées, en mesurant, bien entendu, le perpétuel enrichissement de ses espaces d’interaction. (Meyer, Thomas, Schroeder, 2011)
Les archives du web pourraient également constituer, à terme, un potentiel agent d’authentification. En effet, elles pourraient pointer, par exemple, les changements intervenus sur une page dans un jeu de comparaison entre une page « primaire » (archivée à un moment t) et une page consultée sur le web vivant. Ce travail comparatif prendrait tout son sens dans le contexte mouvant du web. Les pages des sites gouvernementaux ou médicaux et leurs évolutions pourraient ainsi être authentifiées par les archives qui, une fois de plus, rempliraient leur objectif de garantie d’authenticité du document. (Meyer, Thomas, Schroeder, 2011)
Enfin, afin de sensibiliser les plus jeunes aux enjeux de l’archivage du web, des programmes impliquant des élèves dans l’élaboration de collections d’archive du web ont été mis en place.[11] (Reynolds, 2013) Il s’agit de rendre attentives les futures générations à l’importance de ce patrimoine nouveau. Les « digital natives » doivent prendre conscience que les contenus produits sur le web ne sont pas éternels et qu’une importante partie de notre mémoire collective se crée, circule et meurt parfois sur la toile. Gageons que cette génération, si active sur le web et coutumière de la richesse de ses contenus, mesurera plus facilement les enjeux d’une sauvegarde de la mémoire numérique que ses aînés.
Conclusion
A ce jour, quatre grandes approches de l’archivage du web peuvent être identifiées : intégrale, exhaustive, sélective et thématique. Chacune d’entre-elles peut parfois être accompagnée d’une stratégie de collecte particulière : automatisée, semi-automatisée ou manuelle. Ces différentes approches constituent des cadres théoriques qui se combinent parfois sur le terrain et qui doivent se renouveler et s’adapter notamment à de nouvelles réalités de l’archivage des documents nés numériques.
Les chercheurs ont tout à la fois des attentes et des résistances : quoiqu’issus d’horizons disciplinaires différents, ils s’accordent sur la nécessité de conserver une mémoire du web, alors même que la disparition des documents nés numériques inquiète certains d’entre eux. C’est autour d’une politique documentaire pensée pour former des collections qui n’apparaissent pas toujours comme légitimes ou fiables aux yeux des chercheurs que la sélection des contenus doit s’articuler. La difficile prise en main des interfaces d’accès à ces archives doit être résolue pour faire rayonner toute la richesse de ses contenus. Un échange des usages et des compétences à l’international peut y répondre, comme on le constate au sein de l’IIPC.
Des outils d’analyse du web vivant comme la visualisation des contenus, la recherche au sein de gros ensembles de données ou l’analyse des réseaux sociaux, sont autant de leviers à activer et transposer pour exploiter et mettre en valeur les collections des archives du web. D’autres pistes d’innovations, comme l’archivage des journaux des serveurs pour comprendre l’usage passé des archives, l’exploitation statistique des archives ou encore l’observation de la prolifération d’une idée sur le web forment un avenir prometteur des archives du web. Les interfaces d’accès constituent à la fois les vitrines des collections et les portes d’accès principales aux contenus ; exploratrices de gros volumes de données, elles doivent être sans cesse repensées pour garantir un accès toujours plus facilité. Le travail de description des archives et des robots-crawler et l’inscription systématique de métadonnées sont des recommandations centrales et récurrentes dans les études. L’archivage du contexte de ces archives répond aux attentes des chercheurs et tend à inscrire ces nouveaux corpus dans une tradition théorique archivistique, notamment concernant leur fiabilité.
L’établissement d’une mémoire numérique apparaît sinon urgent, du moins légitime. Il demeure plus que jamais nécessaire de poursuivre les efforts de recherche autour des nombreuses questions posées par les programmes d’archivage du web : la complexité des processus à mettre en œuvre, les innovations technologiques associées, les politiques et les choix documentaires, mais également la place des professionnels de l’information dans les mécaniques d’archivage sont des enjeux majeurs.
En concentrant un maximum les actions du quotidien d’une société sur son réseau, Internet tend à devenir un lieu de notre histoire mondiale. La trace, le signe ou l’indice numérique nous invitent plus que jamais à considérer le web et son archivage comme une véritable archéologie des pratiques humaines.
[1] Pour davantage d’informations sur le projet et pour notamment accéder à la « Wayback machine », consulter : https://archive.org/index.php
[2] D’autres chercheurs présentent des chiffres moins alarmistes mais néanmoins préoccupants : 80% des pages sont mises à jour ou disparaissent après un an. (Gomes, Miranda, Costa, 2011)
[3] Pour davantage d’informations sur cet organisme international, consulter : http://netpreserve.org/about-us
[4] Il constitue une synthèse du travail de bachelor intitulé « L’archivage du web : stratégies, études de cas et recommandations », disponible dans son intégralité à l’adresse : https://doc.rero.ch/record/257793?ln=fr
[5] A noter que cette interface d’accès permet d’accéder uniquement à un nombre restreint de ressources. En effet, une grande partie des contenus reçus ou collectés par la fondation ne sont que partiellement accessibles en raison d’embargos, contrats de licence et autres politiques d’accès. (Leetaru, 2016)
[6] L’ensemble de ces grands principes de sélection et d’exclusion est disponible au sein du document consultable ici : https://www.nb.admin.ch/nb_professionnel/01693/01699/01873/01895/index.h...
[7] Pour davantage d’informations sur cet institut, consulter : http://www.oii.ox.ac.uk/
[8] Pour davantage d’information sur cet observatoire, notamment les rapports produits, consulter : http://www.bnf.fr/fr/professionnels/depot_legal_definition/s.depot_legal_observatoire.html?first_Art=non
[9] Il est à noter néanmoins que les interfaces ne cessent de s’améliorer pour mieux s’adapter à leurs utilisateurs, comme en témoigne la récente mise à jour de celle de la BnF en octobre 2016.
[10] Consulter à ce propos : http://www.writediteach.com/images/Citing%20from%20a%20Digital%20Archive%20like%20the%20Internet%20Archive.pdf
[11] C’est le cas, par exemple, de l’initiative « K-12 Web Archiving » : https://archive-it.org/k12/
AUBRY, Sara et al., 2008. Méthodes techniques et outils. Documentaliste-Sciences de l’Information [en ligne]. Avril 2008. Vol. 45. p.12-20. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.cairn.info/revue-documentaliste-sciences-de-linformation-2008-4-p-12.htm
BNF, 2015. Collectes ciblées de l’internet français. Bnf.fr [en ligne]. 26 mars 2015. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.bnf.fr/fr/collections_et_services/anx_pres/a.collectes_ciblee.... Html
BONNEL, Sylvie, OURY, Clément, 2014. La sélection de sites web dans une bibliothèque nationale encyclopédique : une politique documentaire partagée pour le dépôt légal de l’internet à la BnF. IFLA World Library and Information Congress 80th IFLA General Conference and Assembly, Lyon, 16-22 August 2014 [en ligne]. [Consulté le 01.11.2016]. Disponible à l’adresse : http://library.ifla.org/998/1/107-bonnel-fr.pdf
CAROU, Alain, 2007. Archiver la vidéo sur le web : des documents ? Quels documents ?. Bulletin des bibliothèques de France [en ligne]. 2007. N°2. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2007-02-0056- 012
CHAIMBAULT, Thomas, 2008. L’archivage du web [en ligne]. Dossier documentaire. Villeurbanne : enssib. 2008. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.enssib.fr/bibliotheque-numerique/documents/1730-l-archivage-du-web.pdf
CHEVALLIER, Philippe, ILLIEN, Gildas, 2011. Les Archives de l’Internet : une étude prospective sur les représentations et les attentes des utilisateurs potentiels [en ligne]. Bibliothèque nationale de France. 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.bnf.fr/documents/enquete_archives_web.pdf
GOMES, Daniel, MIRANDA, Joao, COSTA, Miguel, 2011. A survey on web archiving initiatives. In: International Conference on Theory and Practice of Digital Libraries [livre électronique]. Berlin, Springer, pp. 408-420. Lecture Notes in Computer Science, 6966. [Consulté le 01.11.2016]. Disponible à l’adresse: http://sobre.arquivo.pt/about-the-archive/publications-1/documents/a-survey-on-web-archiving-initiatives
GREFFET, Fabienne, 2012. Le web dans la recherche en science politique [en ligne]. Revue de la Bibliothèque nationale de France [en ligne], n°40. 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : www.cairn.info/load_pdf.php?ID_ARTICLE=RBNF_040_0078
ILLIEN, Gildas, 2011. Une histoire politique de l’archivage du web. Bulletin des bibliothèques de France [en ligne], n°2, 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2011-02-0060-012
ILLIEN, Gildas, 2008. Le dépôt légal de l'internet en pratique. Bulletin des bibliothèques de France [en ligne], n° 6, 2008. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2008-06-0020-004
INTERNET ARCHIVE, 2016. Archive.org [en ligne]. [Consulté le 01.11.2016]. Disponible à l’adresse : https://archive.org/web/
JOUTARD, Philippe, 2013. Révolution numérique et rapport au passé. Le Débat [en ligne], n°177, 2013. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.cairn.info/revue-le-debat-2013-5-page-145.htm
LAPORTE, Xavier, KAHLE, Brewster, 2011. Brewster Kahle, Internet Archive: “Le meilleur du web est déjà perdu”. Internet Actu [en ligne]. Mars 2011. [Consulté le 01.11.2016]. Disponible à l’adresse: http://www.internetactu.net/2011/06/28/brewster-kahle-internet-archive-le-meilleur-du-web-est-deja-perdu/
LEETARU, Kalev H., 2012. A vision of the role and future of web archives. IIPC 2012 General Assembly, [en ligne], 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/VisionRoles.pdf
LEETARU, Kalev H., 2016. The Internet Archive Turns 20 : A Behind The Scences Look At Archiving The Web. Forbes [en ligne]. 18 janvier 2016. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.forbes.com/sites/kalevleetaru/2016/01/18/the-internet-archive-turns-20-a-behind-the-scenes-look-at-archiving-the-web/#172e34fb7800
MERZEAU, Louise, 2003. Web en stock. Cahier de médiologie [en ligne]. 2003. P. 158-167. [Consulté le 01.11.2016]. Disponible à l’adresse : https://halshs.archives-ouvertes.fr/halshs-00487319
MEYER, Eric T., THOMAS, Arthur, SCHROEDER, Ralph, 2011. Web Archives : The Future(s). IIPC netpreserve.org [en ligne]. 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/2011_06_IIPC_WebArchivesTheFutures.pdf
MUSSOU, Claude. Et le web devint archive : enjeux et défis. Ina-expert.com [en ligne]. Juin 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.inaexpert.com/e-dossier-de-l-audiovisuel-sciences-humaines-et-sociales-et-patrimoinenumerique/et-le-web-devint-archive-enjeux-et-defis.html
PEYSSARD, Jean-Christophe, GINOUVES, Véronique, 2012. Internet Archive. Aldebaran.revues.org [en ligne]. 2 septembre 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://aldebaran.revues.org/6339
REYNOLDS, Emily, 2013. Web Archiving Use Cases. Library of Congress, UMSI, ASB13 [en ligne]. Mars 2013. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/UseCases_Final_1.pdf
- Vous devez vous connecter pour poster des commentaires
iPRES 2016 - International conference on digital preservation, Berne, Bibliothèque nationale suisse, 3-6 octobre 2016
Ressi — 31 décembre 2016
Hansueli Locher, Bibliothèque nationale suisse
iPRES 2016 - International conference on digital preservation
Berne, Bibliothèque nationale suisse, 3-6 octobre 2016
Toute personne active dans le domaine de la conservation d’informations numériques est amenée à s’intéresser à la conférence internationale annuelle iPRES. L’édition 2016 de cette conférence a été organisée par la Bibliothèque nationale suisse et s’est tenue à Berne. Du 3 au 6 octobre elle a proposé à plus de 300 participants un programme riche et varié, avec des présentations, des tables rondes, des ateliers de travail et des posters.
L’origine de iPRES
iPRES résulte d’une invitation en 2003 de l’Académie chinoise des sciences (ACS) et de l‘Electronic Information for Libraries (eIFL) pour une première conférence qui s’est tenue à Pékin en 2004 et à laquelle des experts européens de la conservation numérique participèrent. Après la clôture de ce colloque riche en échanges et enseignements, la Deutsche Forschungsgemeinschaft (DFG, Conseil allemand de la recherche) proposa de renouveler l’expérience. Ainsi vit le jour cette manifestation, qui se tient chaque année sur un continent différent.
Une large palette de thèmes
Les thèmes qui se rapportent à la conservation numérique sont le cœur de iPRES et chaque conférence, dans son programme, met l’accent sur un aspect particulier. Le spectre est donc large. La présentation de solutions concrètes, locales, régionales ou internationales, y trouve sa place, aussi bien que les discussions autour des stratégies à mettre en œuvre.
Les stratégies et les processus de conservation, ainsi que leurs répercussions sur les systèmes d’archivage à long terme, étaient au premier plan de la conférence de Berne. Les orateurs ont abordé des thèmes qui tournaient autour de l’infrastructure, des systèmes (en particulier des systèmes de stockage de données), des outils en relation avec l’archivage numérique. Les défis posés par la conservation dans différentes disciplines, en particulier pour les institutions chargées de transmettre le patrimoine culturel, ont été largement évoqués. Les études de cas, les échanges d’expériences et de « bonnes recettes » trouvées par les uns ou les autres étaient également présents dans ces journées. Une question très actuelle a retenu l’attention : de quelles compétences aura-t-on besoin pour assurer les différentes tâches dans le domaine de la conservation numérique ? Et par conséquent, quelles formations faut-il mettre sur pied et encourager pour avoir la garantie de disposer de personnel qualifié dans ces domaines ?
Je renonce dans cet article à présenter dans le détail les nombreuses contributions : ce serait difficile de le faire de façon à les refléter correctement. Je renvoie le lecteur intéressé à la page web de la conférence, www.ipres2016.ch ; sous le lien « Programme » il trouvera les actes de la conférence (Proceedings) sous forme de documents PDF. Je préfère me concentrer sur quelques points que j’ai trouvés particulièrement forts lors de ces journées.
J’ai observé avec intérêt la façon dont se sont reflétées les approches diverses entre la recherche et la pratique, ou comment les différences entre la théorie et la pratique ont été discutées. Presque à chaque fois elles s’enrichissent l’une l’autre et permettent à chacune de progresser.
Temps forts des discours d’orientation
Les discours d’orientation de la conférence sont restés dans ma mémoire comme des temps particulièrement forts et de haute qualité.
Robert Kahn, directeur général de la Corporation for National Research Initiatives in Reston (USA) nous a parlé le premier jour des défis et des possibilités de l’archivage numérique. Il a entre autre présenté aux participants l’idée d’un registre global d’identificateurs (Global Handle Registry). Il s’agit d’un système mondial de résolution d’identificateurs univoques d’objets numériques, basé sur l’attribution aux organisations d’un préfixe. Celles-ci définissent ensuite des préfixes subordonnés et enfin attribuent pour leur domaine de compétence des suffixes ou indicateurs uniques. Ce système hiérarchique de recensement aurait à son sommet le registre global qui permettrait une identification univoque et assurerait ainsi le référencement des objets numériques.
Le deuxième jour, Sabine Himmelsbach, directrice de la Maison des arts électroniques de Bâle nous présenta les problèmes liés à l’archivage de l’art numérique. Nous apprîmes que la durée de vie de ces œuvres est très dépendante des versions du hardware et du logiciel sur lesquelles elles ont été créées. Dans certains cas, des stratégies telles que des émulations peuvent être appliquées. Mais dès qu’une œuvre tire certains inputs directement de l’internet, il devient difficile de les perpétuer car les technologies du web changent constamment. Dans le meilleur des cas, l’artiste intervient lui-même, comme dans l’exemple que l’oratrice nous a présenté, où des flux provenant de différentes chaînes d’information en continu sont fusionnés et réarrangés pour créer une nouvelle présentation des contenus. Cela signifie aussi que l’artiste modifie son œuvre, qui ne se présente plus telle qu’elle était dans sa version précédente.
David Bosshard, directeur général du Gottlieb Duttweiler Institut für Wirtschaft und Gesellschaft (Institut Gottlieb Duttweiler pour l’économie et la société) examina la question du changement social par les technologies numériques et les potentialités qu’elles offrent. Les frontières de plus en plus floues entre la sphère privée et la sphère publique, ainsi que les attentes toujours plus hautes envers les technologies étaient au centre de son discours. Quels risques et quelles chances présentent les stocks toujours plus grands de données ? Comment se développe la relation entre l’homme et la machine ? Comment seront prises les décisions dans le futur ? Ces questions sont trois exemples parmi celles que l’orateur a discutées avec nous.
Des ateliers de travail intéressants
Des ateliers de travail qui pouvaient répondre à toutes les exigences ont été proposés aux participants. Les identifiants durables pour les objets numériques, des introductions à l’utilisation d’outils ou la discussion sur les stratégies de sorties des services basés sur le « cloud » en sont quelques exemples.
Faire un choix parmi cette offre si variée fut difficile : dans de tels moments, il faudrait pouvoir se cloner ! Comme j’ai plutôt une formation technique, je me suis finalement décidé pour une introduction à "Fedora Repository", logiciel développé par Duraspace pour gérer des collections d’objets numériques. J’ai reçu les instructions d’installation des logiciels nécessaires pour le workshop avant la conférence déjà, ainsi nous avons pu traiter des objets concrets dès le début de l’atelier. Quelques exemples pratiques ont permis de comprendre rapidement le fonctionnement du logiciel. J’ai ainsi découvert avec surprise qu’en plus d’un outil de gestion, je disposais de SOLR, un puissant outil de recherche qui me permettait de formuler des requêtes et d’avoir accès à des ensembles d’objets numériques.
Un deuxième atelier de très haute qualité, consacré aux exigences auxquelles doit répondre un système de stockage à long terme de données, m’a beaucoup intéressé. Dans ce cas aussi, une préparation de l’atelier a été faite avant la conférence, au moyen d’un questionnaire. Il s’agissait de définir, sur la base de nos propres expériences, quelles fonctions et quelles propriétés sont pour nous importantes pour un tel système. Les résultats de l’enquête ont servi de point de départ d’une discussion approfondie. Il était très intéressant de voir pour quelles raisons quelles institutions ont défini des priorités différentes des nôtres ou dans quels domaines nous nous écartons de la norme.
Cet atelier ne s’est pas terminé avec la conférence : ses responsables ont pris l’engagement de traiter et de synthétiser les contributions des participants afin de consolider une liste pondérée d’exigences et de fonctionnalités. Cette liste sera une excellente base pour les institutions qui doivent acquérir un système d’archivage à long terme de leurs données.
Plusieurs niveaux
L’expérience m’a montré que les conférences se déroulent toujours sur plusieurs niveaux. Il y a bien sûr le programme officiel qui sert d’accroche. Mais il y a aussi pour moi – et certainement pour la plupart des participants – un agenda caché. Une conférence est une occasion idéale de mener des discussions informelles, de partager avec les collègues d’autres institutions les questions que l’on se pose et les problèmes auxquels nous sommes confrontés. Les pauses, les repas de midi et les évènements sociaux sont des temps idéaux pour répondre à ce besoin.
La conférence de cette année proposait en plus un « networking wall », sur lequel les congressistes pouvaient faire connaître leurs domaines d’expertise ou les questions pour lesquelles ils cherchaient de l’aide. Un très bon moyen pour trouver un interlocuteur !
Twitter a joué, comme toujours dans les conférences internationales, un rôle important. Je dois avouer que je ne l’ai pas utilisé de façon active. Mais j’ai apprécié de pouvoir connaître par ce biais les impressions sur les présentations auxquelles je n’ai pas pu participer ou de revoir, une fois ces journées terminées, certaines informations qui m’intéressaient et que je n’avais pas eu le temps de creuser sur le moment.
iPRES 2017
La lecture de ce papier vous a-t-elle donné l’envie de participer à la prochaine conférence ?
iPRES 2017 se tiendra en 2017 à Kyoto (Japon), du 25 au 27 novembre.
Pour plus d‘informations:
Twitter: #ipres2016
Page web: www.ipres2016.ch
- Vous devez vous connecter pour poster des commentaires

La revue Ressi
- N° Spécial DLCM
- N°21 décembre 2020
- N°20 décembre 2019
- N°Spécial 100ans ID
- N°19 décembre 2018
- N°18 décembre 2017
- N°17 décembre 2016
- N°16 décembre 2015
- N°15 décembre 2014
- N°14 décembre 2013
- N°13 décembre 2012
- N°12 décembre 2011
- N°11 décembre 2010
- N°10 décembre 2009
- N°9 juillet 2009
- N°8 décembre 2008
- N°7 mai 2008
- N°6 octobre 2007
- N°5 mars 2007
- N°4 octobre 2006
- N°3 mars 2006
- N°2 juillet 2005
- N°1 janvier 2005