Publiée une fois par année, la Revue électronique suisse de science de l'information (RESSI) a pour but principal le développement scientifique de cette discipline en Suisse.
Présentation de la revue
Contenu du site
Se connecter
Publié par Ressi
« Marketing et public » ou comment repenser l’approche des bibliothèques sur l’accueil de leur public
Ressi — 20 décembre 2017
Elise Pelletier, Assistante du Master IS, Haute école de Gestion, Genève
« Marketing et public » ou comment repenser l’approche des bibliothèques sur l’accueil de leur public
L’école de bibliothéconomie et de sciences de l’information (EBSI) de l’Université de Montréal accueillait du 3 au 28 juillet 2017, la quatrième édition de l’école francophone en SIB. Outre l’EBSI et l’ENSSIB en France, plusieurs institutions se joignent désormais à cet évènement : l’EBAD au Sénégal, l’ISD en Tunisie et depuis 2016 la HEG de Genève. Le grand intérêt de cette école est d’offrir l’opportunité à des étudiants, des professeurs et des chercheurs de pays différents d’échanger autour de thématiques proposées par l’école organisatrice. Une trentaine d’étudiants ont ainsi pu profiter de cette formation estivale et de la chaleureuse ville de Montréal. La prochaine session est prévue à la HEG du 18 au 22 juin 2018, parallèlement au centenaire du Département information documentaire.
La quatrième édition, organisée par Réjean Savard, s’étalait sur quatre semaines autour de deux thématiques porteuses : « Marketing et public » et « La numérisation ». La HEG était représentée tout au long des deux sessions, tout d’abord par Michel Gorin et moi-même avec comme invitée d’honneur, Marielle de Miribel. Pour la deuxième session, Basma Makhlouf Shabou est intervenue pour présenter le projet Data Life Cycle Management (DLCM), dans le cadre des deux dernières semaines présidées par Tristan Müller des Bibliothèque et Archives nationales du Québec (BAnQ). Cet article propose un retour sur les interventions de la première semaine.
Marketing et bibliothèques : entre idées reçues et outils incontournables
L’idée d’utiliser les techniques de marketing dans le domaine des bibliothèques n’est pas récente puisque dès 1997, l’IFLA créait la « section marketing et management ». En 2008, un dossier de la revue de l’ADBS « Documentalistes-Sciences de l’information » portait sur le « Marketing stratégique ». Jean-Michel Salaün et Florence Muet y présentaient différents exemples et méthodes d’utilisation d’outils marketing qui se révélaient souvent salvateurs dans un contexte où la profusion du tout numérique obligeait les services d’information à « redonner sa place à la fonction documentaire» (Salaün, Muet 2008). Malgré cet intérêt ancien et marqué, une méconnaissance de la notion de marketing teintée d’une certaine méfiance est toujours d’actualité. Souvent assimilé aux supermarchés et aux agressions publicitaires, le marketing reçoit un accueil parfois frileux et perplexe de la part des professionnels de l’information. Cette assertion s’est vérifiée auprès des étudiants francophones, prouvant qu’elle dépasse largement les frontières.
La présentation de Réjean Savard en introduction à l’école d’été a donc permis de corriger cette vision partielle du marketing. Il y rappelait que le marketing est surtout une « philosophie du management » (Savard 2017) ou dans un contexte francophone une « philosophie de gestion ». En cela le marketing propose des outils et des méthodes qui permettent de :
- Se mettre à l’écoute des besoins des différents publics
- Ajuster l’organisme et ses produits
- Communiquer efficacement auprès des différents publics
- Evaluer ses actions
Le marketing ne se réduit donc pas à l’aspect publicitaire qui, comme le confirmait Najoua Djerad de l’ISD pendant son intervention sur le « concept de marketing », n’est qu’une infime partie du marketing. Il doit être réfléchi dans sa globalité par l’institution qui l’utilise et c’est bien dans un changement de philosophie que cela s’intègre. Pour donner un exemple simple, le terme « clientèle » utilisé en marketing est plus incluant que la classique notion « d’usager » qui par définition exclut les non-usagers. En effet, le marketing permet de comprendre le « positionnement » d’une institution par rapport à son environnement c’est-à-dire « l'identité de la structure. Qui est-[elle] par rapport aux autres ? Quel service rend-[elle] que les autres ne rendent pas ? » (Salaün 1991). Derrière ces questions, il s’agit bien de répondre au mieux aux attentes et aux besoins de la « clientèle ». Evidemment, la relation communauté-bibliothèque est bien différente de celle client-entreprise notamment car elle n’est pas directement et principalement régie par des enjeux économiques. Néanmoins, le marketing donne des méthodes et des outils avec « pour objectif principal de maximiser l’échange entre une organisation et ses publics » (Savard 2017). Dans le contexte actuel, où le public est au cœur des réflexions des professionnels des bibliothèques, le marketing devient un outil indispensable car il va permettre de dessiner une offre de services la plus adaptée possible à la « clientèle ».
Après ces nécessaires rappels, Réjean Savard est revenu sur le concept de marketing mix pour présenter quelles étaient les quatre variables contrôlables qui nourrissaient les échanges entre public et institution (Produit – Prix – Distribution – Communication). Pour illustrer la variable prix dans le contexte des bibliothèques, Réjean Savard a évoqué la campagne d’amnistie proposée par les bibliothèques de Montréal en juin 2017 afin de célébrer le 375e anniversaire de fondation de la Ville. Pendant quinze jours, les lecteurs pouvaient ramener les documents les plus en retard sans être amendés. De même, pour Marielle de Miribel, la carte de lecteur est le premier outil de communication des bibliothèques et une variable assez simple à maîtriser. En invitant les participants de l’école d’été à sortir leur carte de lecteur, il était facilement décelable que ce petit objet était une réelle carte de visite qui renseignait déjà sur l’identité de la bibliothèque. Outre le plaisir de comparer les cartes de lecteur de plusieurs bibliothèques de la Francophonie, l’exemple était intéressant car c’était l’illustration que le marketing n’était pas là pour remettre en cause complétement le fonctionnement des bibliothèques. Il est plutôt la marque d’une volonté de penser chaque élément, chaque service dans sa globalité comme ouvrir son portefeuille, regarder sa carte de bibliothèque et se demander si elle donne envie d’y retourner.
Bibliothèques et clients stratégiques
Suite à cette introduction, j’étais invitée à présenter quelques « considérations stratégiques en marketing ». C’était surtout l’occasion de faire un retour d’expérience sur l’utilisation dans des contextes particuliers d’outils d’analyse de l’environnement et d’ouvrir une discussion avec les participants de l’école d’été.
En 2008, Jean Michel évoquait « la nécessité d’un (re)positionnement stratégique des services d’information ». Par cette idée, il mentionnait les risques réels de baisse de ressources et de fermeture auxquels étaient et sont toujours confrontés de nombreux services d’information. L’objectif qui devient parfois une obligation est de mieux comprendre les besoins de sa clientèle, en passant par une phase de diagnostic « dont on ne peut faire l’économie » (Muet 2008). Typiquement, les outils d’analyse proposés par le marketing permettent d’obtenir une cartographie complète de l’écosystème dans lequel évolue la bibliothèque, du macro au microenvironnement et ainsi mieux identifier les variables non-contrôlables, qui influent sur la bibliothèque. Un de ces outils est l’analyse des 5 (+1) forces de Porter pour qui « l’objectif fondamental d’une organisation est l’obtention d’un avantage concurrentiel, qui se mesure en dernier ressort par sa capacité à générer du profit (pour une entreprise) ou à capter les ressources nécessaires à son existence (pour une organisation publique) » (Johnson 2014, p44).
Forces telles que définies par Porter |
Exemples d’application au contexte des bibliothèques |
Menaces des entrants potentiels |
Nouvelles bibliothèques, ludothèques, cybercafé… |
Menace des substituts |
Internet, moteurs de recherche, abonnement numériques (musique, e-book…)… |
Pouvoir de négociation des acheteurs |
Usagers/non-usagers, Autorité de tutelle |
Pouvoir de négociation des fournisseurs |
Éditeurs, libraires, fournisseurs informatiques… |
Rôle des pouvoirs publics |
Existence de subvention publique en faveur des bibliothèques ou de loi sur le droit de prêt… |
Intensité de la rivalité concurrentielle |
Bibliothèques sur le même territoire pour le même public |
Sans surprise, la force qui exerce le plus de pression est la « Menace des substituts » et cette analyse est générique à toutes les bibliothèques. Plus spécifiquement, Johnson précise dans sa description du « pouvoir de négociation des acheteurs » qu’il est « utile d’identifier les clients stratégiques, ceux vers lesquels la stratégie doit être orientée en priorité. Dans le secteur public, le client stratégique est très souvent l’autorité de tutelle qui contrôle l’utilisation des fonds, plutôt que l’usager. » (Johnson 2014, p 52). Cette analyse est particulièrement intéressante dans un contexte où si tout est réfléchi en fonction de l’usager, l’autorité de tutelle est rarement appréhendée par les professionnels des bibliothèques comme un client. Si on prend l’exemple des bibliothèques municipales, il ne s’agit de répondre aux demandes personnelles du maire comme suggéré par l’un des participants de l’école d’été mais plutôt de réfléchir au développement d’un axe stratégique qui fait de la bibliothèque un service à forte valeur ajoutée et donc indispensable pour la collectivité qu’elle dessert.
Analyse des besoins des publics et participation : le co-design
Un des enjeux du marketing est donc de mieux identifier les besoins du public dans sa globalité pour mieux y répondre. Les méthodes de co-design se situent dans la lignée de cette démarche. Ainsi Marie Martel, nouvelle enseignante à l’EBSI et anciennement bibliothécaire du réseau des bibliothèques publiques de Montréal est venue présenter la notion de « bibliothèque intentionnelle ». Cette présentation était basée sur un retour sur le programme RAC (Rénovation, agrandissement et constructions de bibliothèques) de la Ville de Montréal. Il s’agissait d’un projet de « rattrapage » de la Ville en matière de bibliothèques de lecture publique. Plusieurs bibliothèques municipales ont ainsi été repensées de manière systémique en utilisant les méthodes de co-design qui s’inscrivent dans la lignée de la volonté croissante de faire de l’usager un acteur de la bibliothèque.
Pour commencer, Marie Martel est revenue sur le « continuum de la participation du public », déjà présent dans le projet « Working together » de la Vancouver Public Library qui avait pour objectif de mieux prendre en compte les besoins des citoyens notamment ceux particulièrement éloignés des bibliothèques. Le continuum définit les différents niveaux de participation des publics :
informer/ éduquer |
consulter |
discuter/ débattre |
mobiliser/ participer |
établir un partenariat/ collaborer |
Les expériences de co-design sont clairement situées au niveau de la « collaboration » comme les nouvelles méthodes de création de services : design thinking, user experience (UX) et design de service. Avant de présenter plus précisément le co-design, Marie Martel est revenue sur ces trois autres types de méthode qui sont surtout un état d’esprit.
Le design thinking est basé sur trois phases décrites dans le kit pratique : « le design thinking en bibliothèque » proposé par IDEO.
- « La phase d’inspiration consiste à comprendre les besoins de vos usagers en les observant, en dialoguant avec eux et en vous renseignant sur ce qui se fait ailleurs.
- La phase d’idéation consiste à reformuler vos constats, à élaborer un concept et à lui donner une forme concrète en réalisant un prototype rapide.
- La phase d’itération consiste à tester votre prototype avec vos usagers afin que vos expérimentations successives soient de plus en plus proches du résultat final que vous souhaitez atteindre » (IDEO 2016)
- Les autorités de tutelle étaient vues par ceux qui les interprétaient comme des personnes arrogantes. Parallèlement, ceux qui jouaient le rôle des usagers ou des professionnels avaient une certaine méfiance envers ces autorités de tutelle et les discussions qui en découlaient étaient dans les deux cas compliquées et frôlaient l’agressivité.
- D’un autre côté la discussion entre usagers et bibliothécaires étaient beaucoup plus consensuelle. Les professionnels se trouvaient dans une position de « venez à tout prix » qui les faisaient accepter bon nombre de compromis.
L’UX est une méthode de marketing expérientiel qui se concentre sur l’expérience que l’utilisateur fera d’un service dans sa globalité. Comme le précisent Aaron Schmidt et Amanda Etches dans leur ouvrage « Utile, utilisable, désirable » (2016), « lorsque des individus utilisent un service ou un produit, ils en expérimentent différentes facettes et de nombreux facteurs ont une influence, positive ou négative, sur leur expérience globale. ». L’UX vise à penser tous les « points de contact » qui auront un impact sur l’expérience d’un service (canaux de communication, signalétique, musique, relation avec le personnel…). La carte de lecteur est typiquement un de ces points de contact.
Le design de service cherche également à construire des services avec les utilisateurs. La bibliothèque départementale du Bas-Rhin (BDBR) en France a, par exemple, participé à un projet avec 24 étudiants du DSAA design In situ lab de l’académie de Strasbourg pour redessiner l’offre de services de plusieurs bibliothèques. Les étudiants sont restés en résidence dans les différentes collectivités pour mieux comprendre le contexte local et partager avec les habitants. Entre expérimentation et rencontres, le projet Lectures locales ou les usages de la médiathèque a pour objectif de créer des médiathèques spécifiquement adaptées à un territoire.
Le co-design utilisé par la Ville de Montréal vise à faire collaborer différentes parties prenantes autour d’un même projet. Le but est de développer une stratégie qui permette à l’ensemble des personnes conviées d’exprimer librement leurs opinions, autour d’une question « comment pourrait-on… ? ». En tout, ce sont 11 démarches de co-design qui ont été initiées et plus de 500 citoyens écoutés. Dans l’esprit de transparence de cette méthode, l’ensemble des rapports sur ces démarches sont disponibles comme par exemple pour la bibliothèque de Saint-Léonard. Une des difficultés de ces projets est que comme les autres méthodes, le co-design s’inscrit dans la temporalité et nécessite le maintien d’une continuité. Cependant, les bénéfices en termes de collaboration et d’innovation sont réels et exponentiels. La présentation complète de Marie Martel est disponible sur le site de l’école d’été et elle publie régulièrement des articles à ce sujet sur son blog personnel « bibliomancienne ».
Par la suite, Raphaëlle Bats et Benoit Epron, deux professeurs de l’ENSSIB, ont présenté leur projet de recherche européen PLACED (Place- and Activity-Centric Dynamic Library Services). Né en collaboration avec l’université Aarhus (Danemark), l’université Chalmers (Suède) et l’université Lyon 1 (France), ce projet européen fait également participer trois bibliothèques dont les Bibliothèques municipales de Lyon. L’objectif est de penser la bibliothèque sur son territoire et de créer une interface qui explore parallèlement l’offre documentaire et les activités proposées. L’enjeu est également lié à la participation mais aussi à l’accessibilité avec un premier axe sur la bibliothèque comme lieu de production de savoir et un deuxième sur la bibliothèque comme créatrice de valeur. La présentation complète de ce projet est également disponible sur le site de l’école d’été.
Connaître les publics pour mieux les accueillir
Après ces différentes interventions sur les méthodes de construction de services, l’utilisateur était une nouvelle fois au centre des discussions avec Marielle de Miribel. Docteur en sciences de l’information et de la communication, diplômée de l’ENSB, Marielle de Miribel est ingénieur pédagogique, formatrice, consultante et enseignante. Elle est notamment l’auteure de l’ouvrage « Accueillir les public. Comprendre et agir » paru aux Editions du Cercle de la librairie et réédité en 2013.
L’intérêt de suivre des formations avec cette intervenante expérimentée se situe autant au niveau du contenu que de la méthode. En résonance avec les aspects participatifs des nouveaux services développés par les bibliothèques, les étudiants de l’école d’été ont été mis à contribution dès le début de son intervention. En présentant le triangle pédagogique, Marielle de Miribel pose les bases de la notion de contrat triangulaire qu’elle souhaite fixer avec les participants. Elle dessine surtout les rôles et responsabilités de chacun durant les deux semaines de formation. Entre jeux de rôle, jeux de questions, visites immersives, exercices d’écriture, l’étudiant est complètement acteur de sa formation, l’apprentissage se construit collaborativement. Cette parenthèse sur les méthodes pédagogiques de Marielle de Miribel pose le cadre d’une semaine aussi riche en apports théoriques qu’en apports méthodologiques. Sans détailler plus loin ces différentes approches, il me semble opportun de m’arrêter sur un exercice qui résonne avec les discussions sur l’approche marketing et le changement de perspective qu’elle apporte. Nous avons évoqué un peu plus haut, l’analyse des parties prenantes à l’aide d’un outil d’analyse les 5 (+1) Forces de Porter. En écho à cette analyse, Marielle de Miribel a présenté le contrat triangulaire qui unit l’autorité de tutelle, les professionnels des bibliothèques et les usagers. Chaque pôle du triangle construit un contrat avec un autre pôle en définissant les besoins et devoirs de chacune des parties par rapport aux deux autres. L’objectif de ce contrat triangulaire est d’atteindre l’équilibre dans lequel « personne n’est perdant ; tout le monde est gagnant et participe à l’objectif global en fonction de ses aptitudes, de son rôle et de ses moyens » (De Miribel 2013, p. 49). Pour clarifier ce contrat, Marielle de Miribel a invité les participants à se répartir en trois groupes, chacun représentant un des pôles. Une première phase de ce jeu de rôle consistait à définir précisément les devoirs et attentes de chaque groupe envers les deux autres groupes. Une deuxième phase était la mise en place d’une discussion ouverte entre chacun des groupes. Enfin, l’exercice se terminait par un débriefing sur les conclusions que la mise en scène des relations entre chaque groupe apportait aux participants.
Outre l’aspect clairement ludique de cette expérience, deux choses semblaient assez évidentes. D’abord, la méconnaissance des professionnels et des lecteurs face aux attentes et devoirs des autorités de tutelle et la problématique du positionnement des professionnels des bibliothèques. L’avantage de cette méthode participative est que les étudiants ont pu directement expérimenter les problématiques soulevées par ce contrat triangulaire. Cette prise de conscience permet ainsi aux futurs professionnels de comprendre la nécessité de trouver des outils efficaces pour rééquilibrer les différents contrats qu’ils passent consciemment avec leur autorité de tutelle ou inconsciemment avec leurs usagers. Pour cela, les outils marketing, malgré leur apparente rigidité offrent la possibilité de mieux définir le champ d’action de chacun.
Réconcilier marketing et bibliothèques…
Parallèlement à l’école d’été, le numéro d’avril – juin 2017 de la revue québécoise « Documentation et bibliothèques », proposait un état des lieux à l’ère du numérique du marketing en bibliothèque. Elodie Chabroux, une doctorante en sciences de gestion à l’Université de Bordeaux y présente les résultats d’une étude qu’elle a menée sur le « degré actuel d’intégration du marketing au sein des bibliothèques sous l’angle des sciences de la gestion ». Sa conclusion est sans appel : « aujourd’hui, l’un des enjeux pour les bibliothèques est de réussir à démystifier et à dédiaboliser la fonction marketing » (Chabroux 2017). Par la diversité des interventions et des échanges de cette semaine, ce travail de « dédiabolisation » a été réel pour les participants à cette quatrième école d’été.
En axant cet article sur les présentations des différents intervenants, j’omets malencontreusement, tous les interactions avec et entre les étudiants, qui sont une des grandes richesses de cet événement. En effet, même si les sciences de l’information et des bibliothèques sont la raison qui occasionne la rencontre entre les différentes écoles francophones, l’objectif principal est bien la confrontation de plusieurs visions. Il faut donc souhaiter que la HEG soit un terrain propice à ces échanges autour de sa thématique : « L’évolution des Services d’information, de la Grande Guerre à la transition numérique»
Bibliographie
Chabroux, E. (2017). Le marketeur, ce mal-aimé de tous: et si on l’aidait à trouver sa place ?. Documentation et bibliothèques, 63(2), 31-40.
IDEO. (2016). Le design thinking en bibliothèque. IDEO et Bill and Melinda Gates foundation. [Consulté le 14 décembre 2017]. Disponible en ligne : http://www.enssib.fr/bibliotheque-numerique/documents/66044-le-design-thinking-en-bibliotheque.pdf
Etches, A., & Schmidt, A. (2016). Utile, utilisable, désirable: redessiner les bibliothèques pour leurs utilisateurs. Presses de l'enssib.
Johnson, G. (2014). Stratégique (10e éd.. ed.). Montreuil : Pearson.
Michel, J., Roussel Gaucherand, S. & de Gouttes, C. (2008). Le positionnement stratégique. Documentaliste-Sciences de l'Information, vol. 45,(1), 44-51. doi:10.3917/docsi.451.0044.
De Miribel, M. (2013). Accueillir les publics: comprendre et agir. Éd. du Cercle de la librairie.
Salaün, J. M. (1991). Marketing des bibliothèques et des centres de documentation. Bulletin des bibliothèques de France (BBF), 1991, n° 1, p. 50-57. ISSN 1292-8399. [Consulté le 14 décembre 2017]. Disponible en ligne : http://bbf.enssib.fr/consulter/bbf-1991-01-0050-007
Salaün, J. M., & Muet, F. (2008). Le diagnostic marketing. Documentaliste-Sciences de l'Information, 45(1), 36-43.
Savard, R. (2017). Marketing des bibliothèques et autres services d’information : État des lieux à l’ère du numérique. Documentation et bibliothèques, 63(2), 4–4. DOI : 10.7202/1040174a
- Vous devez vous connecter pour poster des commentaires
Service de gestion des données de recherche à la Bibliothèque de l’EPFL : historique, services et perspectives
Ressi — 20 décembre 2017
Eliane Blumer, Coordinatrice données de recherche, Bibliothécaire de liaison pour les Sciences de la Vie
Jan Krause, data librarian
Service de gestion des données de recherche à la Bibliothèque de l’EPFL : historique, services et perspectives
Introduction
Tout service réussi répond à un besoin. Dans ce cas, le besoin est double, d’une part celui des chercheurs et d’autre part celui de l’institution. En effet, au cours des dernières années, les principaux bailleurs de fonds ont mis en place des exigences plus poussées en matière de gestion de données. En parallèle, les éditeurs ont également élevé leurs critères en ce sens. De plus, la complexité et la quantité des données ne cessant d’augmenter, certains chercheurs ressentent le besoin d’être épaulés par leur organisation. Par ailleurs, depuis le début de l’année la nouvelle direction de l’EPFL a mis un point fort sur l’ouverture de la science et sa reproductibilité (open science), ce qui inclut une meilleure gestion ainsi qu’une ouverture plus large des données de la recherche.
Pour répondre à ces besoins croissants, le service de gestion des données de la recherche de la Bibliothèque de l’EPFL a mené deux projets en parallèle : la création de son offre de service et une participation très active au projet national Data Life-Cycle Management (DLCM). Chacun nourrissant l’autre et permettant le développement de compétences. Cet article décrit l’historique de la mise en place du service de gestion des données de recherche à la Bibliothèque de l’EPFL. Il s’arrête sur les services offerts à ce jour et se termine sur les perspectives d’évolution.
Historique de la mise en place du service
L’implication des bibliothèques universitaires dans la gestion des données de la recherche se situe dans la continuité de leurs missions. En effet, les données sont désormais considérées comme des éléments de publications scientifiques à part entière dans le cadre de la dissémination de la recherche. Le partage des données de recherche devient donc crucial. Il s’agit d’une extension des compétences en matière de métadonnées, de licences, de dépôts institutionnels, notamment. Pour cette raison, entre 2012 et 2013, le dossier « Données de la recherche » a été intégré dans les axes stratégiques de travail au sein de la Bibliothèque, qui a su anticiper les besoins institutionnels. Le travail a démarré d’un côté avec un état des lieux des services offerts dans d’autres institutions internationales, et de l’autre avec la mise en place de collaborations liés aux données de la recherche au sein de l’institution. En pratique, la gestion des données de recherche a été insérée dans le cahier des charges de deux personnes entre fin 2013 et début 2014, ce qui représentait une charge de 0.4 ETP au total.
Tout au long de 2014, le projet de mise en place des services de support pour les chercheurs en matière de gestion de données a été poursuivi, et une première action de sensibilisation a été réalisée avec la conférence « Open Research Data – The Future of Science ». Ce fut l’occasion de se réunir avec les chercheurs et les autres acteurs impliqués au sein de l’institution (le Research Office, le service informatique), et d’échanger avec d’autres acteurs concernés en Suisse (professionnels de l’information, etc.).
Cette même année, la Bibliothèque s’est focalisée sur la mise sur pied du projet national Data Life-Cycle Management (DLCM)[1]. Nous avons été particulièrement actifs dans la soumission commune de la proposition de projet auprès du fond swissuniversities P-2 Information Scientifique. Celle-ci a permis d’obtenir un fond de cinq millions au total destiné à répondre au niveau national aux besoins les plus imminents des chercheurs en matière de gestion de données, incluant le planification, la gestion active, la préservation ainsi que le training et consulting. Dans ce contexte, la Bibliothèque de l’EPFL s’est engagée activement en tant que responsable d’un axe de travail, ce qui lui a permis d’augmenter ses forces de travail d’1.0 ETP via des fonds mixtes. De manière générale, la Bibliothèque de l’EPFL a bénéficié du projet DLCM qui a joué le rôle de moteur national pour les institutions participantes.
En 2015, le service se formalise. La Présidence de l’EPFL approuve en janvier un projet de service d’accompagnement des chercheurs pour la rédaction des Data Management Plans (DMP) en phase pilote pour six mois. L’objectif du service était de soutenir les chercheurs qui devaient répondre aux requêtes en matière de gestion de données de la recherche de la Commission Européenne dans le cadre de l’Open Data Pilot du programme de financement Horizon 2020. Le projet a été ensuite confirmé et stabilisé après le pilote. C’est également dans ce contexte et au cours de cette année que les effectifs ont pu être augmentés de 0.8 ETP.
Une page web a été également insérée dans le site de la Bibliothèque, mettant en évidence les différents services impliqués dans la gestion des données à l’EPFL. De plus, un article présentant les enjeux de la bonne gestion des données ainsi que le service est publié dans le journal institutionnel[2].
Côté sensibilisation, la Bibliothèque a de nouveau organisé un événement, étalé sur quatre dates autour la thématique de l’Open Science, cette fois-ci avec une orientation plus pratique, avec entre autres des workshops sur [3] et la fouille de textes et de données (data and text mining).
Côté formation, une première offre a été mise en place, avec l’intention de couvrir les besoins institutionnels. Une formation généraliste d’une journée (« Optimizing Research Data Management »), accessible via le Service de Formation du Personnel et destinée à l’ensemble de l’EPFL avec un fort accent sur la recherche a été créée.
Dès 2016, un module de gestion des données de recherche dans la formation en compétences informationnelles à destination des doctorants a été initié ; il se focalise sur la publication de jeux de données. Des formations ciblées pour des groupes de recherches sont aussi offertes à la demande. Dans ces cas, une étude des besoins du laboratoire est effectuée au préalable, d’une part via un sondage auprès des membres du groupe et d’autre part en se basant sur une enquête plus approfondie auprès d’une ou deux personnes choisies. Finalement, des propositions d’améliorations sont faites et discutées avec l’ensemble du groupe pendant une demi-journée ou une journée entière. Le but étant de prendre des décisions débouchant sur des actions concrètes.
Sur le plan de la sensibilisation, la Bibliothèque de l’EPFL a notamment agi via la co-organisation de la conférence opendata.ch à Lausanne, en prenant en charge la partie dédiée aux données de recherche, les autres partenaires se focalisant sur les aspects gouvernementaux et commerciaux de l’open data.
Sur le plan pratique, pour renforcer les actions de support pour les chercheurs dans la rédaction des DMPs, la Bibliothèque a créé en 2016, en collaboration avec l’Ecole Polytechnique Fédérale de Zürich (ETHZ), une Data Management Checklist ainsi qu’un premier modèle de Data Management Plan (en partenariat aussi avec le Digital Curation Centre). Ce modèle répond au lancement du Open Data Pilot d’Horizon 2020[4], le programme européen de financement de la recherche et de l’innovation. Le pilote portait sur neuf domaines scientifiques[5] et comprenait la nouvelle exigence de fournir un DMP. Plus précisément, ce type de plan consiste à répondre à un ensemble de questions spécifiques, telles qu’illustrées dans le tableau 1 ci-dessous. En d’autre termes, il s’agit d’un document définissant pas à pas la gestion des données, depuis leur création jusqu’à leur archivage. Étant donné que Horizon2020 est l’un des deux bailleurs de fonds les plus importants pour l’EPFL, il est évident que ceci a demandé une forte implication du service pour répondre au besoin des chercheurs. Il était également important de remplir ces exigences pour la direction et de maintenir le niveau de financement obtenu.
Par ailleurs, le projet DLCM ayant été accepté, une partie importante des forces de travail s’est orientée sur ce projet. Notamment, sur la réflexion autour du portail DLCM, ainsi qu’un travail préliminaire sur le projet de préservation à long terme. Ceci a permis à l’équipe de la Bibliothèque de renforcer son réseau et ses compétences
En 2017, Martin Vetterli a été nommé président de l’EPFL. Dès son entrée en fonction, celui-ci a fait remonter l’Open Science au premier plan des préoccupations stratégiques de l’institution. En particulier, la direction a apporté son soutien à la démarche de la Bibliothèque et de son service de gestion des données de recherche. Des actions pragmatiques ont été entreprises en étroite collaboration avec la Bibliothèque tel qu’un hackathon basé sur l’ouverture de données de l’EPFL[6] ou encore une école d’automne pour les doctorants, Open Science in Practice, a été mise en place. La bibliothèque s’y est fortement impliquée, notamment en proposant les modules sur le DMP, la publication et la préservation de données. De plus, la formation interne déjà en place sur le data management planning a vu sa demande augmenter et a été donnée quatre fois.
Ce fut également le moment opportun pour lancer le nouveau site web http://researchdata.epfl.ch , déjà en préparation. Celui-ci comporte les sections suivantes : Planification et financement, Travailler avec les données, et Publication et préservation. Les informations-clés concernant le support et les formations y sont disponibles.
Toujours en 2017, le Fond national suisse de la recherche scientifique (FNS) exige des DMP dès la soumission des projets, et ceux-ci sont devenus une part importante du service. De façon similaire, Horizon2020 a étendu son Open Data Pilot à l’ensemble des disciplines, rendant le DMP systématiquement obligatoire. En réponse à ceci, [7] à été élaboré, toujours en collaboration avec l’ETHZ.
Ce n’est pas uniquement l’accroissement des forces de travail qui a permis de monter ce service, mais également la collaboration avec d’autres services et institutions ainsi que l’organisation d’un bon nombre d’événements clés internes et externes à l’EPFL sur plusieurs années.
Figure 1 – Evolution des forces de travail de l’équipe, financement EPFL et DLCM confondus.
Les services à ce jour
Globalement, les services en matière de données de la recherche offerts par la Bibliothèque peuvent être divisés en deux catégories : le soutien et les formations.
Soutien
Le soutien se décline en plusieurs variantes.
Le plus fréquemment, il s’agit d’assister les unités de recherche à rédiger un DMP. Il s’agit souvent de répondre à l’exigence d’un bailleur de fonds, particulièrement le FNS ou Horizon2020. Moins fréquemment, les groupes désirent travailler sur un DMP dans le simple but d’améliorer leur pratique.
Dans d’autres cas, notre apport consiste à amener une expertise spécifique quant à une problématique précise. Il peut par exemple s’agir de choisir un dépôt pour la publication de données, ou une licence appropriée, ou encore un renseignement quant à la politique d’un éditeur en matière de partage de données.
Afin d’optimiser le support, nous avons créé différents guides. Parmi les plus utilisés, il y a le [8], élaboré en collaboration avec la bibliothèque de l’ETHZ. Ce document propose des recommandations ainsi que des exemples de réponses pour chaque question du bailleur de fonds (voir tableau 1).
Tableau 1 - Questions à développer pour le Data Management Plan du Fonds national suisse de la recherche scientifique
1 Data collection and documentation 1.1 What data will you collect, observe, generate or reuse? 1.2 How will the data be collected, observed or generated? 1.3 What documentation and metadata will you provide with the data? 2 Ethics, legal and security issues 2.1 How will ethical issues be addressed and handled? 2.2 How will data access and security be managed? 2.3 How will you handle copyright and Intellectual Property Rights issues? 3 Data storage and preservation 3.1 How will your data be stored and backed-up during the research? 3.2 What is your data preservation plan? 4 Data sharing and reuse 4.1 How and where will the data be shared? 4.2 Are there any necessary limitations to protect sensitive data? 4.3 I will choose digital repositories that are conform to the FAIR Data Principles. 4.4 I will choose digital repositories maintained by a non-profit organization. |
Par exemple, concernant la question sur le copyright et la propriété intellectuelle, la recommandation suivante est proposée :
« Attaching a clear license to a publicly accessible data set allows other to know what can legally be done with its content. When copyright is applicable, Creative Commons licenses are recommended. However, Creative Commons licenses are not recommended for software. Amongst all Creative Commons licenses, CC0 "no copyright reserved” is recommended for scientific data, as it allows other researchers to build new knowledge on top of a data set without restriction. It specifically allows aggregation of several data sets for secondary analysis. Several data repositories impose the CC0 license to facilitate reuse of their content. In order to enable a data set to get cited, and therefore get recognition for its release, it is recommended to attach a CC-BY “Attribution” license to the record, usually a description of the dataset (metadata). To get recognition, data sets can be cited directly. However, to increase their visibility and reusability, it is recommended to describe them in a separated document licensed under CC BY “Attribution”, such as a data paper or on the institutional repository. When the data has the potential to be used as such for commercial purposes, and that you intend to do so, the license CC BY-NC allows you to keep the exclusive commercial use. Reuse of third-party data may be restricted. If authorised, the data must be shared according to the third party’s original requirement or license. If you need guidance in the publication and license choice, you can check the suggested “Data publication decision tree” |
Pour ce même point, trois exemples sont aussi donnés :
Example 1: The research is not expected to lead to patents. IPR issues will be dealt with in line with the institutional policy. As the data is not subjected to a contract and will not be patented, it will be released as open data under Creative Commons CC0 license. Example 2: This project is being carried out in collaboration with an industrial partner. The intellectual property rights are set out in the collaboration agreement. The intellectual property generated from this project will be fully exploited with help from the institutional Technology Transfer Office. The aim is to patent the final procedure and then publish the work in a research journal and to publish the supporting data under an open Creative Commons Attribution (CC BY) license. Example 3: Data is suitable for sharing. They are observational data (hence unique) and could be used for other analyses or for comparison for climate change effects among many things. Reuse opportunities are vast. For this reason, we aim to allow the widest reuse of our data and will release them under Creative Commons CC0. |
De plus, d’autres documents ont été élaborés et mis à disposition sur le site web, dont :
- Modèle pour Horizon 2020
- Formats de fichier recommandés pour la préservation à long terme
- Arbre de décision pour choisir une stratégie de publication des données
Un cas type de demande d’assistance pour la rédaction d’un DMP
Souvent, les demandes de soutien débutent par un mail reçu sur la boîte email researchdata@epfl.ch Prenons l’exemple fictif d’un message avec pièce jointe envoyé par une chercheuse en Sciences de la Vie constitué du modèle DMP FNS pré-rempli ainsi que de plusieurs questions. Imaginons que, dans le DMP, la nature des données produites ainsi que les droits de partage (embargo, données sensibles etc.) ne sont pas détaillés. Comme il y a beaucoup de points à couvrir dans ce cas, nous contactons la personne en lui proposant un entretien afin de discuter de vive voix de ses questions. Dans des cas plus simples, nous répondons directement par email ou par téléphone.
Le rendez-vous fixé, deux collègues de l’équipe données de recherche ainsi que le/la bibliothécaire de liaison de la discipline concernée se réunissent pour préparer ensemble le retour. L’équipe se rend compte que d’autres parties du DMP ont été traitées de façon superficielle ou manquent. C’est souvent concernant la préservation à long-terme, les métadonnées, les formats de préservation et les licences.
Lors de la réunion, les questions de la chercheuse sont traitées, puis, l’ensemble du document est passé en revue et des suggestions d’amélioration sont faites. En sciences de la vie, lorsque le projet est réalisé avec des partenaires industriels, les droits doivent être discutés avec tous les acteurs impliqués. On insiste également sur le fait que les données personnelles ou sensibles, sont soumises à des exigences légales, et en fonction de la situation, nous renvoyons la chercheuse vers le Human Research Ethics Committee's (HREC)[9]. Pour la gestion des données actives, nous renseignons sur les différents outils appropriés, et, le cas échéant nous renvoyons vers le service informatique concerné (stockage, cahier de laboratoire électronique, gestion des versions, etc.). En ce qui concerne les métadonnées, nous proposons des standards appropriés, en soulignant l’importance de décrire les jeux de données de façon à ce qu’ils soient FAIR[10], comme l’exigent la plupart des bailleurs de fonds. Pour la partie préservation à long-terme, nous rappelons que l’EPFL ne propose pas (encore) de solution interne. Dans le cas présent, une fois les données anonymisées, elles pourront être publiées gratuitement sur Zenodo.org [11]. Nous profitons de l’occasion pour discuter un peu plus en détails de l’initiative du FNS, ainsi que du budget disponible pour la gestion des données du projet.
A la suite de la réunion, nous renvoyons un message contenant tous les documents et informations utiles en pièce jointe.
Le soutien tel que décrit ci-dessus s’est avéré pertinent et apprécié. Cependant, au sein d’une institution forte de milliers de chercheurs organisés en environ 353 groupes de recherche, il n’est pas possible de revoir en détail le data management plan de chaque projet. C’est une des raisons pour lesquelles il est important de former les collaborateurs concernés.
Formation
- Présentation : court exposé non-interactif d’une thématique visant un public spécifique.
- Atelier court : d’une durée de deux heures, souvent combiné avec une pause sandwich à midi, visant généralement les chercheurs.
- Atelier d’une demi-journée : souvent utilisé pour la formation sur mesure d’un groupe de recherche, ou un module pour l’école doctorale.
- Atelier d’une journée et plus : visant généralement un public hétérogène : personnel EPFL en général, une école doctorale, bibliothécaires spécialistes.
La Bibliothèque propose une gamme de formations, tant à l’interne qu’à l’externe. La priorité est évidemment de servir l’institution, néanmoins, l’équipe « données de recherche », s’efforce de répondre aux sollicitations externes dans la mesure de ses forces. En effet, les interventions externes constituent une occasion précieuse de s’enrichir et d’échanger.
Nos formations prennent différentes formes, en fonction du contexte. Voici la panoplie que nous utilisons :
Un cas type : la formation destinée au personnel EPFL
Description
Savoir gérer et organiser ses données de recherche devient l’une des conditions sine qua non pour garantir la qualité, la pérennité ainsi que la reproductibilité de ses données dans la durée. De plus, de nombreux bailleurs de fonds exigent aujourd’hui de savoir préparer un plan de gestion des données pour obtenir un financement. Ce cours d’introduction vous permettra d’acquérir les connaissances et ressources indispensables pour améliorer et optimiser l’organisation ainsi que le partage de vos données de recherche pour le long terme.
Objectifs
- Acquérir les connaissances de bases et découvrir les ressources à votre disposition pour mieux gérer vos données.
- Se sensibiliser aux bonnes pratiques en matière de gestion des données de la recherche tout au long du cycle de vie.
- Saisir les bénéfices d’une telle pratique et savoir répondre aux nouvelles exigences des bailleurs de fond dans ce domaine.
- S’approprier les outils à votre disposition pour optimiser la gestion de vos données au quotidien et à long terme.
- Connaître les étapes et outils pour optimiser la préparation d’un plan de gestion des données.
- Partager votre expérience avec vos collègues.
Parcours de formation :
- Définitions et cycle de vie des données de recherche.
- Avantages d’une meilleure gestion et positions des bailleurs de fonds.
- Présentation théorique des bonnes pratiques pour organiser et partager ses données de recherche.
- Mise en pratique de solutions en fonction des disciplines des participants à cette formation.
- Conseils personnalisés et partages d’expériences.
Public cible
Tout collaborateur souhaitant acquérir de nouvelles compétences pour une meilleure gestion de ses données de recherche. Cette formation est un prérequis pour suivre le cours pratique qui porte sur l’utilisation du logiciel de cahier de laboratoire électronique.
Autres informations
Cette formation offrira des bases théoriques et pratiques. Tout au long de la journée, des exemples concrets seront discutés et mis en pratique selon les besoins précis des participants. Chaque participant aura l’opportunité de pratiquer sur un ordinateur mis à sa disposition et pourra explorer les ressources et solutions disponibles pertinentes dans le cadre son domaine de recherche.
Conclusion
En résumé, la Bibliothèque a su anticiper les évolutions de la recherche scientifique et les nouveaux besoins des chercheurs afin de mettre en place un service adapté. Il a été nécessaire de rassembler plusieurs facteurs pour y parvenir. Tout d’abord, comme l’ensemble des compétences requises pour un tel service n’était pas centralisé à la bibliothèque, il a été essentiel d’établir des collaborations internes et externes. Cela a été l’occasion de devenir une plateforme centralisant les demandes. Ensuite, le contexte politique a été favorable. Premièrement, au niveau institutionnel, avec une volonté claire de soutenir l’Open Science. Deuxièmement, le contexte politique suisse et international a permis de s’engager dans le projet DLCM et de répondre au besoin des chercheurs, lié principalement aux exigences des bailleurs de fond FNS et Horizon2020.
Dans ce domaine en évolution perpétuelle, il est nécessaire de continuer d’innover. Pour commencer, les activités liées à la gestion des données de recherche de la Bibliothèque s’inscrivent dans une stratégie plus large, et qui est actuellement en train d’être approfondie. De plus, si l’on se restreint plus strictement au sujet de cet article, divers développements sont prévus. Pour commencer, les services et outils mis en place continueront d’être améliorés, notamment une nouvelle version du modèle de DMP pour le FNS est prévue. Par ailleurs, des nouveautés sont prévues, citons par exemple la mise en place d’un dépôt institutionnel pour les données, d’un cours crédité pour les doctorants, ou encore d’un service de data stewards travaillant en étroite collaboration avec les laboratoires.
Remerciements
Nous tenons à remercier chaleureusement tous nos collègues de l’équipe des données de recherche et au-delà, qui ont pris le temps de relire et améliorer cet article. Merci en particulier à Lorenza Salvatori d’avoir complété cet historique.
Notes
[1] Accepté en août 2015, DLCM vise à développer ses services en partant des besoins de la communauté. D'entrée de jeu, 49 chercheurs spécialisés dans des disciplines variées ont été interviewés à travers la Suisse. Concrètement, le projet rassemble les forces de l'EPFL, de la HEG / HES - SO, de l'UNIL, de l'UNIBAS, de l'UNIZH, de l'ETHZ, de l'UNIGE et de SWITCH. Pour répondre aux besoins identifiés dans ces interviews, cinq groupes de tâches, appelés tracks , ont été mis en place » Krause & Blumer, Hors-Texte 110, Novembre 2016, p. 27sq. Les cinq tracks sont : Lignes directrices et politiques ; Données actives de recherche ; Préservation à long terme ; Conseil, formation et enseignement ; Diffusion. Plus d’information : https://dlcm.ch
[2] « Les données de recherche: une mine d’or à domestiquer et valoriser » Flash No. 04, mai 2015. https://mediacom.epfl.ch/files/content/sites/mediacom/files/Flash/Flash%2004-2015.pdf
[3] Voir : http://jupyter.org
[4] Voir : https://ec.europa.eu/programmes/horizon2020/
[5] Voir : http://www2.unavarra.es/gesadj/servicioBiblioteca/piloto_de_datos/4.%20p...
[6] Voir : http://datajamdays.org/
[7] Voir : https://researchdata.epfl.ch/files/content/sites/researchdata/files/doc/EPFL_SNSF_DMP_Template.docx
[8] Voir : https://researchdata.epfl.ch/files/content/sites/researchdata/files/doc/EPFL_SNSF_DMP_Template.docx
[9] Voir : https://research-office.epfl.ch/research-ethics/research-ethics-assessment/epfl-human-research-ethics-committee/hrec
[10] Les données FAIR, signifient: Findable, Accessible, Interoperable and Reusable. Voir: https://www.force11.org/group/fairgroup/fairprinciples
[11] Dépôt de données de recherche. Voir: https://zenodo.org
- Vous devez vous connecter pour poster des commentaires
Les grandes bibliothèques à quatre voix
Ressi — 31 décembre 2016
Jonas Beausire, Haute Ecole de Gestion, Genève
Les grandes bibliothèques à quatre voix
Ce recueil, au titre programmatique, laisse distinguer quatre voix singulières et remarquables, celles d’anciens directeurs romands de grandes bibliothèques : Jacques Cordonier, Alain Jacquesson, Jean-Frédéric Jauslin et Hubert Villard[1]. Tous mandatés à la fin du 20e siècle, les quatre hommes ont accompagné leur établissement, qu’il soit cantonal, national et/ou universitaire, dans la transition numérique. Ils racontent, tout au long de ces entretiens[2], leurs années de formation, leur parcours, les innombrables défis et obstacles professionnels auxquels ils ont dû faire face, mais aussi leurs regrets. En apportant leur regard sur les grands enjeux et débats bibliothéconomiques, les quatre directeurs déploient plus largement une réflexion sur ceux de la société de l’information.
Omniprésence de l’informatique
Pédagogie, mathématiques, informatique, lettres et bibliothéconomie sont les disciplines qui ont formé les quatre intervenants. Cette pluralité disciplinaire trouve un dénominateur commun avec l’informatique et son rôle « […] révolutionnaire […] appliqué au traitement de la documentation. » (p. 29). En effet, les processus d’automatisation et d’informatisation sont au cœur d’une révolution documentaire dont témoignent les défis organisationnels de certains directeurs. Le passage d’un système informatique centralisé à la mise en place d’un réseau informatique[3], permettant d’accélérer les échanges et le partage des ressources, est l’occasion d’anecdotes qui renseignent sur une époque où les transferts de bandes magnétiques s’organisaient à coup de voyages en 2 CV et de relais nocturnes. Plus tard, ce seront les services de prêt et des acquisitions qui seront gérés informatiquement. Quel que soit le contexte spécifique de cet avènement de l’informatique documentaire, celle-ci mènera systématiquement vers un décloisonnement des connaissances et des services traditionnels de la bibliothèque et vers de nouvelles possibilités de collaboration entre les institutions.
Stratégies et politique
Ces années de direction sont également racontées au travers du prisme des grandes orientations stratégiques prises par les quatre directeurs. La collaboration internationale et les interdépendances avec les autorités de tutelle structurent les grandes décisions prises mais aussi les limites politiques auxquelles certains ont été confrontés. Ainsi, Jacques Cordonier rappelle comment il a souhaité positionner la Bibliothèque cantonale valaisanne « […] comme la tête d’un réseau fédérant l’ensemble des bibliothèques du Valais […] » (p. 14) ou J-F Jauslin de rappeler comment il a œuvré à placer la Bibliothèque nationale (BN) « […] au niveau international parmi les autres bibliothèques nationales […] » (p. 61). En invoquant le premier septennat de François Mitterrand et les grands travaux de son exceptionnelle politique culturelle[4], J-F Jauslin insiste sur la nécessité de faire dialoguer le monde de la culture avec celui de la politique afin de garantir soutiens, partenariats et financements des bibliothèques. Hubert Villard insiste quant à lui sur « le rôle citoyen prépondérant » (p. 102) des bibliothèques en évoquant la lutte contre l’illettrisme, par exemple.
Accessibilité et renouvellement des collections
L’informatisation, l’accélération des échanges, le développement de certaines technologies et les synergies politico-culturelles ont agi sur le développement des collections physiques et électroniques des différents établissements. Ces entretiens sont également l’occasion d’évoquer les enjeux liés aux nouvelles technologies et la façon dont elles ont permis de conceptualiser de nouveaux accès aux collections, à l’image du portail « Vallesiana »[5] qui fédère les ressources des fonds d’archives, de la médiathèque et des musées du Valais. Les portails e-rara.ch, e-codices.ch et e-periodica.ch[6] signalent la numérisation massive des contenus. Des technologies comme celle mise à disposition à la BN permettent même de « […] numériser un document et de l’imprimer en moins d’une heure à des coûts tout à fait performants. » (p. 72-73). L’association Memoriav[7] illustre également des préoccupations patrimoniales qui s’étendent jusqu’aux documents audiovisuels et leur difficile prise en charge. Certains auteurs rappellent que cette mise à disposition des ressources numérisées au plus grand nombre interroge aussi la capacité des institutions à préserver ces nouveaux contenus dont la durée de vie informatique ne dépasse pas cinq ans (Cordonier et al., p. 80). H. Villard, à la tête de la Bibliothèque cantonale et universitaire de Lausanne (BCU), relate comment son institution a contracté un partenariat avec Google afin de faire numériser ses ouvrages libres de droit. Les enjeux patrimoniaux et politiques que soulèvent ce genre de collaboration divisent les différents directeurs dont certains dénoncent le dévoiement des missions fondamentales des bibliothèques et de leur indépendance (p. 79).
Missions et défis de demain
Le spectre des GAFA[8] n’est de loin pas le seul enjeu de l’avenir des bibliothèques ; leur fréquentation et leur organisation interne sont au centre des réflexions des quatre directeurs. Parmi les différentes perspectives sur la façon d’engager une relation pérenne avec leurs publics, une approche centrée sur les besoins de l’utilisateur semble avoir guidé les initiatives de chacune des institutions, comme l’affirme A. Jacquesson : « […] il me semble toujours souhaitable de procéder à l’analyse des besoins des utilisateurs. » (p. 46). Ces attentes multiples convergent vers la finalité du métier de bibliothécaire : « […] satisfaire un besoin d’information du lecteur. » (p. 102). Ainsi, les espaces physiques de la bibliothèque sont tour à tout considérés comme ceux propices au travail, à la tranquillité, au refuge ou aux échanges et Jacques Cordonier de citer les propos rapportés d’un réfugié cubain en conclusion de son entretien : « Lorsque je suis arrivé à Sion, il y a deux endroits où j’ai pu aller librement, où l’on ne m’a pas demandé mes papiers et où l’on ne m’a pas fait payer : la cathédrale et la médiathèque. » (p. 28). Au-delà de ce souci commun des usagers, les quatre hommes expriment leur position quant à l’opportunité d’une loi fédérale spécifique aux bibliothèques, laissant entendre des voix circonspectes sur cet instrument, considéré au mieux comme un levier peu opportun, au pire comme un pari perdu d’avance. Ce sont davantage l’exploitation des big data et les humanités digitales qui constituent de nouveaux champs de recherche et des défis professionnels inhérents à notre société de l’information, comme le souligne A. Jacquesson : « […] de nouveaux professionnels nés avec le numérique vont être chargés de traquer l’information sur les réseaux ; ils auront la lourde tâche d’organiser les big data […] ». (p. 56). En rappelant les chiffres d’une étude qui souligne qu’Internet constitue le 80% des sources utilisées par les doctorants, J-F Jauslin insiste sur le rôle de guide privilégié que les bibliothécaires doivent plus que jamais endosser auprès des chercheurs, soumis à une masse informationnelle en perpétuel accroissement. Cette fonction prescriptrice et d’accompagnement est partagée notamment par H. Villard qui brosse le portrait du bibliothécaire académique « nouvelle mouture » en ces termes : « […] accompagnateur de la recherche, au plus près des chercheurs, professeurs et étudiants. Il leur apporte ses précieuses compétences en matière d’appui à la publication scientifique, de gestion des modalités d’open access, de sauvegarde des données primaires et secondaires de la recherche, de l’archivage à long terme, de l’emploi de métadonnées normalisées, d’analyse de grands ensembles de données, etc. » (p. 105). Le bibliothécaire de lecture publique, quant à lui, doit allier mise en valeur des collections, « compétences sociales » et médiation culturelle comme le souligne J. Cordonier : « […] une bibliothèque est un lieu riche de compétences, de personnes[9] qui osent faire des choix, monter des expositions, inviter des artistes, […] non pas prescrire […] mais proposer, attirer l’attention, sensibiliser. » (p.25). Un horizon d’attentes qui laisse poindre une kyrielle de défis pour inscrire durablement cette nouvelle silhouette professionnelle dans le paysage des bibliothèques.
Critique
La force de ce petit livre d’entretiens réside dans ses différentes strates de lecture ; le recueil peut ainsi se lire à la fois comme un retour d’expérience à l’usage des futurs cadres de grandes bibliothèques et comme un guide inspirant pour le futur des bibliothèques, mais également comme un segment de l’histoire culturelle de la Suisse. En effet, comme le souligne Alexis Rivier dans son préambule, les quatre institutions, sous l’impulsion de leur direction, « […] ont contribué à mettre en place ce qui est peu à peu devenu une norme dans les pratiques sociétales du 21e siècle. » (p. 8). Au fil des pages, le lecteur peut ainsi saisir en quoi les bibliothèques ont grandement participé à l’avènement d’une société de l’information comme nous la vivons aujourd’hui. L’opacité des activités d’une bibliothèque scientifique ou patrimoniale est ici levée pour éclairer avec intelligence la façon dont ces établissements ont façonné des pratiques aujourd’hui généralisées : informatisation des espaces, partage de gros volumes de données, accessibilité des ressources et des savoirs, etc. L’autre intérêt de l’ouvrage est de dessiner rapidement une histoire récente des bibliothèques, du milieu des années 1980 jusqu’aux portes des années 2010.
Le format de l’entretien, ici retranscrit à la première personne, puis découpé thématiquement, apporte une certaine fluidité à la lecture ; la parole est vive et engagée, jusque dans la thématisation de certaines déceptions vécues par les directeurs. On peut regretter parfois que certains sujets ne soient davantage approfondis, notamment concernant les enjeux politiques des bibliothèques. Mais le découpage garantit une variété des sujets abordés qu’il est agréable de comparer entre les prises de parole. Dans un souci de transparence, il aurait été souhaitable d’ajouter en fin de volume le questionnaire reçu par chacun des intervenants.
Qu’il s’agisse d’un public de néophytes, de bibliothécaires ou encore d’historiens, chacun pourra déceler, au sein de ce recueil d’entretiens inédits, de quoi nourrir ses intérêts. Il est à souligner enfin que la postface d’Alexis Rivier offre un bel effort de synthèse et d’ouverture vers des perspectives futures. A l’heure où certains responsables issus de grandes bibliothèques de notre pays prédisent des scenarios catastrophiques pour l’avenir des bibliothèques, il est cardinal d’écouter ces quatre voix riches d’expériences et d’espérances.
Notes
[1] Respectivement directeurs de la Bibliothèque cantonale du Valais – Médiathèque Valais (1988-2008), Bibliothèque publique et universitaire de Genève (1993-2007), Bibliothèque nationale suisse (1990-2005) et Bibliothèque cantonale et universitaire de Lausanne (1986-2008).
[2] Les entretiens, basés sur un questionnaire unique, ont ensuite été retranscrits à la première personne et amendés par les auteurs.
[3] Jacques Cordonier et Hubert Villard notamment évoquent à maintes reprises la mise en place du « Réseau romand des bibliothèques de Suisse occidentale » (Rero).
[4] Nous pensons naturellement au projet de la bibliothèque nationale portant son nom.
[5] Consulter : www.vallesiana.ch
[6] Ces trois portails concernent respectivement les livres anciens, les manuscrits médiévaux et les revues suisses.
[7] Consulter : http://memoriav.ch
[8] Il s’agit de l’acronyme désignant les géants du web que sont Google, Apple, Facebook et Amazon.
[9] C’est moi qui souligne.
Bibliographie
CORDONIER, Jacques, JACQUESSON, Alain, JAUSLIN, Jean-Frédéric, VILLARD, Hubert. Entretiens. Genève : L’esprit de la Lettre, 2016. (Collection Bibliothécos), 116 p.
- Vous devez vous connecter pour poster des commentaires
Anleitung und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension
Ressi — 31 décembre 2016
Karsten Schuldt, Schweizerisches Institut für Informationswissenschaft, HTW Chur
Anleitung und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension
Makerspaces in Bibliotheken: Eine grundsätzlich etablierte Idee
Makerspaces, Fablabs oder ähnlich benannte Abteilungen in Bibliotheken einzurichten, ist auch in der Schweiz einigermassen normal geworden.[1] Viele Bibliotheken haben dies in den letzten Jahren in grösseren oder kleineren Projekten unternommen, einige haben Makerspaces als dauerhaftes Angebot eingerichtet, andere als Veranstaltungsreihen oder nur mit einigen, ausgewählten Technologien, z.B. 3D-Druckern, die in der Bibliothek betrieben werden. Diese Makerspaces können sich kaum mit denen in Millionenstädten messen, die oft in der Literatur besprochen werden, sie erfüllen auch viele der Versprechen, die sich in der Literatur zu Makerspaces gemacht werden (Anderson 2013; Hatch 2014), nicht. Gleichwohl sind sie eine Angebot, dass Bibliotheken nicht mehr grundsätzlich erläutert werden muss. Vielmehr stellen sich praxisorientierte Fragen: Welche Technologien eignen sich für welche Arten von Makerspaces in welchen Bibliotheken? Wie teuer sind sie, auch im längerfristigen Betrieb? Was kann mit ihnen im Rahmen der Bibliothek angeboten werden? Bislang scheinen Bibliotheken diese Fragen jeweils für sich selber zu beantworten, jeweils neu, teilweise, nachdem sie Angebote von anderen Bibliotheken in ihrem Umfeld angeschaut haben.
Es scheint die auch immer wieder einmal in Gesprächen am Rande von Konferenzen und Weiterbildungen geäusserte Vorstellung vorzuherrschen, dass es bislang keine Literatur dazu gäbe, wie Makerspaces in Bibliotheken eingerichtet werden könnten. Teilweise wird dies als Desiderat geäussert, dass zu schliessen wäre. Das ist nicht korrekt. Vielmehr werden seit einigen Jahren immer wieder neue Anleitungen dazu, wie Makerspaces in Bibliotheken eingerichtet und was in ihnen unternommen werden kann, publiziert, vorrangig in englischer Sprache. Im Folgenden soll eine Anzahl dieser Anleitungen kurz besprochen zu werden.[2] Es scheint allerdings nicht so, als wären diese Publikationen die letzten dieser Art. Vielmehr ist zu vermuten, dass aktuell in den Bibliotheksverlagen viele weitere Manuskripte dieser Art bearbeitet und in den laufenden Monaten und Jahren publiziert werden. Insoweit kann hier nur eine vorläufige Auswahl vorgestellt werden. Grundsätzlich sind die hier besprochenen Publikationen alle in einem sehr einfachen Englisch abgefasst, so dass sie ohne Probleme auch für Bibliotheken in der Schweiz genutzt werden können.[3]
Makerspace Workbench (Kemp 2013)
Obwohl Makerspaces immer lokal gestaltet werden und manchmal der Eindruck vermittelt wird, dass sie alleine deshalb entstehen würden, weil sie sinnvoll sind – Haike Meinhard (Meinhard 2014) oder Megan Egbert (Egbert 2016) sprechen von Maker-Bewegung bzw. Maker-Movement und suggerieren ein ungesteuertes Wachstum –, ist es doch möglich, auf einen Verlag als Antriebskraft hinter dieser Idee zu verweisen, nämlich MakerMedia (http://makermedia.com), San Francisco, die sowohl das Magazin make: (http://makezine.com) herausgibt, als auch die verbreitete Veranstaltungsreihe Maker Faire (http://makerfaire.com) betreut und als Brand hält.[4] Entgegen mehrfach aufgestelltet Behauptungen (z.B. Meinhard 2014) ist die Idee der Makerspace oder Fablab eben nicht in der Zivilgesellschaft, der Hackercommunity, den Schulen oder Bibliotheken entstanden, sondern von MakerMedia – auf der Basis von anderen Einrichtungen – vorangetrieben und auch als Brand etabliert worden. Das heisst nicht, dass diese Firma alle Maker-Aktivitäten kontrolliert oder von ihnen profitiert; aber es ist doch bedenkenswert. Die Firma hat die Darstellung und das Verständnis von Makerspaces (also: Was „kann“ in ihnen gemacht werden? Was nicht?) geprägt, viele positive Darstellungen, gerade der Zeit bis 2014, und Begründungen, warum Makerspaces etwas gutes sind, stammen direkt von ihr und wirken bis heute nach.
Neben dem Magazin make: und der Veranstaltungsreihe Maker Fair gibt die Firma in unregelmässigen Abständen auch Bücher heraus. Diese sind immer wieder ähnlich aufgebaut. Sie richten sich an Personen, die Makerspaces betreiben wollen und präsentieren vor allem Beispiele für Dinge, die hergestellt – also „ge-makt“ – werden können. Dies gilt unter anderem für The Makerspace Workbench von Adam Kemp (Kemp 2013), das hier als ein Beispiel der Produktionen des Verlages besprochen wird. Das Buch startet, wie viele Bücher aus diesem Verlag, mit einem fast schon missionarischem Einstieg in das „Making“ an sich, inklusive einer Kurzversion des „Makerspace Manifesto“. (Vgl. auch die ein Buch lange Ausarbeitung des „Manifesto“: Hatch (2015)) Anschliessend wird in einem Kapitel dargestellt, in welchen Räumen, mit welchen Sicherheitsmassnahmen und Ausstattungen ein Makerspace eingerichtet werden kann. Obgleich das Buch betont, dass es eine grosse Anzahl von Möglichkeiten gibt, arbeitet es doch beständig mit konkreten Beispielen, bis hin zu konkreten Geräten, die genannt, gezeigt und mit denen gerechnet (z.B. die für sie benötigte Elektrizität) wird. Die Beispiele beziehen sich immer auf US-amerikanische Geräte, Sicherheitsvorschriften etc., müssen also bei der Umsetzung in der Schweiz mit „übersetzt“ werden.
Bei all diesen, zum Teil sehr konkreten, Vorstellungen behält das Buch einen missionarischen Charakter bei. So werden z.B. kurz unterschiedliche Makerspaces besprochen (in der Bibliothek, der Schule, dem Klassenraum, in der privaten Garage), aber gleichzeitig bei jedem dieser möglichen Makerspaces noch einmal betont, wie gut sich diese jeweils eignen würden und wie zukunftsgerichtet sie wären. Man würde erwarten, dass dies nicht mehr nötig ist, da ein solches Buch vor allem von Menschen gelesen wird, die schon von Makerspaces überzeugt sind. Weitere Kapitelen besprechen eins zu eins einzelne Werkzeuge, Hilfsmittel und Materialien, die in einem Makerspace vorhanden sein können, inklusive Abbildungen aller dieser Produkte. In den weiteren Kapiteln werden Projekte für Makerspaces, auf der Basis der vorgestellten Materialien etc., vorgestellt, immer als konkrete Anleitungen gefasst, in einfachen Schritten, so wie in Kochbüchern Rezepte vorgestellt werden. Das ist alles sehr feingliedrig, inklusive unzähligen Bildern und Sicherheitstipps. Auffällig ist jedoch, dass sich die Darstellung immer auf das jeweilige Projekt selber bezieht, nicht auf Gruppeaktivitäten im Makerspace, nicht auf pädagogische oder andere Fragen. Zwar gibt es ein Kapitel mit dem Titel „Learning in a Makerspace“, aber auch dieses geht nicht ein auf pädagogische oder didiaktische Fragen, sondern präsentiert Projekte, die sich inhaltlich in das (US-amerikanische) Schulcurriculum eingliedern lassen, ohne z.B. auf mögliche Lernziele dieser Projekte einzugehen. Es ist ein reines Projektehandbuch, welches allerdings den Grossteil der Publikationen des Verlages MakerMedia widerspiegelt. Dazu zählt das unhandliche A4-Layout, dass dem Buch ein wenig den Anschein einer Kopie aus dem Copyshop verleiht. Dieses Layout findet sich aber auch bei weiter unten besprochenen Publikationen (Preddy 2013, Wall & Pawloski 2014, Hamilton & Hanke Schmidt 2015).
Makerspaces in Schulbibliotheken (Preddy 2013)
Gerade in den USA scheint es, folgt man der Literatur, in zahllosen Schulbibliotheken Makerspaces zu geben. Leslie B. Preddy (Preddy 2013) legte – zumindest für die Schulklassen 6 bis 12, für die anderen gibt es keine vergleichbare Publikation – eine Anleitung für solche Einrichtungen vor. Auch diese Autorin formuliert in einer missionarischen Stimme, dass solche Einrichtungen die Bibliotheken verändern würden, z.B.: „A makerspace is an exciting oppurtunity for school libraries to take that next evolutionary step toward making the library a destination, instead of a fly-by stop.“ (Preddy 2013:1)
In einem ersten Kapitel versucht das Buch, die Arbeit eines Makerspaces in den Kontext US-amerikanischen Schulbibliotheken zu stellen. So postuliert die Autorin, dass Makerspaces in die Standards für Schulbibliotheken (AASL Standards for the 21st-Century Learner) passen würde und gleichzeitig in die Anforderungen, die das die Bundesstaaten übergreifende Schulcurriculum Common Core stellt. Ansonsten ermuntert die Autorin dazu, sich bei der Gestaltung des Makerspaces von der jeweiligen Schule leiten zu lassen.
Anschliessend stellt die Autorin auf über 140 Seiten nacheinander mögliche Projekte vor, zu grossen Teilen auch solche, die keine Technologie erfordern, sondern eher dem Basteln und Werken zuzuordnen sind. Die Projekte sind jeweils kurz beschrieben, mit Bildern angereichert und oft mit weiterführenden Links versehen. Die Beispiele sind durch die ausführliche Darstellung gut nachvollziehbar, aber gleichzeitig in dieser Masse auch ermüdend. Auffällig ist, dass die Beispiele ebenso, wie bei Kemp (Kemp 2014), quasi ohne weitere Hinweise auf pädagogische oder andere Fragen auskommen. Hilfreich ist die listenhafte Aufzählung von Technologien für Makerspaces im Anhang des Buches.
Makerspaces für Kinder und Teens (Wall & Pawloski 2014)
Ähnlich, wie Peddy (Peddy 2014) für Schulbibliotheken gehen Cindy R. Wall und Lyyn M. Pawloski (Wall & Pawloski 2014) in ihrem Buch zu Makerspaces in Bibliotheken für Kinder und Teens vor. Im unhandlichen A4-Format wird in einer kurzen Einleitung wieder mit sehr grossen Versprechen gearbeitet, wenn begründet wird, warum Bibliotheken Makerspaces haben sollten:
The Maker philosophy empowers people with the knowledge that they can create the things that they want and need. In the ideal Maker world, when people have a need, they do not wait for a corporation to acknowledge that need and create a product; instead they make the product themselves. Therefore, library Maker programming should empower participants to believe in their ability to create something through experimentation and trial and error. The Maker Movement allows individuals to free and shift their thinking; it allows everyone to think in terms of unlimited possibilities. (Wall & Pawloski 2014:1)
Diese Aufzählung enthält regelmässig verbreitete Behauptungen über Makerspaces, z.B. das in ihnen durch „Trail and Error“ gelernt werden würde, ohne das dies weiter begründet wird. Diesen grossen Ankündigungen folgen allerdings wieder nur 160 Seiten mit einzelnen Projekten. Diese Projekte sind übersichtlicher dargestellt, als in den bislang besprochenen Büchern und folgen immer der gleichen Struktur (Vorstellung, Kosten, Zeit, Vorteile, „Zielgruppen“, benötigtes Personal, „Zutaten“, Vorbereitung, Durchführung, Varianten, mögliche Zusätze, übrigbleibender Müll und weiterführende Literatur). Der Einsatz von Bildern ist zurückhaltender, ansonsten wird ein gewiss lustig gemeinter Stil durchgehalten, bei dem die Projekte als Kochrezepte (Durchführung heisst z.B. „Bake“) präsentiert werden. Teilweise sind die nötigen Schritte auch sehr differenziert dargestellt. Die Anhänge verorten die Beispiele eher in der Schule, z.B. gibt es Diskussionsfragen für Gruppen, die im Anschluss an bestimmte Projekten gemeinsam diskutiert werden können und auch einige Arbeitsblätter.
Konkrete Beispiele (Bagley 2014; Willingham & de Boer 2015)
Während die bislang besprochen Bücher vor allem konkrete Projekte darstellten, die in Makerspaces umgesetzt werden könnten, versammelt Caitlin A. Bagley (Bagley 2014) konkrete Makerspaces in US-amerikanischen Bibliotheken. Dieser Sammlung stellt sie Überlegungen zu Makerspace voran, die sich vor allem mit der Begründung für diese (Warum sollten sie in einer Bibliothek vorhanden sein?) und Finanzierungsmöglichkeiten beschäftigt. Anschliessend werden neun Einrichtungen in Öffentlichen, Hochschul- und Schulbibliotheken vorgestellt. Diese Vorstellungen folgen grundsätzlich dem immer gleichen Muster (Gründung, Finanzierung, Beschreibung des Ortes selber, Beschreibung der Technologien oder Werkzeuge, die erfolgreich eingesetzt wurden, Veranstaltungen und Betrieb, Marketing, Personal und Betreuung, Gruppen, die den Makerspace nutzen, sowie eine Zusammenfassung). Die Beschreibungen sind als reiner Text gefasst, also ohne Bilder aus den Makerspaces, aber auch ohne Tabellen etc. Die Sprache ist, verglichen mit den andern Büchern, die einen missionarischen Eifer an den Tag legen, sehr konkret an den jeweiligen Beispielen orientiert. Es werden vor allem Erfolge gezeigt, aber auch gesagt, was nicht funktioniert hat oder wo es Schwierigkeiten gab.
Das Buch scheint vor allem zu zeigen, dass es möglich ist, langfristig und erfolgreich Makerspaces in Bibliotheken zu betreiben. Zudem erinnert die Autorin daran, dass es notwendig ist, im Vorfeld zu klären, was für einen Makerspace, mit welchen Zielen und vor allem mit welchen Möglichkeiten eine Bibliotheken haben möchte, bevor sie daran geht, ihn zu planen.
Theresa Willingham und Jeroen de Boer (Willingham & de Boer 2015) verbinden in ihrem in der Reihe Library Technology Essentials – und damit neben anderen Titeln zu technischen Themen – erschienenen Band die Darstellung von Beispielen mit der Darstellung konkreter Veranstaltungen in Makerspaces. Auch dieser Band ist in einer übermässig positiven Sprache verfasst, bei der schnell der Eindruck entsteht, dass über tatsächliche Schwierigkeiten einfach hinweggegangen wird. Sie wagen sich, einen schnellen Überblick zur Geschichte von Makerspaces in Bibliotheken und eine Begründung für solche Räume vorzustellen, der aber sehr strittig ist. Gleichzeitig stellt diese Darstellung nicht den Fokus des Buches dar.
Vielmehr versucht das Buch, auf der Basis von konkreten Erfahrungen in Bibliotheken, alle Themen anzusprechen, die für die Entscheidungen rund um einen Makerspace notwendig sind. Letztlich bleibt vieles der lokalen Interpretation überlassen (Z.B.: „Make the lab an essential part of business operations and try to find as much support as possible within the organization.“, Willingham & de Boer 2015:26), gleichzeitig werden Vorschläge für die Anschaffung von Hardware und Software gemacht (wobei die Software zumeist Open Source Produkte sind), die wohl schon mit der Drucklegung überholt gewesen sein dürften. Das Buch gibt eher Richtungen und zu beachtenden Themen vor. Mehr kann es vielleicht nicht leisten.
Daran an schliessen Vorstellungen von 14 Bibliotheken mit Makerspaces, FabLabs oder ähnlichen Initiativen. Auch diese haben einen starken Fokus auf die USA (ein Beispiel kommt aus Italien, ist aber in Zusammenarbeit mit der dortigen U.S. Embassy realisiert), eine Anzahl stammt aber aus Skandinavien und den Niederlanden. Die Vorstellungen sind jeweils relativ kurz gefasst, je rund zwei bis vier Seiten. Was sie von den Darstellungen bei Bagley (2014) unterscheidet ist, dass sie sich nicht auf stationäre Makerspaces in Bibliotheken beschränken, sondern auch mobile Makerspaces von Bibliotheken (FryskLab, betreut vom Herausgeber des Buches Jeroen de Boer) und Initiativen, die mit Bibliotheken zusammen (temporäre) Makerspaces durchführen, vorstellen. Diese Beispiele zeigen, dass auch solche kurzfristigen Veranstaltungen möglich sind, dann allerdings – was nicht besprochen wird – bestimmte Ansprüche (Community-Bildung, pädagogische Konzepte), die sonst mit Makerspaces verbunden werden, aufgegeben werden, weil sie in temporären Veranstaltungen gar nicht umgesetzt werden können.
Im letzten Drittel des Buches werden, wieder auf der Basis von schon durchgeführten Programmen in Bibliotheken, einzelne Projekte vorgestellt und so beschrieben, dass sie prinzipiell auch anderswo durchgeführt werden können. Diese Projekte unterscheiden sich von denen, die bei Kemp (Kemp 2013), Preddy (Preddy 2013) oder Wall und Pawloski (Wall & Pawloski 2014) beschrieben werden, dadurch, dass sie mehr auf den Kontext Bibliothek eingehen (z.B. Einsatz des Personals) und weniger genau auf das Projekt (z.B. was genau mit dem 3D-Drucker produziert wird).
Grundsätzlich hat auch dieses Buch seine Schwächen, insbesondere sind die Herleitungen und Begründungen für Makerspaces nicht nachvollziehbar. Von allen hier besprochenen Büchern ist es aber das zugänglichste und für Bibliotheken auch motivierenste.
Arbeitsblätter für Makerspaces (Hamilton & Hanke Schmidt 2015)
Auf den ersten Blick kaum von den anderen Anleitungen für Projekte in Makerspaces wie Preddy (Preddy 2013) oder Kemp (Kemp 2013) zu unterscheiden – bis hin zum A4 Format – geht das Buch von Matthew Hamilton und Dara Hanke Schmidt (Hamilton & Hanke Schmidt 2015) doch weiter. Es geht nicht um konkrete Veranstaltungen, die durchgeführt werden, sondern um einen möglichst einfachen Zugang für Bibliotheken, um Makerspaces zu machen. Dafür werden, immer auf der Basis von Erfahrungen von Makerspaces, die in US-amerikanischen Bibliotheken existieren, Angaben zu Projekten gemacht und Vorlagen geliefert, z.B. Vereinbarungen für die Nutzung eines Makerspaces, die quasi direkt kopiert und dann anderswo zu Unterschrift vorgelegt werden können, Sicherheitsreglements oder Schreiben an Lehrpersonen und Eltern. Es werden Angaben über Kosten etc. gemacht und immer wieder in kurzen Interviews Makerspaces vorgestellt. Es wird besprochen, wie Makerspaces geplant und wie sie ausgestattet werden können sowie das sie auch als Medialabs gestaltbar sind. Das alles auf einer sehr anwendungsbezogenen Ebene, teilweise mit Hinweisen zu Technologien, Preisen etc., die schon überholt sein werden. Sichtbar ist an diesem Buch, dass in ihm die Bibliothekarinnen und Bibliothekare, die einen Makerspaces planen sollen, im Fokus stehen.
Die Welt retten mit Makerspaces? (Egbert 2016)
Megan Egbert (Egbert 2016) geht es in ihrem Buch hingegen vor allem darum, zu begründen, wie Makerspaces in Bibliotheken pädagogisch und gesellschaftlich sinnvoll genutzt werden können. Sie bietet keine Anleitung für Veranstaltungen etc., sondern vielmehr ein Begründung für verschiedene Arten des Making. Das Buch ist, fast noch mehr als das von Kemp (Kemp 2013), eine missionarische Schrift, die im Making einen Weg sehen will, der aus den angeblich überholten Bibliotheken (und Schulen) hypermoderne Einrichtungen machen soll. In weiten Teilen ist das kaum lesbar, in einer Marketing-Sprache geschrieben, die keinen Widerspruch und kein kritisches Hinterfragen zuzulassen scheint. So wird oft von überzeugten Vertreterinnen und Vertretern der Makerspaces geschrieben, insoweit ist das Buch als Beispiel für deren Argumentationen interessant. Es ist ein Diskurs, der ohne auf Geschichte und Entwicklung von Einrichtung sowie ohne wirklich die Gesellschaft, in der die Einrichtungen wie Bibliotheken existieren, wahrzunehmen, die Überlegenheit von „Making“ behauptet, weil es neu sei. Selbstverständlich ist es nicht neu, sondern die Wiederkehr älterer pädagogischer Ideen (z.B. wiederholen sich viele Behauptungen, Erwartungen und Ungenauigkeiten aus der Reformpädagogik), nur sehr gereinigt von allen gesellschaftlichen Fragen (und auch der Frage: Wozu? Was sollen Menschen damit lernen?). Ein sicherlich gut gemeinter, aber inhaltlich dürftiger Diskurs, der Grundprinzipien des neoliberalen Denkens (z.B. alles, was vorher war, sei schlecht und übersteuert, es müssen „disruptiv“ geändert werden, ohne zu fragen, wohin und wozu) fortschreibt; offenbar ohne sich dessen bewusst zu sein. In diesem Rahmen werden auch ehemals kritische Anfragen an die pädagogische Realität (z.B. die Frage, wieso Mädchen anderes lernen als Jungen oder die Vorstellung des Konstruktivismus, dass die Menschen ihr eigenes Wissen „konstruieren“ und nicht das, was sie gelehrt bekommen) möglichst in den Diskurs integriert, aber so, dass sie dabei ihrer kritischen Funktion entledigt werden.
Egbert lässt in ihrem Buch immer wieder persönliche Geschichten einfliessen, berichtet z.B. immer wieder von ihren Erfahrungen in ihren Bibliotheken (Meridian Library District, Idaho) und mit ihrer Familie. Das Buch selber ist also in der Realität der Autorin verankert, aber es scheint immer wieder durch, dass Idaho nicht so weit von den Zentren des missionarischen Sprechens über Making, Disruption etc. im Silicon Valley entfernt liegt.
Ansonsten geht das Buch die gleichen Themen durch, wie es auch Willingham und de Boer (Willingham & de Boer 2015) oder Bagley (Bagley 2014) taten: Gründe für Makerspaces, unterschiedliche Makerspaces, Finanzierung, Personal. Egbert geht, ganz in missionarischer Absicht, davon aus, dass es sinnvoll wäre, wenn Personen zu „Makern“ werden und dann auch in anderen Orten eine „Maker-Kultur“ verbreiten würden. Sie denkt dabei vorrangig an Bibliothekarinnen und Bibliothekare.
Die von ihr im Untertitel versprochen „Teaching Revolution“ beschränkt sich darauf, zu behaupten, dass mit Makerspaces konstruktivistische Pädagogik in der Bibliothek etabliert würde. Der Konstruktivismus geht als Lerntheorie davon aus, dass Menschen das, was sie lernen, selber konstruieren und die gesamte Umgebung, z.B. der Lernraum, die Planung einer Bildungsveranstaltung, die Arbeit der Lehrenden, bei diesem Prozess nur unterstützen können. Grundsätzlich kritisiert der Konstruktivismus andere Lerntheorien und stellt die Lernenden selber in den Mittelpunkt. Es ist im Rahmen der „Maker-Bewegung“ zum Allgemeinplatz geworden, zu behaupten, Makerspaces seien quasi die Umsetzung dieser konstruktivistischen Theorien. Das lässt sich bestreiten, schon da der Konstruktivismus weit länger diskutiert wird als Makerspaces. Bestreiten lässt sich auch die in der „Maker-Bewegung“ verbreitet Gegenüberstellung von „altem Lernen“ und „neuem, im Makerspace“. Vielmehr ist der Konstruktivismus schon länger in anderen pädagogischen Projekten ausprobiert worden und Grundlage vieler Veränderungen, die in den letzten Jahrzehnten in Schulen stattfanden. Ebenso kritisch zu sehen ist die in solchen Texten immer wieder als angebliche Neuerung hervorgehobene Partizipation der Lernenden. Auch diese wird seit Jahrzehnten in anderen pädagogischen Zusammenhängen angestrebt und umgesetzt. Egbert hingegen übernimmt die Behauptung der „Maker-Bewegung“ und reduziert sie auf eine sehr banale Ebene, bei der behauptet wird, dass, wenn Menschen in Makerspace „maken“ – also mit den eigenen Händen arbeiten, selber ausprobieren, in eher offenen Situationen agieren und auch, reflektiert, scheitern dürfen – sie besser lernen würden, als z.B. in Schulen.[5] Für die Planung von Makerspaces ist dieses Buch eher ungeeignet, es ist eher eine „Missionsschrift“.
Fazit: Viel Missionierungsanspruch, viele kleinteilige Anleitungen
Es ist in dieser Sammelrezension ersichtlich geworden, dass es grundsätzlich nicht an Literatur zu Makerspaces in Bibliotheken mangelt. Sie ist in grossen Teilen vom US-amerikanischen Denken geprägt, was bei der Nutzung in der Schweiz (oder anderswo) mit beachtet werden müsste. Insbesondere der missionarische Anspruch, möglichst viele Menschen in „Maker“ zu verwandeln, irritiert – zu Recht – immer wieder. Keines der hier referierten Bücher liefert eine nachvollziehbare und vor allem belastbare Begründung dafür, wozu das gut sein soll. Gerade bei Kemp (Kemp 2013) und Egbert (2016) scheint eine Mentalität durch, wie sie sonst mit den „Start-Up Zentren“ wie dem Silicon Valley verbunden wird: ungesellschaftlich, immer ohne jeden Grund übermässig positiv und vor allem mit der Behauptung auftretend, die Welt vom Grunde auf zu verändern. Das stimmt bei Start-Ups nicht und es wird auch durch Makerspaces in Bibliotheken nicht eintreten.
Gleichzeitig zeigen die Bücher auch, dass es neben diesen Versprechen auch eine funktionierende Praxis von Makerspaces in Bibliotheken gibt. Sie werden die Welt nicht verändern, aber sie bereiten offenbar vielen Menschen – sowohl Nutzenden von Bibliotheken als auch dem Personal selber – Vergnügen und bilden eine sinnvolle Ergänzung anderer bibliothekarischer Angebote. Akzeptiert man diese Einschränkung, dann eignen sich mehrere hier besprochene Bücher für die konkrete Planung von Makerspaces (Willingham & de Boer 2015) oder Veranstaltungen in Makerspaces (Fleming 2015; Preddy 2013). Letztlich werden aber auch in diesen Büchern Bibliotheken immer wieder darauf zurückverwiesen, dass sie die Entscheidungen darüber, welche Angebote sie machen wollen, ob Sie Makerspaces einrichten wollen, und wenn ja, wie und wie sie diese nutzen wollen, immer selber treffen müssen. Es gibt keine überall funktionierenden Konzepte, es gibt keinen überall geltenden Grund, einen Makerspace einzurichten oder nicht einzurichten. Es ist einfach so, dass sie als Einrichtungen Spass machen können, aber auch Arbeit bedeuten. An Literatur, die dabei Unterstützung liefert, die jeweils notwendigen Entscheidungen zu treffen, mangelt es nicht.
Erwähnt werden muss zudem, dass in diesem Artikel, mit einer Ausnahme, nur Bücher besprochen wurden, die sich explizit mit Makerspaces in Bibliotheken beschäftigten. Es gibt weit mehr, erstens für andere Bereichen, z.B. für Schulen und für Makerspaces allgemein. Zweitens existieren neben gedruckten Büchern auch zahlreiche digitale Dokumente, z.B. zahlreiche Studienabschlussarbeiten (z.B. Blanpain, 2014) Handreichungen (z.B. Makerspace Resources Task Force 2014) und Webprojekte (z.B. http://www.makerspace.com). Zahlreiche grössere Makerspace stellen sich selber online dar (z.B. „The Edge“ der State Library of Queensland, Australien http://edgeqld.org.au oder, ausserhalb von Bibliotheken, der Makerspace der New York Hall of Science, http://makerspace.nysci.org). Sicherlich bedarf es immer wieder „Übersetzungsleistungen“ in die jeweiligen lokalen Kontexte, sicherlich muss man die jeweiligen Texte kontextualisieren und ihnen gerade nicht alles glauben. Aber am Ende ist, wer sich dafür interessiert, wie ein Makerspace in Bibliotheken funktionieren kann, heutzutage gut mit Materialien bedient.
Conclusion : beaucoup de revendications prosélytiques, une multitude de petits guides
Il s’est avéré, lors de ces recensions, qu’il ne manque pas de littérature sur les fablabs en bibliothèque. Il faut noter que cette littérature est souvent imprégnée d’une pensée américaine (des Etats-Unis), ce qui est à prendre en considération si on souhaite l’utiliser en Suisse ou ailleurs. En particulier cette approche de prosélyte, qui incite à transformer le plus possible de personnes en « makers », peut, à juste titre, irriter. Aucun des livres recensés ici ne donne de justification solide et compréhensible qui expliquerait pourquoi ce serait bien.
Chez Kemp (2013) et Egbert (2016) justement apparait une mentalité que l’on retrouve habituellement dans les pépinières de start-up ou à la silicon valley : non-sociale, ultra-positive sans aucune raison, et convaincue de changer le monde. Cela n’est pas plus juste pour les start-ups que pour les bibliothèques.
Cependant, ces ouvrages montrent également qu’à côté des promesses tous azimuts, il existe aussi une pratique des fablabs en bibliothèque. Ces fablabs ne changeront pas le monde, mais ils plaisent visiblement aussi bien aux usagers qu’aux personnels des bibliothèques, et représentent un complément intéressant aux autres services de la bibliothèque.
Cette limite étant posée, plusieurs ouvrages se prêtent à une planification concrète de fablabs (Willingham & De Boer, 2015), ou d’évenements dans des fablabs (Fleming, 2015 ; Preddy, 2013). Finalement ces ouvrages insistent sur le fait que c’est aux bibliothèques elles-mêmes de décider quelle offre elles souhaitent, si elles souhaitent mettre sur pied des fablabs, et si oui comment elles veulent les utiliser. Il n’y a pas de concept universel, il n’y a pas de raison valable pour tous, pemettant de mettre en place ou non un fablab.
Simplement ce sont des structures qui peuvent procurer du plaisir mais impliquent aussi du travail. Ce n’est en tout cas pas la littérature qui manque pour aider les bibliothèques à prendre les décisions nécessaires.
Il faut signaler que tous les ouvrages recensés dans cet article, à une exception près, parlent explicitement des fablabs en bibliothèque. Il y en a bien davantage, soit qui concernent les fablabs dans d’autres domaines comme les écoles par exemple, soit sur les fablabs en général. Ensuite il y a non seulement de la littérature imprimée mais aussi de nombreux documents numériques, par exemple des travaux de diplôme (Blancpain, 2014), des boîtes à outils (par ex. Makerspace Resources Task Force 2014) et des projets Web (par ex. www.makerspace.com). De nombreux fablabs se présentent eux-mêmes en ligne (par ex., « the Edge », de la bibliothèque de l’Etat du Queensland en Australie, http://edgeqld.org.au, ou en dehors des bibliothèques, le fablab du New York Hall of Science, http://makerspace.nysci.org).
Il est certain que les nombreux textes sur le sujet nécessitent toujours un effort de transposition dans chaque contexte local et on ne doit pas tout croire. Mais finalement, celui qui s’intéresse à la manière dont un fablab peut fonctionner en bibliothèque a aujourd’hui tout le matériau qui convient.
Notes
[1]In der Deutschschweiz scheint vor allem von Makerspaces gesprochen zu werden, in der Romandie von Fablabs. Beide Namen meinen ausserhalb der Bibliotheken eigentlich ähnliche, aber nicht gleiche Einrichtungen. In Bibliotheken scheinen sie aber quasi-synonym verstanden zu werden. Im weiteren wird der Begriff „Makerspace“ verwendet.
[2]Die Besprechung entsteht im Zusammenhang mit dem Projekt LLgomo (Library Lab goes mobile) der HTW Chur, bei dem getestet wird, welche Formen und Ideen von Makerspaces sich in kleineren Gemeindebibliotheken umsetzen lassen.
[3]Zumal neben diesen Publikationen noch zahlreiche Anleitungen für Makerspaces / Fablabs in Schulen existieren, die hier nicht besprochen werden, aber für Bibliotheken ebenso interessant sein können.
[4]Das Magazin erscheint neben der englischen Ausgabe in Deutsch als beigeordnetes Heft der c't als Make: (https://shop.heise.de/zeitschriften/hardware-hacks/make-magazin), Maker Faires gibt es auch in der Schweiz (für die Deutschschweiz „betreut“ aus Deutschland, http://maker-faire.de) und im umliegenden Ausland, d.h. Frankreich (http://makerfaire.fr), Deutschland und Österreich (http://maker-faire.de) oder Rom, Italien (http://www.makerfairerome.eu/en/).
[5]Bücher dieser Art liegen auch für andere Bereiche vor. Laura Fleming (Fleming 2015) argumentiert ähnlich oberflächlich, wenn auch mit weniger Text, für Makerspaces in Schulen (und Schulbibliotheken), obwohl sie es als Lehrerin besser wissen müsste. Es ist also keine Besonderheit von Bibliotheken.
Literatur
Anderson, Chris (2013). Makers : the new industrial revolution. New York: Crown Business, 2013
Bagley, Caitlin A. (2014). Makerspaces: Top Trailblazing Projects (A LITA Guide). Chicago: ALA TechSource, 2014
Blanpain, Coline (2014). Un lab en bibliothèque, à quoi ça sert ?. Villeurbanne Cedex France: enssib, http://www.enssib.fr/bibliotheque-numerique/documents/64259-un-lab-en-bi...
Egbert, Megan (2016). Creating Makers: How to Start a Learning Revolution at Your Library. Santa Barbara ; Denver : Libraries Unlimited, 2016
Fleming, Laura (2015). World of Making: Best Practices for Establishing a Makerspace for Your School. Thousand Oaks: Corwin, 2015
Hamilton, Matthew ; Hanke Schmidt, Dara (2015). Make It Here: Inciting Creativity and Innovation in Your Library. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2015
Hatch, Mark (2014). The Maker Movement Manifesto: Rules for Innovation in the New World of Crafters, Hackers, and Tinkerers. New York et al.: McGraw-Hill, 2014
Kemp, Adam (2013). The Makerspace Workbench: Tools, Technologies, and Techniques for Making. Sebastopol: MakerMedia, 2013
Makerspace Resources Task Force (2015) Making in the Library Toolkit, Young Adult Library Services Association, 2015, http://www.ala.org/yalsa/sites/ala.org.yalsa/files/content/MakingintheLi...
Meinhard, Haike (2014). Das Zeitalter des kreativen Endnutzers: Die LernLab-, Creatorspace- und Makerspace-Bewegung und die Bibliotheken. In: BuB 66 (2014) 479-487
Preddy, Leslie B. (2013). School Library Makerspaces, Grades 6-12. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2013
Wall, Cindy R. ; Pawloski, Lynn M. (2014). The Maker Cookbook: Recipies for Children's and 'Twenn Library Programs. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2014
Willingham, Theresa ; de Boer, Jeroen (2015). Makerspaces in Libraries (Library Technology Essentials, 4). Lanham ; Boulder ; New York ; London: Rowman & Littlefield, 2015
- Vous devez vous connecter pour poster des commentaires
Gilbert Coutaz, Archives en Suisse. Conserver la mémoire à l’ère numérique, Lausanne, Presses polytechniques et universitaires suisses, 2016 (Le savoir suisse, 113), 131 p.
Ressi — 31 décembre 2016
Alain Dubois, Archives de l'Etat du Valais
Gilbert Coutaz, Archives en Suisse. Conserver la mémoire à l’ère numérique, Lausanne, Presses polytechniques et universitaires suisses, 2016 (Le savoir suisse, 113), 131 p.
La collection « Le savoir suisse », qui a notamment pour ambition de porter à la connaissance d’un large public les résultats de la recherche en langue française, consacre l’un de ses derniers numéros à la question des archives en Suisse. Qui mieux que Gilbert Coutaz, directeur des Archives cantonales vaudoises depuis plus de 20 ans, ancien président de l’Association des archivistes suisses, excellent connaisseur du paysage archivistique suisse et de la communauté professionnelle qui s’y rattache, pouvait s’atteler à cette tâche ? Au final, l’auteur nous livre une analyse fine, érudite et sans concession de la question, d’une lecture très agréable, qui se distingue certes de la vaste synthèse Archivpraxis in der Schweiz. Pratiques archivistiques en Suisse parue en 2007, quand bien même elle en reprend certains éléments.
Archives en Suisse n’est pas une introduction à l’archivistique. Il ambitionne plutôt de donner la parole aux archivistes et de rappeler au grand public le rôle crucial, mais souvent incompris qu’ils exercent à une époque où l’explosion du volume d’information et le développement rapide des technologies de l’information et de la communication bousculent les repères et transforment les archives en réalités virtuelles qu’il s’agit de gérer au quotidien, de collecter, de conserver, de communiquer et de mettre en valeur. L’ouvrage de Gilbert Coutaz explore ainsi en sept chapitres un domaine peu connu, celui des archives en Suisse, en raconte l’histoire et en présente les objectifs, le rôle et les défis actuels.
Le premier chapitre, intitulé « Les archives aujourd’hui », donne rapidement le ton de l’ensemble du livre. L’archivistique et la communauté des archivistes sont souvent méjugées et incomprises, car considérées comme poussiéreuses (p. 9), alors que dans le même temps les archives exercent un rôle social et sociétal essentiel. Le métier d’archiviste a de fait connu ces dernières années de profondes mutations, que la société en général ignore, puisqu’il nécessite désormais l’acquisition de vastes compétences non seulement pour gérer des fonds d’archives historiques, mais également pour apporter une réponse adaptée aux exigences et aux défis nés des nouvelles technologies de l’information et de la communication et de la société de l’information et de la connaissance. L’archiviste est ainsi sans cesse tiraillé entre ces deux exigences parfois difficiles à atteindre de concert (p. 21). Gilbert Coutaz cherche ensuite à définir dans le second chapitre ce que sont les archives. Il rend tout d’abord attentif le lecteur à la polysémie du terme « archives » en français, explique ensuite précisément le sens des termes « informations », « données », « documents » et « records », utilisés parfois indifféremment, présente les quatre objectifs que poursuivent les archives (prouver, se souvenir, comprendre et s’identifier), avant de s’intéresser à la constitution des fonds et aux modes d’entrée des archives. Il termine son chapitre par l’évocation d’un aspect fondamental du métier : l’évaluation. Et lève à ce propos un cliché tenace : l’archiviste n’est pas un adepte de la conservation effrénée, puisqu’il ne conserve définitivement que 3 à 10% des documents produits ou reçus par une organisation dans le cadre de ses activités (p. 29).
Le troisième chapitre permet à Gilbert Coutaz de montrer ses vases connaissances de l’histoire des archives en Suisse et de dresser un panorama magistral de l’évolution de ces dernières de l’avènement des chancelleries au Moyen Age à la récente professionnalisation du métier, en passant par le développement de la Registratur au début du XVIIIe siècle, l’apparition des outils archivistiques modernes au XIXe siècle (plan de classement et principe de provenance, entre autres) ou la définition de nouveaux champs d’intervention. Succède à cette rapide fresque historique un chapitre consacré à l’archivistique helvétique, qui oscille entre fédéralisme et universalité. Gilbert Coutaz dépeint tout d’abord la mosaïque des dépôts d’archives publiques en Suisse, qui reproduit l’étagement des pouvoirs politiques (confédération, cantons et communes), et démontre que l’organisation archivistique suisse repose finalement sur les Archives cantonales ou les Archives d’Etat (p. 58). Il consacre également quelques pages à l’Association des archivistes suisses, créée en 1922, qui a tout d’abord contribué à l’affirmation progressive d’une véritable communauté professionnelle et garantit désormais aujourd’hui l’expression des droits, des devoirs et des pratiques de ses membres et la qualité des prestations (p. 66). Gilbert Coutaz dresse enfin le panorama de la formation professionnelle, qui s’est mise en place très tardivement par rapport aux pays voisins et se fonde sur les trois piliers suivants : l’apprentissage, la formation HES et les études postgrades. La communauté des archivistes s’est ainsi peu à peu constituée au cours des dernières années une identité professionnelle.
Le cinquième chapitre s’intéresse, pour sa part, aux pratiques archivistiques en Suisse. Celles-ci ont résolument évolué ces dernières années vers l’amont de la chaîne documentaire ; le cycle de vie des documents forme désormais un tout à maîtriser de l’élaboration des documents et la constitution des dossiers à leur versement dans un service d’archives ou à leur élimination contrôlée. Fort de ce constat, Gilbert Coutaz propose avec beaucoup de pertinence de substituer à la théorie des trois âges des archives, théorisée par Theodore Schellenberg en 1956, la « théorie des trois statuts de l’information » (statut de production, statut de trace et statut de source de connaissance) (p. 77-79). Il s’agit d’un apport original d’Archives en Suisse, qui ouvre de stimulantes pistes de réflexion et offre un complément intéressant au principe du records continuum qui tend actuellement à devenir la norme. La maîtrise de l’information nécessite du reste de pouvoir mobiliser différents outils tout au long de son cycle de vie. Gilbert Coutaz présente ainsi en détail les outils et les méthodes de travail qui fondent la pratique professionnelle : plan de classement et calendrier de conservation, qui permettent de gérer l’information au quotidien, évaluation des dossiers au terme de leur durée d’utilité légale ou administrative, ou encore description des archives selon les normes définies par le Conseil international des archives.
Faisant écho au premier chapitre, le sixième chapitre interroge l’identité professionnelle des archivistes, qui a fortement évolué ces dernières années pour embrasser de vastes champs de connaissances liés à l’ensemble du cycle de vie des documents. Les qualifications traditionnelles en paléographie ou en diplomatique ne suffisent en effet plus et doivent désormais être complétées par des formations poussées dans les domaines de la gestion des documents et des technologies de l’information et de la communication, auxquels il convient par ailleurs d’ajouter des compétences sociales avérées que ne mentionnent pas Gilbert Coutaz, mais qui sont pourtant essentielles dans l’exercice du métier au quotidien. Le profil de qualification rapidement brossé est certes exigeant, mais il correspond aux attentes placées dans les archivistes, qui doivent pouvoir exercer un rôle absolument central dans leur propre organisation en tant qu’expert de l’information. Comme l’énonce le septième et dernier chapitre, en guise de conclusion, « les archivistes doivent être actifs, coopératifs et vindicatifs, convaincants et visionnaires. Ils doivent exprimer leurs préoccupations, défendre leurs compétences et souligner leur niveau d’expertise, rechercher partout où cela est possible des collaborations et des alliances pour combler leurs lacunes, dénoncer les dérives, les manipulations et les négligences en matière de gestion d’archivage » (p. 124).
Archives en Suisse est ainsi une contribution majeure sur le rôle et la place des archives et de l’archiviste dans la société actuelle. Destiné à un large public, l’ouvrage explique de manière didactique et érudite, dans un langage simple, les enjeux qui sous-tendent actuellement la profession et qui permettent à la fois de garantir une gouvernance transparente et responsable, et de constituer, conserver et transmettre aux générations à venir la mémoire individuelle et collective de notre temps. Destiné aux historiens, l’ouvrage tend à montrer qu’un fonds d’archives dépend fortement des conditions qui ont présidé à son élaboration et à sa prise en charge, et qu’il convient par conséquent de tenir davantage compte du contexte d’origine des sources sous peine de mal les interpréter. Destiné aux archivistes, l’ouvrage explique parfaitement l’évolution du métier à travers le temps, à travers ses lignes de permanence et de fracture, et permet ainsi d’ancrer la profession dans un long terme qui gagnerait à être mieux connu. Destiné aux décideurs, enfin, l’ouvrage montre la plus-value que peut apporter aujourd’hui un archiviste au sein de la société de l’information et de la connaissance, par ses nombreux champs d’expertise, ou au sein d’une organisation, qu’elle soit publique ou privée, en termes de gestion de l’information. Il s’agit d’une évidence : un service d’archives est un véritable centre de compétences en matière de gestion de l’information, qui dispose des connaissances nécessaires pour apporter des réponses crédibles, pragmatiques et durables aux besoins exprimés dans ce domaine par une organisation et ses collaborateurs. C’est ce message qui fait de l’archiviste un acteur central et recherché qu’il convient de retenir en priorité de l’ouvrage de Gilbert Coutaz.
Archives en Suisse dresse le portrait d’un archiviste qui travaille en étroite collaboration avec différentes professions pour maîtriser l’information tout au long de son cycle de vie. L’ouvrage évoque ainsi régulièrement la nécessaire coopération avec les informaticiens et les « administratifs » dans le cadre des projets de gestion des documents (p. 93). Dans ce contexte, le contenu du chapitre consacré aux collaborations entre archives, musées et bibliothèques, intitulé « Evitons l’amalgame », est difficilement compréhensible. S’il convient bien évidemment de relever les différences de métier fondamentales qui existent entre ces trois domaines, il me paraît tout aussi important de souligner les collaborations fructueuses qui ont pu être instaurées ces dernières années entre archives, musées et bibliothèques et qui ont débouché sur la mise en œuvre de solutions novatrices et durables, où le rôle des archives a du reste été réaffirmé, voire même renforcé. Quant à la question du rattachement institutionnel, elle me semble mal posée. C’est en effet la figure de l’archiviste, capable d’apporter des réponses crédibles aux besoins de son organisation en termes de gestion des documents et des archives, qui doit être davantage mise en avant que la structure organisationnelle en tant que telle. Si l’on fait aujourd’hui appel à un archiviste au sein d’une organisation, c’est avant tout pour son savoir-faire et non pas en raison de son rattachement hiérarchique à telle ou telle entité. Du moins j’ose l’espérer. Qu’il me soit du reste permis de préciser ici qu’Archives en Suisse se place dans la série « Opinion » de la collection « Le savoir suisse », qui permet aux auteurs invités d’exprimer des vues personnelles sur certaines thématiques. Gilbert Coutaz émet ainsi une position personnelle sur les relations entre archives, musées et bibliothèques, qui n’est pas forcément partagée par l’ensemble de la communauté archivistique.
Finalement, il reste à espérer qu’Archives en Suisse soit diffusé au-delà de la seule communauté des archivistes, qu’il suscite le débat d’idées sur la place de l’archiviste dans la société de l’information et de la connaissance et qu’il nourrisse les réflexions sur le rôle social et sociétal des archives en Suisse et dans le monde.
- Vous devez vous connecter pour poster des commentaires
La conservation numérique: un enjeu de taille! Retour sur la 3e École d’été internationale francophone en sciences de l’information et des bibliothèques
Ressi — 31 décembre 2016
Eunsu Ahn, ENSSIB
Camille Delaune, ENSSIB
Hésione Guémard, ENSSIB
Colin Harkat, ENSSIB
La conservation numérique: un enjeu de taille!
Retour sur la 3e École d’été internationale francophone en sciences de l’information et des bibliothèques
Entre le 27 juin et le 9 juillet 2016, s’est tenue la 3e édition de l'École d’été internationale francophone en sciences de l’information et des bibliothèques. L’École des Bibliothécaires, Archivistes et Documentalistes (EBAD)[1] de l’Université Cheikh Anta Diop (UCAD) (Dakar, Sénégal) a, à cette occasion[2], accueilli chaleureusement pendant deux semaines des étudiants, des professionnels de bibliothèques, de centres de documentation et d’archives, afin de réfléchir ensemble sur les enjeux de la « conservation numérique ». L’école a été l’occasion de suivre des cours et des ateliers, dispensés principalement par Tristan Müller, directeur du service numérisation de la Bibliothèque et Archives Nationales du Québec (BAnQ, Montréal, Canada), d’écouter des retours d’expériences[3], moments forts d’échanges et de débats, et de faire des visites ciblées. Cet article résume l’essentiel des cours et des retours d’expériences, et livre également nos réflexions sur l’espace et la numérisation, la diffusion et la préservation, nous qui avons été des participants à cette 3ème édition de l’école d’été (et qui sommes étudiants en master professionnel à l’ENSSIB).
Espace et numérisation
Cette école d’été a apporté des connaissances sur la gestion de l’espace, car un des atouts indéniable de la numérisation est le gain qu’elle permet d’envisager de ce point de vue dans les structures de conservation. Papa Cheikh Thiéfaye DIOUF, archiviste au service des archives et de la documentation de la Faculté des lettres et sciences humaines de l’UCAD, explique que « la gestion de l’espace est l’une des priorités largement partagée par les spécialistes de l’information documentaire. En effet, les archivistes, les bibliothécaires et les documentalistes, après élimination pour les uns ou désherbage pour les autres, gagnent un minimum d’espace destiné à de nouvelles acquisitions ou à de nouveaux versements ».Nous notons que cette « gestion de l’espace » possible grâce aux projets de numérisation est parfois directement une réponse à des situations d’urgence. Julie Mbarga, de la Bibliothèque Universitaire de l’Université de Douala au Cameroun, illustre ce type de situations avec cet exemple : «des seaux par-ci, par-là sur le sol d’une mezzanine de 300m2 environ qui sert de salle de lecture à cent usagers par jour (chercheurs et étudiants) et de bureau à quinze membres du personnels, du fait d’une étanchéité délabrée. Tel est le spectacle peu reluisant qu’offre cette bibliothèque en saison de pluie». Mais il faut noter que la situation critique n’est qu’un facteur dans la décision de mettre en place le processus de numérisation. La volonté de diffuser largement, et parfois même au delà de nos frontières, est également un argument de mise en place d’un projet de numérisation.
Diffuser auprès du public: une priorité!
La numérisation des fonds répond souvent à une forte demande de consultation des lecteurs. Le flux permanent des arrivées de documents rend d’autant plus indispensable le suivi des projets. L’école d’été n’a fait que rappeler ces deux aspects essentiels dans l’esprit des participants. En effet, Julie MBARGA témoigne « les cours, les ateliers, les échanges, les visites en entreprises dont nous avons bénéficié, grâce à une bourse de l’AIFBD (Association internationale francophone des bibliothécaires et documentalistes), nous ont montré l’urgence de sauvegarder sous forme numérique, et de mettre en ligne le fonds documentaire de la Bibliothèque universitaire (BU), particulièrement les thèses, les mémoires, les rapports de stage, les actes de décrets présidentiels, contenus dans le quotidien national bilingue du Cameroun : « Cameroun Tribune » que la BU reçoit chaque jour depuis 2003, du fait de la demande forte de notre public ». El Hadji Birame DIOUF, Conservateur des bibliothèques au centre de documentation de l’Institut Fondamental d’Afrique Noire (IFAN, Dakar, Sénégal) ajoute que l’Ecole d’été «a permis de prendre conscience que la conservation numérique de l’information ne signifie pas uniquement éviter l’effacement ou la perte des données ou les conserver intacts et intègres. Mais, cela signifie aussi conserver leur intelligibilité, leur lisibilité et la possibilité de les réutiliser pour satisfaire le besoin informationnel des usagers». Cette réflexion nourrie durant l’école d’été a donc amené les professionnels en poste à concrétiser dans un avenir proche des projets, comme c’est le cas avec Armand N’DA KOUADIO, bibliothécaire stagiaire à l’Institut de Géographie Tropicale (IGT) en Côte d’Ivoire : « à travers cette formation [à l’école d’été], je souhaiterais mettre en place un dépôt numérique à l’IGT. La mission primordiale de ce dépôt est de préserver et diffuser les documents aux étudiants et aux enseignants chercheurs. Pour réussir cette mission, nous allons mettre en place une politique de numérisation. Cette politique n’est pas limitée à l’action de convertir un document analogue dans une forme numérique, mais comprend également toutes les activités pouvant amener la mise en ligne d’une copie numérique accessible. Alors, plusieurs professionnels en sciences de l’information documentaire et informaticiens peuvent être appelés à participer à ces activités, qui incluent notamment, la sélection des documents originaux, la création des métadonnées, la conversion numérique, les opérations de post-numérisation et la mise en ligne des documents numérisés ».
La bibliothèque de l’Institut de Géographie Tropicale après la crise post-électorale de 2010.
À gauche: Documents en attente de traitement. À droite: Documents traités et rangés dans les rayons : Source des images : Armand N’DA KOUADIO juillet 2014.
Par ailleurs, nous avons eu la chance d’assister au retour d’expérience de Sophie MADIBA sur le Centre de Recherche et de Documentation sur les Traditions et Langues Africaines Cerdotola (Yaoundé, Cameroun) qui s’est interrogée sur comment organiser la conservation d’une collection orale ? En effet, comment collecter et diffuser un patrimoine oral afin de le conserver et de le transmettre au grand public, dans l’optique de ne pas l’oublier ?
Et maintenant ? Se préparer et persévérer
Tristan MÜLLER a voulu attirer l’attention des étudiants sur la préservation à long terme : sur l’importance de connaître la technologie, comme par exemple la rétrocompatibilité, un concept notable. En effet, même si les documents numériques sont conservés, le matériel informatique et les logiciels actuels, les formats de fichier, ne sont pas forcément adaptés à leur lecture. Travailler sur la compatibilité implique de préserver les technologies, les ordinateurs comme les logiciels, ou alors émuler ces derniers, c’est-à-dire chercher à imiter un comportement physique d’un matériel sur un environnement informatique actuel.
De plus, cette démarche de numérisation implique des enjeux financiers et humains que dorénavant personne ne peut ignorer. Par exemple, la question de savoir comment réutiliser les « métadonnées issues des fichiers numériques » est apparue. Par ailleurs, comment « prioriser la conservation d’une collection » ? De nombreuses interrogations ont été soulevées sur cette thématique. En effet, qu’est-ce qui permet de sélectionner un fonds plus qu’un autre ? Prioriser la numérisation d’un fonds est souvent le témoin de la sauvegarde d’un patrimoine déjà en péril. Par exemple, Aminata CISSE, et Nathalie ALOU (respectivement conservateur et assistante conservateur au Ministère de l’Economie et des Finances à Abidjan, Côte d’Ivoire) vont mener un projet de numérisation d’une publication en série[4] en mauvais état afin de la préserver. Pour illustrer ces interrogations et prolonger les échanges, les ateliers, et plus particulièrement le deuxième[5], ont permis de se questionner sur les lois et règles en vigueur (nationales et internationales) relatives à la préservation, la conservation et à la communication des documents.
Papa Cheikh Thiéfaye DIOUF rappelle qu’ « en tant que professionnel dans le domaine de l’information documentaire et étant averti, l’ambition d’être à la hauteur du temps (l’ère du numérique) ne doit en aucun cas nous pousser à ne pas prendre en compte les exigences très subtiles de la numérisation. N’eût été la nouvelle conception que l’on a aujourd’hui de la numérisation après avoir suivi les ateliers de l’école d’été, on serait aisément « séduit » par les avantages qu’elle offre (dématérialisation, gain d’espace physique, visibilité) sans pour autant s’arrêter un instant sur les préalables que requiert un projet de numérisation ». En effet, les apprenants se sont totalement appropriés, tant d’un point de vue théorique que pratique, les enseignements afin de les intégrer dans leurs milieux professionnels prochainement. Aujourd’hui, Adjovi Essenam FUMEY, étudiante en Master à l’EBAD affirme : « je me sens donc plus opérationnelle dans le cadre de mon emploi actuel pendant lequel nous sommes appelés à muter les documents audiovisuels et audio sur des supports en vu de leur diffusion et de leur conservation ».
Enfin pour conclure, les étudiants de l’Enssib recommandent une participation aux futures écoles d’été. En effet, « en tant que futurs professionnels nous sommes ravis d’avoir participé car au delà de tous ces apprentissages, cette école d’été a été l’occasion pour nous d’échanger culturellement et professionnellement ». La quatrième édition de l’école d’été se déroulera à l’EBSI, l’Ecole de bibliothéconomie et des sciences de l’information à Montréal, (Québec, Canada), et nous espérons vous y voir nombreux !
Eunsu Ahn, Camille Delaune, Hésione Guémard, Colin Harkat
(étudiants en master professionnel à l’Enssib et ayant participé à la troisième édition de l’école d’été internationale francophone en sciences de l’information et des bibliothèques).
Notes
- Complément d’informations sur le programme : http://www.ebad.ucad.sn/sygea/Ecole_ete_2016.html
- Le site web (https://2eifsib.wordpress.com/) met à disposition toutes les informations complémentaires.
[1]Les représentants de chaque école sont intervenus durant la cérémonie d’ouverture le lundi 27 juin 2016. Une video est disponible sur la chaîne télévisée RTS (Radiodiffusion Télévision Sénégalaise).
[2]Après une première édition à l’École de bibliothéconomie et des sciences de l’information (EBSI, Montréal, Canada) sur la thématique « marketing et médiation numérique en bibliothèques » et une deuxième à l’École nationale supérieure des sciences de l’information et des bibliothèques (Enssib, Villeurbanne, France) sur « patrimoine, public, numérique », en 2016 le partenariat se renforce puisque la Haute École de Gestion (HEG, Genève, Suisse) a rejoint l’organisation.
[3]Sophie MADIBA sur le Centre de Recherche et de Documentation sur les Traditions et Langues Africaines (Cerdotola) (Yaoundé, Cameroun); Yvonne Berthe CISSE NOUDOFININ sur la Bibliothèque Centrale de l'Université Cheikh Anta Diop de Dakar (Sénégal); Christian CHABRIER de la société privée de numérisation de fonds anciens Arkhênum (Bordeaux, France); Mor DIEYE de la section Archives de l’EBAD (Dakar, Sénégal).
[4]Elles déclarent : « En effet, notre production REF [Revue Économique et Financière] qui retrace la mémoire économique de la CI [Côte d’Ivoire] est en danger. Un inventaire effectué en 2015, nous révèle que les premiers numéros de cette publication sont en voie de disparition. Nous souhaitons conduire des numérisations des dix premiers numéros de la revue économique et financière ivoirienne. Ce projet permettra la sauvegarde de ce patrimoine et sa diffusion auprès de larges publics ».
[5]Le deuxième atelier portait sur le cas précis des Archives de la construction de la Grande Mosquée de Dakar. L’exercice consistait à estimer les risques, leurs impacts, et ensuite d’imaginer les moyens de prévention pour limiter ces incidents.
- Vous devez vous connecter pour poster des commentaires
Quelle gouvernance informationnelle pour une PME High Tech ?
Ressi — 31 décembre 2016
Aurèle Nicolet, Haute Ecole de Gestion, Genève
Résumé
Le présent article résume et condense un travail réalisé dans le cadre du Master en sciences de l’Information durant la première partie de l’année 2016.
Alpes Lasers, petite entreprise neuchâteloise, fait appel à la Haute école de gestion pour l'aider à mettre en place une gouvernance de l'information. Une enquête est menée sous la forme d'un état des lieux des documents et des pratiques documentaires. Deux instruments de collecte sont utilisés : un inventaire typologique et des entretiens semi-structurés avec les responsables des différentes unités. L'enquête pointe plusieurs lacunes que l'on peut résumer en un manque de vision d'ensemble de la gestion de l'information au sein de l'entreprise et une absence de maîtrise du cycle de vie documentaire. Suite à ces résultats, plusieurs recommandations sont formulées : définition d’une politique, nomination d’une personne responsable et mise en place d’outils méthodologiques (plan de classement, calendrier de conservation, politique de nommage, plan de gestion des données et plan de protection des documents essentiels).
Quelle gouvernance informationnelle pour une PME High Tech ?
Introduction
Fondée en 1998, Alpes Lasers est une jeune société anonyme spécialisée dans la recherche et le développement de laser à cascade quantique, une technologie relativement nouvelle, puisque les premiers essais concluants ont été menés au début des années 90 et les premières commercialisations ont commencé à l’orée des années 2000 (Quantum cascade laser 2016).
Constatant des difficultés à gérer efficacement son information, l’entreprise contacte la Haute école de gestion et lui demande de l’accompagner dans une démarche de gouvernance informationnelle, sous la forme d’un mandat. Deux principaux objectifs sont établis : cartographier les ressources informationnelles et formuler des recommandations.
Méthodologie
Afin de réaliser notre premier objectif, nous avons mené une enquête qui visait à dresser deux états des lieux, celui des ressources documentaires de l’entreprise et celui de ses pratiques de gestion de l’information.
Pour le premier point, nous avons choisi d’établir un inventaire typologique. Pour le second, nous avons opté pour des entretiens semi-directifs. En plus de ces deux états des lieux, nous avons également procédé à une analyse des exigences légales et réglementaires auxquelles est soumise l’entreprise.
Inventaire typologique
Pour réaliser notre inventaire, nous nous sommes inspirés de travaux préexistants, comme celui qu’a réalisé Mme Conus dans le cadre de son travail de Bachelor (Conus 2013, p.77). Nous avons aussi fait le choix de ne concevoir qu’une seul grille, prévue aussi bien pour les documents papiers que pour les documents numériques, car, pour Jean-Pascal Perrein, la non-différenciation du format est l’un des cinq piliers de la gouvernance informationnelle (Perrein 2014a). Notre grille comporte dix entrées :
- Numéro de référence
- Lieu de conservation
- Titre du dossier : Il s’agit du titre inscrit sur le classeur ou la boîte d’archive ; pour les documents numériques, le nom du dossier ou du sous-dossier.
- Description : le détail du contenu lorsque le titre n’est pas assez explicite ou inexistant.
- Dates extrêmes
- Unité productrice : cela désigne l’unité créatrice des documents ou de leur enregistrement.
- Nature du support
- Volume : il est donné en mètres linéaires pour les documents papier et en kilo-octet pour les documents numériques afin de faciliter la conversion en giga-octet.
- État : Pour l’état de conservation, nous avons créé une échelle de trois degrés : bon, moyen et mauvais. Le niveau « mauvais » correspond à un état critique, tels que des moisissures, de l’urine ou d’autres éléments affectant l’intégrité des documents. Le niveau « moyen » est utilisé pour des documents présentant des pliures ou des déchirures, mais qui ne nuisent pas à son intégrité. Enfin, le niveau « bon » correspond à des documents ne présentant pas de dégâts ou extrêmement minimes. Comme l’échelle peut difficilement être reportée pour les documents numériques, nous avons utilisé l’entrée pour noter d’éventuels problèmes de lecture des fichiers.
- Remarques : elles ont été utilisées pour des notes comme des indications données lors des entretiens ou des constatations au moment de l’inventaire.
Pour commencer notre inventaire, nous sommes partis de la liste de classeurs et de boîtes fournie par l’assistante administrative. Très vite, nous avons constaté que cette liste ne reflétait plus la réalité du terrain. En raison d’un récent déménagement, les lieux de stockage indiqués ne correspondaient plus et les classeurs/boîtes ne respectaient plus un ordre logique. Ainsi, différents éléments d’une même série se retrouvaient dispersés sur plusieurs étagères. De plus, des cartons contenant des classeurs de la filiale allemande n’avaient pas été ouverts.
Tous ces éléments ont engendré un retard sur le planning prévu et nous ont amené à continuer l’inventaire en parallèle des entretiens. Cependant, ce délai supplémentaire n’a pas été uniquement négatif, puisque les entretiens nous ont permis d’affiner notre compréhension sur certains dossiers et de découvrir l’existence de séries de documents que nous n’aurions pas soupçonnée.
Une fois terminé l’inventaire de documents papier, nous nous sommes attaqués aux documents numériques et avons exploré l’espace partagé « Common », le principal lieu de stockage en dehors des bases de données. Nous nous sommes heurtés à deux difficultés : le degré de détail de l’inventaire et l’identification du producteur. En effet, pour des documents physiques, le niveau de description est assez facile. Il s’agit généralement du classeur ou de la boîte d’archives. Dans le cas d’un dossier numérique, la séparation est plus difficile. Nous avons finalement opté pour une description au niveau du sous-dossier, nous réservant néanmoins le droit d’adapter ce niveau de description selon les cas rencontrés. Ainsi, l’organisation labyrinthique du dossier « Admin » nous a amené à affiner le degré de détail, alors que le dossier « Measurement », dont le type de contenu est extrêmement répétitif et standardisé, a été décrit au niveau du dossier.
Pour le deuxième problème, celui de l’identification claire d’un producteur, deux cas se présentaient. Dans l’un, le créateur du fichier ou du dossier n’était pas humain. On peut prendre comme exemple les programmes de mesure qui créent automatiquement des fichiers dans le dossier « Measurement ». Dans l’autre cas, le producteur est humain, mais nous ne possédons aucune indication de son nom ou de sa fonction. Or, au sein de l’entreprise, des personnes peuvent cumuler plusieurs responsabilités et les dossiers peuvent contenir des fichiers appartenant à des services différents.
Ces éléments problématiques ont rendu difficile l’établissement d’une comparaison claire entre les dossiers numériques et les dossiers papier.
Entretiens
Sur la base de l’organigramme, nous avons sélectionné huit personnes à interviewer : les différents de chefs de service/unité, l’assistante administrative et le CEO. Puis, nous avons préparé un guide d’entretien, basé sur un exemple fourni par notre directrice de mémoire (Makhlouf Shabou [ca. 2016]) et sur l’article de Crockett et Foster qui propose plusieurs questions à poser aux producteurs d’archives (Crockett et Foster, 2004, p. 51). Nous avons choisi d’orienter la discussion autour de trois éléments : les fonctions et activités du collaborateur, les problèmes d’accès à l’information et ses pratiques de gestion et d’archivage des documents. Une dernière partie permettait à l’interviewé d’exprimer ses attentes vis-à-vis du projet.
Une fois le guide terminé, nous avons contacté les collaborateurs afin de préciser le but de notre rencontre et fixer une date de rendez-vous. Les entretiens ont duré environ quarante-cinq minutes. Pour une meilleure flexibilité et afin que nos interlocuteurs soient plus à l’aise pour présenter leurs pratiques et problèmes, nous avons fait le choix de ne pas enregistrer les entretiens. Une fois les notes mises au propre, nous en avons envoyé une copie afin de les faire valider par le participant.
Résultats
Volumétrie
Commençons par la volumétrie. Alpes Lasers compte environ 50 mètres linéaires et 360 Go de données numériques. Pour des raisons de calcul, nous avons séparé les documents numériques des documents papier, car il est difficile d’établir une comparaison entre le poids d’un fichier et un métrage linéaire (Chabin 2013).
Figure 1 : Volumétrie des documents papier par service
Trois unités se partagent un peu plus de 90% de la masse documentaire papier. Il s’agit de l’assistante administrative (53%), de la filiale allemande AL-Technologie (23%) et de l’unité Back-End (17%) qui s’occupe du montage, de l’analyse des mesures et de la sélection des lasers. Leur prédominance s’explique assez bien. L’assistante administrative a la charge de la comptabilité, des ressources humaines, des relations avec les fournisseurs ou encore des dossiers des clients. Pareillement, nous retrouvons pour AL-Technologie les dossiers comptables, ceux du personnel et les différentes commandes passées. Or, malgré le développement du numérique, tous ces éléments restent encore très souvent sous format papier. Pour l’unité Back-end, la majorité de ses documents sont des feuilles de mesure et des ordres de fabrication, qui jusqu’à présent étaient systématiquement imprimés.
Concernant la volumétrie de l’espace partagé « common », en raison du problème d’identification claire des producteurs évoqué plus haut, il nous était impossible de la présenter par service. Nous avons donc fait le choix de garder la structure de l’espace.
Figure 2 : Volumétrie des dossiers de l’espace partagé « common »
Quatorze dossiers composent l’espace partagé, mais n’ont pas tous la même importance. Nous pouvons tout de suite remarquer le poids important du dossier « Measurement » et celui dérisoire (<1%) de six dossiers. Pour quatre d’entre eux (« Attic », « Exe », « Lost and founds » et « Test set perms »), la raison est simple. Il s’agit de dossiers utilisés par l’unité IT comme débarras, zone de test ou d’aide à l’installation de programme. Concernant les deux derniers, l’explication est différente. « Produits » est un dossier récemment créé, dont une grande majorité de ses sous-dossiers sont vides, car la documentation pour les produits n’est pas encore rédigée. Enfin, la légèreté du dossier « Documentation » tient à la nature de ses documents : modèles, manuels et autres fichiers de texte.
Besoins et environnement d’Alpes Lasers
En parallèle de l’enquête menée via l’inventaire et les entretiens, nous nous sommes intéressés aux besoins et à l’environnement d’Alpes Lasers afin de les prendre en compte dans notre projet de gouvernance. Trois points sont ressortis : les objectifs stratégiques, les exigences réglementaires et normatives, ainsi que les besoins du secteur.
Puisqu’il n’existe pas de document présentant explicitement les objectifs stratégiques de l’entreprise, nous avons demandé au CEO de nous en dresser une liste. Trois objectifs sont ressortis, qui s’avèrent davantage opérationnels que stratégiques : la réduction du risque de développement, l’optimisation de la prévisibilité de la production et la maximisation des opportunités de comprendre les mécanismes sous-jacents. Ce sont trois éléments que nous pouvons relier à ceux de tout programme de gouvernance informationnelle (GlassIG 2016) : minimiser les risques, minimiser les coûts et optimiser la valeur.
Concernant la législation et dans le domaine qui nous intéresse, Alpes Lasers est principalement soumise, comme toute société anonyme, au Code des Obligations et à l’Ordonnance concernant la tenue et la conservation des livres de comptes (Olico). À ces deux textes, nous pouvons ajouter l’article 70 de la loi sur la TVA qui précise certains délais de conservation dans le cas des créances fiscales. De plus, comme la société a pris en charge les documents de sa filiale située en Allemagne en cours de fermeture, elle est également soumise à la législation allemande.
Pour les entreprises, la recherche et le développement jouent un rôle important, particulièrement dans un domaine novateur comme les lasers à cascade quantique. Deux éléments sont à prendre en compte : les brevets et les données de la recherche.
La quantité de brevets détenus par une société est un élément fondamental dans la course à l’innovation (Seuillot 2015). Ainsi, l’un des fondateurs d’Alpes Lasers, Jérôme Faist a presque dû réinventer le laser à cascade quantique, car les brevets de son invention « appartenaient aux Laboratoires Bell et étaient bloqués » (Fonds national suisse 2007, p. 2).
Depuis plusieurs années, les milieux universitaires et les organismes de financement s’intéressent à la gestion des données de la recherche et surtout à leur réutilisation possible. Ainsi, dans le cadre du programme Horizon 2020, l’Union européenne a lancé un projet pilote qui demande à chaque groupe de chercheurs un plan de gestion des données ou data management plan (DMP). Ce document planifie la gestion des données durant toute la durée d’un projet et au-delà, s’intéressant aux questions de conservation et de diffusion de données. Pour le moment, en Suisse, la rédaction d’un DMP n’est pas encore obligatoire, mais fait partie des mesures du programme pluriannuel 2017-2020 du Fonds national suisse de la recherche scientifique.
On pourrait être tenté de croire que l’adoption d’un DMP ne concerne que la recherche publique, car il a trait à l’ouverture des données, un élément qui coïncide peu avec des intérêts commerciaux. Cependant, il faut bien prendre garde à ne pas assimiler la gestion des données de la recherche à leur partage systématique (Donnelly 2015, p.11). En fait, les entreprises peuvent tirer plusieurs bénéfices d’un DMP, comme une amélioration du flux de données, une plus grande efficacité dans l’enregistrement ou encore la réutilisation des données au sein de l’entreprise (Beagrie, Pink 2012, p. 3).
Problèmes constatés
Notre enquête nous a permis de relever plusieurs éléments problématiques que nous avons ensuite apprécié selon les principes d’ARMA, car « [ils] forment les bases à partir desquelles tout programme efficace de gouvernance de l’information est élaboré, évalué et – que l’organisation ou son personnel les connaisse ou non – un jour ou l’autre jugé. » (ARMA International 2015, p. 2).
Commençons par l’absence d’une direction de l’information qui touche au principe de responsabilité. Cela entraine un manque de vision d’ensemble permettant de coordonner les efforts de chacun. Ainsi, chaque collaborateur développe sa propre méthode sans avoir connaissance de celle des autres ou de retour sur la sienne, un manque qui a plusieurs fois été exprimé lors des entretiens.
Le second élément problématique est celui de la disponibilité. Il est difficile d’accéder à l’information, en dehors des dossiers connus et utilisés régulièrement. Plusieurs facteurs peuvent l’expliquer. Tout d’abord, chaque unité a sa propre méthode de classement. Ensuite, il n’y a pas de processus d’élimination des éléments obsolètes ou redondants, ce qui engendre du bruit. Enfin, l’environnement informatique hétérogène rend l’accès difficile à certains programmes.
Lors de l’inventaire, nous avons relevé la difficulté d’identifier clairement le producteur. Cette absence d’information sur le contexte de création, comme l’identité de l’auteur, rend problématique la vérification de l’authenticité et de la fiabilité d’un document et donc au principe d’intégrité.
D’une manière générale, Alpes Lasers veille à la protection de ses données et à leur confidentialité. Cependant, lors de nos entretiens, nous avons appris que plusieurs collaborateurs utilisaient des services comme Dropbox ou Google Drive pour le travail à distance ou le partage de documents avec des personnes externes à l’entreprise, comme des fournisseurs ou des clients. Cela pose des problèmes de perte de maitrise de l’information, car les conditions exactes de stockage et de protection de ces fournisseurs sont peu transparentes.
En ce qui concerne les principes de conservation et de disposition de l’information, nous relevons l’absence d’un sort final pour les documents. Une fois créés, ils sont conservés, quelle que soit leur valeur. Ceci engendre plusieurs problèmes. Tout d’abord, la présence de documents redondants ou obsolètes entraine un bruit lors des recherches. Ensuite, tôt ou tard, se posera la question de la place.
Enfin, le dernier point problématique touche au principe de transparence. Alpes Lasers documente peu ses processus ou sa production. Cette absence de documentation est caractéristique des PME, « car la proximité permet les échanges oraux sans formalisation écrite » (Hassanaly 2013, p.47). À ce titre, le choix adopté par l’unité IT de proposer une aide ponctuelle plutôt que de concevoir des manuels d’utilisateur est particulièrement illustratif. Consciente de cette lacune, l’entreprise a entrepris des efforts dans ce sens, mais la démarche est récente et apparaît peu dans les entretiens, ce qui tend à penser que cela n’a pas encore été bien intégré par les collaborateurs.
Recommandations
À partir des résultats de l’enquête et des lacunes constatées, nous avons exprimé une série de recommandations qui s’articule autour de trois points : définition d’une politique, engagement d’une personne responsable de l’information et adoption d’outils méthodologiques.
Définir une politique de gouvernance informationnelle
Document qui traduit l’engagement de la direction dans la gestion de l’information, la politique de gouvernance informationnelle cadre et légitime « un ensemble d’exigences et de règles, formalisées et rendues applicables dans un référentiel ». (Perrein 2013). Elle possède quatre objectifs (Makhlouf Shabou 2015, p. 8) :
- Consigner la stratégie et les décisions prises concernant la gouvernance ;
- Communiquer cette stratégie et les décisions prises à l’ensemble de l’organisation ;
- Impliquer la direction ;
- Uniformiser les pratiques.
Comme il s’agit d’une pratique encore peu répandue, il n’existe, pour le moment, pas de modèle canonique. Cependant, différents éléments tendent à se retrouver dans les politiques que nous avons analysées. On trouve souvent un exposé des bénéfices et des objectifs, une définition des rôles et responsabilités, et enfin une liste des normes et des standards auxquels se référer.
Pour réaliser une première version de notre politique de gouvernance, nous nous sommes inspirés de celle de l’Université de Lausanne (UNIRIS 2014a). Deux éléments ont présidé ce choix. D’une part, son cadre légal est, en partie, similaire à celui d’Alpes Lasers : les deux organisations sont suisses. D’autre part, la forme claire et didactique nous semblait parfaitement convenir pour une entreprise qui n’est pas familiarisée avec les questions de gouvernance. Il faut toutefois noter que la politique proposée dans notre travail, l’est à titre d’illustration. Mettre en place une politique nécessiterait plus de temps que ce que nous avions à disposition.
Nommer une personne responsable
Tous (ARMA International 2015, p. 2 ; Perrein 2015) s’accordent sur l’importance de nommer une personne ou une entité dédiée à la gouvernance de l’information. Dans notre travail, nous avons envisagé de confier cette responsabilité à une seule personne, mais, suite aux remarques de notre expert, il nous semble plus intéressant d’établir un comité en charge de la gouvernance et d’avoir une personne spécialiste de l’information pour sa mise en application. Concernant cette personne, trois scénarios sont possibles : l’engagement d’un ou d’une professionnelle à 40%, l’appel à une entreprise spécialisée ou un partenariat avec la Haute école de gestion.
L’engagement d’un professionnel offre plusieurs avantages. La personne est intégrée dans la société et a une bonne connaissance de ses processus et de ses ressources, ce qui facilite la coordination entre les différents acteurs, comme l’IT, la direction et les producteurs d’information. De plus, elle peut plus facilement s’engager dans des projets à long terme comme la valorisation des archives définitives. Seul inconvénient, l’engagement est une charge fixe, difficile à moduler selon les ressources financières de l’entreprise.
L’appel à une société spécialisée, par rapport à l’engagement d’une personne fixe, offre un avantage d’ordre budgétaire, puisqu’il est plus facile d’ajuster la dépense selon la situation financière ; mais en raison de son externalité, elle risque de ne pas avoir une vision d’ensemble et de coordination entre les services et donc de ne pas conduire à une véritable gouvernance de l’information.
Enfin, le troisième scénario, un partenariat avec la Haute école de gestion, dispose des mêmes avantages et inconvénients que le deuxième. Nous retrouvons une dépense moindre, puisqu’il s’agit d’étudiants en formation, mais le problème d’externalité est augmenté. En effet, il est difficile de disposer d’une vision d’ensemble, lorsque chaque étudiant doit s’approprier le contexte de l’organisation. Le troisième scénario pourrait davantage prendre la forme de mandats ponctuels portant sur des éléments précis, tels que la mise en place d’un plan de classement ou d’un calendrier de conservation.
Mettre en place des outils méthodologiques
Plan de classement
Selon la norme ISO 15489, le plan de classement a trois usages (ISO 15489-2, p. 9). D’une part, il permet d’organiser, décrire et articuler les documents. Il sert également à relier et à partager les documents communs à plusieurs entités, en interne comme à l'extérieur de l'organisme. Enfin, il offre la possibilité d’améliorer l'accès, la recherche, l'utilisation et la diffusion des documents de la manière la plus appropriée.
Une fois le plan de classement validé, se pose la question de sa mise en place. La commission « Records Management » de l’association des archivistes français considère trois stratégies : la renaissance, la reprise partielle ou la reprise totale (Groupe interassociation AAF-ADBS "Records Management" 2011, p. 29).
La stratégie de la renaissance consiste à arrêter une date à laquelle l’ancienne arborescence ne peut plus être modifiée. Seule la lecture est autorisée et les documents ne sont pas repris dans le nouveau classement. L’avantage de cette méthode tient à sa simplicité et à la possibilité de repartir à zéro. Cependant, le constant va-et-vient entre les deux structures risque d’entretenir la confusion plutôt que la dissiper.
La stratégie de la reprise partielle laisse les documents non essentiels et inactifs dans l’ancienne structure et rapatrie les autres dans la nouvelle. Cette option offre un bon compromis. La dépense en temps est moindre que pour la reprise totale. Son principal point noir est le risque de prolonger la transition entre les deux systèmes, mais le problème est moins important que pour la stratégie de renaissance.
La stratégie de la reprise totale fait le choix d’abandonner complètement l’ancienne arborescence et de transférer l’ensemble des documents sur la nouvelle. Cela a le mérite d’assurer une cohérence et une unité à l’ensemble, mais le coût en temps et en moyen est énorme. De plus, il existe un risque, faible mais réel, que certains documents ne puissent être repris dans la nouvelle structure, si certaines activités de l’entreprise ont changé, par exemple.
Pour notre part, nous recommandons cette dernière stratégie. Certes, l’investissement en temps est important, mais ce délai peut être mis à profit en éliminant les éléments obsolètes parallèlement au transfert des documents.
Calendrier de conservation
Présenté généralement sous la forme d’un tableau, le calendrier de conservation répertorie les différents types de documents d’une organisation et définit plusieurs éléments : le responsable de l’exemplaire principal et ceux des exemplaires secondaires pour chaque type de document ; la durée de conservation du document lorsqu’il n’est plus actif et enfin le sort final du document (élimination ou archivage définitif). Cela permettra à Alpes Lasers de maitriser le cycle de vie de ses documents.
Politique de nommage
Un nommage clair et précis rend facile l’identification et la classification des documents. Il peut en outre pallier à une absence de métadonnées (UNIRIS 2014b). Il convient cependant de ne pas imposer une politique artificielle, mais d'harmoniser les pratiques déjà existantes, car le succès dépend de plusieurs éléments, comme la consultation et l'adhésion des utilisateurs (Scaglione 2016, p. 4).
Plan de gestion des données de la recherche
En raison de la part importante de la recherche et du développement au sein d’Alpes Lasers, il nous semble important de mettre en place un DMP pour chaque projet, aussi bien interne qu’externe. Il n’est cependant pas nécessaire d’en créer un de toutes pièces. C’est pourquoi nous proposons d’adopter celui conçu pour le programme d’Horizon 2020 (Commission européenne 2016, p. 5).
Plan de protection
Alpes Lasers a déjà pris certaines mesures, comme la conservation de documents sensibles dans un coffre d’une banque. L’adoption d’un plan de protection des documents essentiels permettra de systématiser et d’unifier la pratique.
Conclusion
L’enquête menée nous a permis de relever plusieurs éléments problématiques, tels qu’une organisation des dossiers propres à chaque unité, voire à chaque collaborateur, ou encore une absence d’élimination des informations obsolètes ou redondantes. Ceci pointe un manque de gouvernance claire chez Alpes Lasers, d’une vue d’ensemble du fonds documentaire et du cycle de vie. Le problème n’est pas propre à notre mandant et touche de nombreux organismes.
Pour pallier ce problème, nous avons proposé une série de recommandations qui relèvent finalement davantage du records management que véritablement de la gouvernance informationnelle. Cela n’est pas étonnant, puisqu’on peut considérer le records management comme le socle de la gouvernance de l’information (Pagnamenta 2014, p. 11). Enfin, nous tenons à rappeler que les recommandations proposées ne constituent pas une fin en soi, mais ne sont qu'une première étape. En effet, la gouvernance de l'information n'est pas un projet à court terme, mais doit être envisagée sur le long terme (Smallwood 2014, chap.1 ; GlassIG 2016).
Bibliographie
ARMA INTERNATIONAL, 2015. Principes de tenue des enregistrements (Generally Accepted Recordkeeping Principles). ARMA International [en ligne]. 2015. [Consulté le 2 août 2016]. Disponible à l’adresse : http://www.arma.org/r2/generally-accepted-br-recordkeeping-principles
BEAGRIE, Neil and PINK, Catherine, 2012. Benefits from Research Data Management in Universities for Industry and Not-for-Profit Research Partners [en ligne]. Charles Beagrie Ltd and University of Bath, novembre 2012. [Consulté le 01 juillet 2016]. Disponible à l’adresse : http://opus.bath.ac.uk/32509/
CHABIN, Marie-Anne, 2013. Le mètre linéaire, unité de mesure des archives. Transarchivistique [en ligne]. 26 mai 2013. [Consulté le 5 août 2016]. Disponible à l’adresse : http://transarchivistique.fr/le-metre-lineaire-unite-de-mesure-des-archives/
COMMISSION EUROPÉENNE, 2016. Lignes directrices pour la gestion des données dans Horizon 2020. openaccess.inist.fr [en ligne]. 15 février 2016. [Consulté le 22 juin 2016]. Disponible à l’adresse : http://openaccess.inist.fr/IMG/pdf/lignes_directrices_gestion_des_donnees_horizon_2020_version2._1_tr_fr.pdf
CONUS, Lina-Luz, 2013. Analyse des pratiques d'archivage au sein de la Mairie de Chêne-Bourg en vue de la mise en place d'un système de gestion des archives [en ligne]. Genève : Haute école de gestion de Genève. [Consulté le 17 avril 2016]. Disponible à l’adresse : https://doc.rero.ch/record/233050
CROCKETT, Margaret, FOSTER, Janet, 2004. Using ISO 15489 as an Audit Tool. The Information Management Journal [en ligne]. July/August 2004. Vol. 38, pp.46-53. [Consulté le 1er août 2016]. Disponible à l’adresse : http://www.arma.org/bookstore/files/CrockettFoster.pdf
DONNELLY, Martin, 2015. Research Data Management & the H2020 Open Data Pilot. In : UNIVERSITÉ DE CHYPRE. Open Access to research publications and data. Nicosie, 22-23 octobre 2015 [en ligne]. FOSTER, 2015. [Consulté le 5 juillet 2016]. Disponible à l’adresse : https://www.fosteropenscience.eu/content/research-data-management-h2020-open-data-pilot
FONDS NATIONAL SUISSE, 2007. Mission sur Mars, avec le Fonds national suisse. snf.ch [en ligne]. Février 2007. [Consulté le 8 août 2016]. Disponible à l’adresse : http://www.snf.ch/SiteCollectionDocuments/Dossiers/dos_Grundlagen_Mars_f.pdf
GLASSIG, 2016. What have we learned about Information Governance?. GlassIG [en ligne]. 24 février 2016. [Consulté le 23 juillet 2016]. Disponible à l’adresse : http://www.glassig.com/2016/02/24/learned-information-governance-1-3/
GROUPE INTERASSOCIATION AAF-ADBS « RECORDS MANAGEMENT », 2011. Le plan de classement des documents dans un environnement électronique : concepts et repères [en ligne]. Site de l’Association des archivistes français (AAF), 17 juin 2011. [Consulté le 6 juillet 2016]. Disponible à l’adresse : http://www.archivistes.org/Groupes-de-travail-et-commissions
HASSANALY, Parina, 2013. Management de l'information : quelle réalité pour les TPE/PME ?. Documentaliste-Sciences de l'Information [en ligne]. 2013/1 (Vol. 50), pp.46-47. ISSN 0012-4508. [Consulté le 15 juillet 2016]. Disponible à l’adresse : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2013-1-page-38.htm#s1n6
MAKHLOUF SHABOU, Basma, 2015. Politique de Gouvernance de l’Information. [document PDF]. 1er octobre 2015. Support de cours: Module 10 « Gouvernance de l'Information (GI) », Haute école de gestion de Genève, filière Information documentaire, année académique 2015-2016
MAKHLOUF SHABOU, Basma, [ca. 2016]. Guide d'entretien destiné au personnel du Système de Management Environnemental de l’Etat [document Word].
ORGANISATION INTERNATIONALE DE NORMALISATION, 2001. Information et documentation : "records management". 1ère éd. 2 vol. Genève : ISO, 15 septembre 2001. ISO/IEC, 15489.
PAGNAMENTA, Roxane, 2014. Gouvernance de l’information : définition, enjeux et perspectives en Ville de Genève [en ligne]. Genève : Haute école de gestion de Genève. Travail de master. [Consulté le 01 juillet 2016]. Disponible à l’adresse : http://doc.rero.ch/record/232841
PERREIN, Jean-Pascal, 2013. Définition de la gouvernance de l’information par des mots : Extrait du livre GouvInfo “Océan bleu”. 3org – Points de vue sur le flux Information [en ligne]. 2 avril 2013. [Consulté le 21 juillet 2016]. Disponible à l’adresse : http://www.3org.com/news/gouvernance_de_linformation/definition-de-la-gouvernance-de-linformation-par-des-mots-extrait-du-livre-gouvinfo-ocean-bleu/
PERREIN, Jean-Pascal, 2014. Les 5 piliers de la gouvernance de l’information. 3org – Points de vue sur le flux Information [en ligne]. 26 juin 2014. [Consulté le 23 juillet 2016]. Disponible à l’adresse : http://www.3org.com/news/gouvernance_de_linformation/les-5-piliers-de-la-gouvernance-de-linformation/
PERREIN, Jean-Pascal, 2015. L’instance de gouvernance de l’information trouve sa légitimité. 3org – Points de vue sur le flux Information [en ligne]. 13 janvier 2015. [Consulté le 2 août 2016]. Disponible à l’adresse : http://www.3org.com/news/flux_information/instance-de-gouvernance-de-linformation-trouve-sa-legitimite/
SCAGLIONE, Marc, 2016. Synthèse du questionnaire « Politique de nommage » [document PDF]. 17 mai 2016. Diffusé sur Swiss-lib Digest, Vol 85, Issue 10
SEUILLOT, Guillain, 2015. Retranscription de l’interview de Nicolas Grandjean sur les lasers. PodcastSciences.fm [en ligne]. 8 avril 2015. [Consulté le 28 juillet 2016]. Disponible à l’adresse : http://www.podcastscience.fm/dossiers/2015/04/08/retranscription-de-linterview-de-nicolas-grandjean-sur-les-lasers/
SMALLWOOD, Robert F., 2014. Information governance: concepts, strategies and best practices. Hoboken : Wiley, 2014. Wiley CIO series. ISBN 978-1-118218-30-3
UNIRIS, 2014a. Politique de records management et d’archivage pour une gouvernance informationnelle [en ligne]. Université de Lausanne, 30 juin 2014. [Consulté le 16 juillet 2016] Disponible à l’adresse : http://www.unil.ch/uniris/home/menuguid/a-telecharger/documents-de-reference.html
UNIRIS, 2014b. Politique de records management : Règles de nommage des documents électroniques [en ligne]. Université de Lausanne, 18 mars 2014. 7 novembre 2014. [Consulté le 16 juillet 2016] Disponible à l’adresse : http://www.unil.ch/uniris/home/menuguid/a-telecharger/pour-les-unites.html
- Vous devez vous connecter pour poster des commentaires
Big Data et intelligence économique : rendre le futur moins incertain : compte-rendu de la 13eme journée franco-suisse sur la veille stratégique et l’intelligence économique, 9 juin 2016, Genève
Ressi — 31 décembre 2016
Angélique Broye, Haute Ecole de Gestion, Genève
Cette 13ème journée franco-suisse sur la veille et l’intelligence économique avait pour but de montrer l’enjeu stratégique des Big Data aujourd’hui dans divers domaines tels le marketing, la santé, les transports publics, la gestion des risques et bien d’autres encore. En matière d’intelligence économique, les enjeux liés à l’exploitation des données du Big Data sont considérables. Ces données transforment les attentes des entreprises qui visent encore plus la performance et l’innovation.
C’est donc sur ce thème que la directrice de la Haute Ecole de Gestion de Genève, Madame Claire Baribaud, a ouvert cette journée de conférences devant la septantaine de personnes présentes dans l’aula du nouveau bâtiment de la HEG-Genève.
S’en est suivi le discours de bienvenue de Monsieur Nicolas Walder, maire de la ville de Carouge, se réjouissant de la continuation des liens franco-suisses par le biais du comité Jveille et invitant les participants à débuter l’écoute des conférences.
Big Data et prospective, par Thomas Gauthier
Monsieur Gauthier cherche à savoir quel est le rôle de l’anticipation pour une entreprise. Il explique qu’actuellement notre monde est devenu complexe. Ainsi, pour qu’une entreprise puisse garder ses clients, il faut qu’elle intègre dans ses produits et services des technologies informatiques qui évoluent vite. Mais il lui faut également des atouts qu’il lui faut chercher internationalement. Le plus important pour elle est donc d’élargir son intelligence et de construire des réseaux de coopération. De ce fait, il faut maintenant qu’une entreprise soit sans frontières.
En parallèle de cela, l’entreprise doit mettre en place une démarche de prospective. Cette dernière s’intéresse au présent et non au futur et doit permettre de mieux agir dans le présent en préparant l’avenir. Thomas Gauthier le démontre par l’exemple de l’entreprise Shell qui, dès les années 70, motive ses équipes à penser « l’impensable » en matière de scénarios catastrophes. Cette culture de la prospective permettra à la compagnie de faire face de manière efficace aux divers problèmes qu’elle a pu rencontrer et ainsi lui permettre une résilience plus aisée.
Cependant, cette démarche de l’entreprise doit concorder avec la complexité de notre monde actuel et pour cela, plusieurs outils d’appréhension de cette complexité ont été mis en place tels des analyses de tendances et signaux faibles, des analyses de jeux d’acteurs ou encore des diagnostics stratégiques et prospectifs de l’entreprise. Grâce à eux, les entreprises et les sociétés peuvent se faire une idée de leur pérennité et de leur situation future.
Pour développer cette prospective, il faut donc des données et notre monde en dispose toujours plus. Il y a donc là un nouveau gisement à exploiter et qui est de plus en plus facile à stocker. Cependant, il faut savoir exploiter ces données et ne pas tomber dans le piège des biais cognitifs et d’une attitude scientiste. La prospective interroge donc nos modèles mentaux. D’après Peter Drucker, pour prendre des décisions efficaces, il ne faut pas commencer avec des faits mais avec des opinions. Par la suite, nous obtenons des faits grâce aux critères de pertinence qui sont indispensables à cette tâche.
L’intelligence artificielle et le cognitive computing sont-ils réservés aux sociétés multinationales ? par Pierre Kauffmann
Pierre Kaufmann explique l’intelligence artificielle (IA) et le cognitive computing grâce à l’exemple de Watson, IA sur ordinateur créée par l’entreprise IBM. Cette intelligence a été testée lors d’un jeu télévisé de réponses à des questions, Jeopardy, qui l’opposait à deux concurrents humains. Le but pour la machine était de se battre sur la compréhension du langage humain. Elle devait donc comprendre le langage naturel. Pour cela, elle devait passer par une première phase d’analyse du texte de la question. Dans la deuxième phase, Watson tentait de comprendre ce que l’on cherchait. Lors de la troisième phase, il a recherché les informations qui répondaient à la question dans toutes les informations qu’il a intégrées dans son système. Finalement, il a dû décider entre toutes les réponses qu’il a obtenues laquelle était la meilleure pour répondre à la question. Et il a gagné le jeu.
Suite à cela, Watson a été considéré tellement performant qu’il a été commercialisé en 2015 dans le monde de la recherche et notamment de la médecine. En effet, dans ce domaine la machine peut se montrer d’une grande aide pour le professionnel de la santé. Elle lit toutes les publications disponibles sur un sujet donné, elle met les informations en relation et intègre toutes ces données. Le but de cela étant de pouvoir soigner le mieux possible un patient. De ce fait, elle met en relation les informations acquises avec celles concernant la personne devant être soignée afin de proposer le meilleur diagnostic possible. Enfin, elle conseille le médecin qui sera le seul à prendre la décision finale concernant le traitement du patient. La machine est donc là pour montrer les liens entre les données, pour guider et conseiller mais elle ne prend jamais la décision finale.
En 2016, l’IA passe au cognitive computing qui est une solution qui comprend, raisonne et apprend en interaction avec les humains. Elle est également capable de lire et de voir. Tout cela est possible grâce au grand nombre de données intégrées par la machine. Avec le cognitive computing, nous ne sommes plus dans le monde des machines ou des systèmes que l’on programme mais dans un monde où la machine s’adapte à l’environnement qui l’entoure grâce à l’interaction avec l’être humain.
Pour que le cognitive computing puisse prendre vie, il lui faut trois éléments : les données, les algorithmes et la puissance de calcul. Grâce à cela, il est en évolution permanente et peut traiter les données de manière toujours plus performante. De ce fait, le cognitive computing peut donc servir dans diverses situations comme dans les helpdesks afin de répondre aux questions du public et détecter ce qui peut être anormal dans une situation donnée. Il peut aussi servir dans le domaine de la santé grâce à la détection sur photo de potentiels mélanomes sur un corps humain. Une autre utilisation est possible avec le discovery advisor qui permet de travailler sur des modèles prédictifs afin de permettre aux entreprises de faire des économies.
La machine dispose donc de nombreux avantages car elle n’est pas fatiguée, elle peut répondre aux diverses interrogations en tout temps et elle gère une très grande quantité d’informations. Cependant, ces avantages s’arrêtent après un certain niveau de précision au-delà duquel elle a besoin de l’homme. C’est notamment le cas pour les questions d’opinion. Ce n’est donc pas encore aujourd’hui que la machine prendra le pas sur l’humain.
Le Big Data au service des tpg : amélioration de la performance et de la satisfaction client, et outil de prospective, par Antoine Stroh et Mickaël Chopard
Antoine Stroh et Mickaël Chopard expliquent qu’actuellement les transports publics genevois (tpg) observent une montée de la concurrence avec entre autres les CFF, Uber, le CEVA et Google Car. Ils ont donc décidé de se servir des données recueillies par leurs véhicules afin de maintenir leur position.
Avec le transport de près de 500'000 personnes par jour, la quantité de données obtenues est intéressante. En effet, chaque bus peut recueillir des informations par le biais du Wifi, du GPS, du ticketing, de la priorité au feu, de la radio et du système informatique. Le but premier de cette récolte de données était d’assurer la sécurité des voyageurs et de mieux communiquer avec eux. Mais s’est présentée pour les tpg, la question de l’exploitation de ces informations qu’il leur faut donc traiter, analyser afin d’améliorer leurs performances et éventuellement diffuser.
Les tpg sont déjà doués dans le métier du transport. La donnée doit donc leur apporter de la valeur et une vision complémentaire. Elle permet d’améliorer les connaissances et de trouver des solutions aux problèmes de ponctualité, de confort des voyageurs, de charge du véhicule mais aussi des conditions de travail des conducteurs, de leur temps de parcours et de battement.
Messieurs Stroh et Chopard mettent en avant le fait qu’aujourd’hui, avec internet et les smartphones, notre population est habituée à tout avoir rapidement. Les transports misent donc tout sur la ponctualité de leurs véhicules. De ce fait, un retard de bus peut provoquer une série de plaintes sur les réseaux sociaux et cela nuit à la réputation des tpg. Les données sont donc primordiales pour améliorer les services et donc par-là, la satisfaction et la relation client.
Les tpg pratiquent également l’open data. Le citoyen devient ainsi co-créateur et cette démarche permet à l’entreprise d’améliorer sa proximité avec le public, d’être transparente et d’induire une démarche d’innovation.
La valorisation des données permet donc d’aider les personnes à faire leur travail et à s’améliorer.
Le Big Data va-t-il changer les règles de l’intelligence économique ? par Loïc Gourgand
Loïc Gourgand explique que la société Spallian, pour laquelle il travaille, a accès à des bases de données non-exploitées jusqu’à aujourd’hui, qu’elle possède des fonds de cartographie et met en place des stratégies de smart data permettant d’extraire toutes les données utiles à l’entreprise. Par ailleurs, Spallian fait des études de géomarketing et pratique la smart gouvernance. Le but étant d’utiliser la prospective pour avoir un avantage concurrentiel dans le futur. Spallian obtient également ses données en temps réel qu’elle peut exploiter afin de conseiller et d’aider les entreprises qui la mandatent.
Pour tous ces services, Spallian crée des dashboards sur mesure pour ses clients qui intègrent des données en temps réel.
Afin d’obtenir toutes ces informations, elle dispose de plusieurs outils qu’elle a créé. Le premier est un outil Stat’ permettant l’extraction de données et leur traitement en masse. Cela permet à l’entreprise de traiter toutes les données dans un même endroit.
Ensuite, vient Corto qui permet de pratiquer la cartographie analytique. L’exemple d’utilisation de cet outil donné par Monsieur Gourgand concerne un projet d’implantation d’un groupe immobilier dans un parc. Un des buts de ce groupe était de savoir si l’endroit était rentable et sécurisé. Pour vérifier cette dernière donnée, Corto a pu fournir à Spallian une cartographie des données enregistrées par la police concernant des actes malveillants perpétués dans et aux alentours de cette zone.
L’outil a aussi permis de prendre des décisions à court terme notamment dans l’exemple de sécurisation des agences d’une banque lors de l’Euro 2016. Pour ce faire, Corto a répertorié les fanzones, a géolocalisé les réseaux de transports et a finalement couplé les localisations des agences de la banque afin de savoir lesquelles se trouvaient en zone de danger. Cela a permis à la banque de pouvoir prendre des mesures de protection pour les sites concernés.
En plus de cela, Spallian développe des produits permettant l’utilisation de données mobiles. Notamment lors de l’épidémie d’Ebola, un système d’alerte a pu être mis en place afin de géolocaliser des personnes travaillant pour une certaine entreprise dans les zones à risques.
Pour mener à bien ses projets, Spallian dispose d’un département de data scientists qui vérifient les données récoltées. En effet, les outils doivent toujours être mis à jour. De plus, l’entreprise dispose également de personnel formé dans le marketing ou la gestion afin de répondre au mieux aux attentes des clients et aux exigences marketing de l’entreprise.
Par ces exemples, nous pouvons voir dans quelles mesures l’exploitation de Big Data permet de gérer au mieux la sécurité d’une entreprise ou d’une personne mais également d’aider des sociétés et des entreprises à prendre des bonnes décisions, ce qui est aussi une des finalités de l’intelligence économique.
Détection systématique de communautés à l’échelle de Twitter, par Clément Levallois
Clément Levallois explique que Twitter dispose aujourd’hui de 117 millions d’utilisateurs actifs. Ce réseau est très riche en métadonnées grâce aux tweets et aux profils des utilisateurs. Ces éléments permettent aux chercheurs des universités de mener à bien diverses recherches concernant les perceptions d’une marque par les utilisateurs à travers leurs tweets. Il est possible de savoir si une marque est perçue comme écologique en suivant par exemple tous les comptes twitter concernant la marque et tous ceux propres à Greenpeace. En les comparants, c’est-à-dire en regardant si les personnes qui suivent les activités de l’une suivent aussi celles de l’autre, il est possible de répondre à cette question. Notamment en utilisant divers outils présents sur le marché tels Tweetdeck, Bluenod et Visibrain qui permettent de visualiser les communautés de Twitter.
Monsieur Levallois a mené un projet à l’EM-Lyon Business School visant à combler le vide que laissent ces outils. En effet, ces derniers répondent aux demandes faites mais sans vraiment résoudre le problème de la visualisation des communautés. Le but de ce projet était donc d’obtenir, via une carte, une visualisation complète de Twitter pour ensuite détecter les communautés du réseau à une échelle globale. Cela devrait permettre de savoir quels types de communautés parlent de quelle marque mais aussi de comprendre comment une publicité ou un buzz se propage dans le monde. Les réponses à ces questions devraient être disponibles prochainement.
Cependant, les données relationnelles entre utilisateurs de Twitter sont, à l’heure actuelle, difficiles à acquérir. Des substituts ont été imaginés mais sans succès car toute la difficulté est de réussir à suivre les relations entre utilisateurs et de détecter les biais. On estime que les données relationnelles sont pertinentes lorsque les utilisateurs partagent trois listes en commun.
Avec ce projet, Clément Levallois souhaite mettre à disposition du public une carte réseau via un site web ou une API. Cette carte sera remplie au fur et à mesure grâce à la collaboration d’entreprises au projet.
Par cet exemple, nous pouvons observer à quel point le Big Data peut aider des marques à développer leur marketing, cibler leur public et diffuser leur publicité d’une façon plus précise.
Conclusion
Grâce aux exemples des conférences données lors de cette 13ème journée franco-suisse sur l’intelligence économique, nous avons pu constater que la multiplication des données ces dernières années est une nouvelle source d’information permettant aux entreprises de mieux s’armer aujourd’hui pour le monde de demain. La prospective est d’ailleurs un élément non négligeable que cette accumulation de données permet de préciser.
Ces Big Data permettent d’améliorer les services et les performances, mais aussi de trouver les problèmes à résoudre. Par le biais de l’intelligence artificielle et du cognitive computing, elles peuvent faire gagner du temps aux professionnels de divers métiers tout en renforçant leurs compétences décisionnelles. En étant utilisées comme dans l’exemple des tpg, elles permettent d’améliorer les performances d’une entreprise et lui permettent de se maintenir en position de concurrence. Les Big Data sont également très utiles pour une marque souhaitant se démarquer sur les réseaux sociaux et cibler au mieux ses différents publics.
Finalement, quand on sait exploiter ces informations convenablement, elles servent également dans le domaine de choix d’implantation et de sécurité comme l’a démontré l’entreprise Spallian avec ses nombreux exemples.
Nous pouvons donc conclure que les Big Data bien exploitées permettent d’avoir une meilleure prise sur l’avenir et donc, de « rendre le futur moins incertain ».
- Vous devez vous connecter pour poster des commentaires
L’archivage du web : présentation des méthodes de collecte et recommandations pour l’accès aux contenus –et leur structuration-
Ressi — 31 décembre 2016
Jonas Beausire, Haute Ecole de Gestion, Genève
Résumé
Cet article – synthèse d’un travail de bachelor – consiste en l’établissement d’un panorama des grandes approches méthodologiques et stratégies de collecte de l’archivage du web, une analyse des attentes et des résistances du public des chercheurs face à ces nouvelles archives et la présentation de pistes d’innovations et de recommandations pour mieux appréhender l’archivage du web.
Les approches de l’archivage du web sont exposées : intégrale, exhaustive, sélective et thématique. Elles se combinent souvent sur le terrain mais doivent être repensées pour être renouvelées. Chacune d’entre elles peut être accompagnée d’une stratégie de collecte : automatisée, semi-automatisée ou manuelle.
Les attentes des chercheurs, leurs besoins et résistances sont mis en lumière par des résultats d’enquêtes. Si la communauté scientifique s’accorde sur la nécessité de constituer une mémoire du web, la fiabilité et la légitimité des collections issues du web cristallisent les résistances exprimées par les chercheurs. Globalement, les questions épistémologiques et méthodologiques pour inscrire ces archives dans un usage scientifique établi ne sont pas encore résolues.
Enfin, des recommandations techniques et conceptuelles sont abordées : elles mettent notamment l’accent sur la construction d’interfaces d’accès et la description des archives et de leur contexte grâce, en particulier, aux métadonnées. Une variété d’outils d’analyse du web constitue également des leviers privilégiés pour exploiter et mettre en valeur les futures archives du web.
L’archivage du web : présentation des méthodes de collecte et recommandations pour l’accès aux contenus –et leur structuration-
Introduction
Les questions soulevées par l’archivage du web préoccupent les acteurs du monde de l’information depuis presque vingt ans maintenant. Il est aisé de situer dans le temps les prémices des réflexions qui entourent les questions d’une mémoire du web. En effet, des initiatives comme celle, bien connue et la plus ancienne de toute, de la fondation « Internet Archive »[1] ont pris naissance dès 1996 dans un climat d’urgence à se saisir des nouvelles traces qui faisaient déjà la mémoire de la fin du XXe siècle (Peyssard 2012). La multiplication des ordinateurs connectés durant la bulle Internet jusqu’en 2000 confirmera la nécessité de sauvegarder les contenus désormais « nés numériques » du prochain millénaire.
L’établissement, durant la première décennie du XXIe siècle, de programmes d’archivage du web institutionnalisés (le plus souvent au sein de bibliothèques nationales) va peu à peu voir opérer un changement de paradigme essentiel : de la numérisation généralisée du patrimoine, il s’est agi de patrimonialiser le (né) numérique. Ce passage, symptôme de la légitimation de ces nouvelles archives, n’est pas sans poser un catalogue de questions : Comment préserver ces nouveaux documents ? Selon quelles logiques documentaires ? Comment les conserver de façon pérenne ? De quelles façons les rendre accessibles et à qui ? Au fond, comment prendre en charge une masse documentaire exponentielle, qui a valeur de patrimoine, et qui ne cesse de disparaître de plus en plus rapidement ?
Si désormais les contenus nés numériques préoccupent les institutions patrimoniales et constituent un segment de notre mémoire collective, les différents acteurs concernés par leur archivage pointent également une autre réalité : la disparition du web d’hier est toujours plus importante. En effet, les documents et données issus du web sont aujourd’hui trop souvent inaccessibles, hantés par le spectre de l’erreur http 404 (fichier introuvable) ; la durée de vie moyenne d’une page web avant modification ou suppression est d’environ cent jours (Laporte, Kahle, 2011)[2]. La dimension fragile, fuyante et nomade de ces documents exhorte les archivistes, les bibliothécaires et les chercheurs à penser de nouveaux modèles de collecte et plus largement à assimiler de nouveaux lieux de notre mémoire collective.
Les sources mobilisées pour la réalisation de ce travail proviennent majoritairement du web et étonnent souvent par leur complexité lorsqu’elles sont destinées au public de l’ingénierie informatique, par exemple. Le caractère fondamentalement transdisciplinaire des entreprises d’archivage du web se traduit dans la pluralité des publics auxquels s’adressent les ressources scientifiques disponibles sur le sujet. Les publications liées aux activités de l’International Internet Preservation Consortium (IIPC)[3] demeurent le réservoir privilégié des ressources disponibles aujourd’hui, associant souvent études de cas et réflexions holistiques sur l’archivage du web. Les trois axes majeurs de travail du consortium rejoignent ceux associés au circuit du document en bibliothèque : collecte, consultation et préservation (Illien 2011). Par ailleurs, certains médias, spécialisés ou non, soulignent peu à peu les enjeux de la sauvegarde de cette mémoire numérique et cherchent à sensibiliser des publics plus divers et moins avertis.
Au carrefour des enjeux d’accessibilité, de représentativité, de légitimité et de fiabilité des documents nés numériques, cet article[4] se propose de dégager les grandes approches méthodologiques et stratégies de collecte de l’archivage du web à l’œuvre aujourd’hui, mises en regard avec les programmes de la Bibliothèque nationale suisse (BN) et de la Bibliothèque nationale de France (BnF). Il analysera les attentes et les résistances du public des chercheurs face à ces nouvelles archives et enfin présentera des pistes d’innovation et des recommandations pour mieux appréhender l’archivage du web.
Cadre théorique
Il est possible d’identifier aujourd’hui de grandes approches et stratégies de collecte. Une typologie conceptualisée par Thomas Chaimbault (enseignant à l’ENSSIB) offre à voir un panorama des stratégies et modes de dépôt (voir tableau récapitulatif n°1, p. 5) développés par différents établissements nationaux et soutenus par des consortia (Chaimbault, 2008).
En rappelant que ces approches demeurent de purs cadres théoriques et qu’elles doivent être renouvelées – notamment en raison des mutations techniques extrêmement rapides du web – il est également à souligner que les réalités du terrain sont multiples et mêlent bien souvent plusieurs approches et stratégies pour répondre aux besoins spécifiques d’un seul et même programme d’archivage du web.
Les approches
L’approche dite « intégrale » consiste à collecter l’entier du web, sans distinction ni critère de sélection. Les questions liées à une valeur patrimoniale des documents sont évacuées au profit d’un projet de pure exhaustivité. Le projet « Internet Archive » en est aujourd’hui l’exemple unique et concentre la plus large audience des collections issues du web au travers de son interface d’accès aux documents d’archive, la « Wayback Machine »[5]. Avec près de 273 milliards de pages web collectées (Internet Archive, 2016) et au centre d’un partenariat qui la lie avec près de 440 organismes partenaires, la fondation s’inscrit dans un double mouvement, à la fois celui de la collecte autonome, mais également celui d’un échange continu avec d’autres organisations de collecte. (Leetaru, 2016)
L’approche « exhaustive », quant à elle, vise également une certaine idée de la complétude mais dans un périmètre circonscrit, celui d’un nom de domaine, d’un espace national particulier ou, moins souvent, d’un type de sites. Cette approche, relativement répandue, s’intègre facilement dans les missions d’une institution patrimoniale comme les bibliothèques nationales mais cristallise les ambiguïtés liées à la territorialité du web : des contenus web particulièrement signifiants peuvent être enregistrés sous un nom de domaine hors collecte, par exemple.
A l’inverse des deux précédentes approches, celle dite « sélective » consiste à se saisir de contenus prédéfinis au moyen de critères choisis extrêmement variés : thématiques, en lien avec la nature de la ressource, qualitatifs, etc. Cette approche rompt avec un certain souci d’exhaustivité et se propose de compiler régulièrement des instantanés de sites répondant aux critères de sélection choisis.
Enfin, l’approche « thématique » doit se comprendre comme un embranchement particulier de l’approche sélective : il s’agit d’archiver une collection de sites web en lien avec un événement spécifique. Les collectes des sites web et autres ressources liés aux élections présidentielles françaises menées par la BnF illustrent parfaitement cette approche. (Greffet, 2012) Sa logique renvoie directement à la notion de « collection », voire de « fonds d’archive » puisqu’il s’agit bien pour les bibliothécaires de sélectionner et d’éliminer en vue de former un corpus cohérent, pouvant ainsi former de véritables « produits d’appel » tournés vers un public encore aujourd’hui embryonnaire (Illien, 2008).
Les stratégies
Parallèlement aux différentes approches décrites, Thomas Chaimbault dégage également trois stratégies de collectes différentes. La stratégie « automatisée » qui engage la mise en place d’un logiciel-robot (moissonneur et collecteur du web) : un espace web circonscrit à un domaine choisi est ainsi collecté de façon automatique. Cette stratégie accompagne généralement des approches intégrales ou exhaustives de l’archivage du web. La stratégie « semi-automatisée » implique également l’usage d’un logiciel-robot mais ajoute à son utilisation des critères de sélection plus précis ; elle peut être mobilisée dans le cadre d’une approche sélective du web. Enfin, l’approche « manuelle », même si elle exige également des ressources techniques, replace l’humain au centre des processus de collecte ; les bibliothécaires sont amenés à sélectionner eux-mêmes les sites pertinents. Cette logique combinatoire est essentielle dans le contexte d’une approche thématique.
En assignant la typologie de Thomas Chaimbault au programme d’archivage de la BN, on peut aisément le qualifier de sélectif et thématique. En effet, dans la tradition des Helvetica, la collection « Archives Web Suisse » regroupe en grande majorité des sites web patrimoniaux et helvétiques, selon un périmètre et des critères décidés collégialement. En rejetant tout projet d’exhaustivité et en cartographiant les sites archivés au moyen d’un catalogue de grands principes de sélection et d’exclusion[6], la BN se distingue radicalement de la BnF. En effet, l’institution française combine trois approches : exhaustive, sélective et thématique qui renvoient à autant de modes de collecte. Exhaustive car la BnF procède à des collectes dites « larges » qui moissonnent l’entier du nom de domaine français, mais superficiellement en ce qui concerne la profondeur des sites. Sélective et thématique lorsque la BnF mène ses collectes dites « ciblées » qui visent à s’emparer des sites en profondeur et à une fréquence plus élevée, choisis pour leurs contenus signifiants. (BnF, 2015)
Table 1 : Récapitulatif des grandes approches et stratégies
Stratégie automatisée | Stratégie semi-automatisée | Stratégie manuelle | |
Approche intégrale |
|
Néant | Néant |
Approche exhaustive |
|
Néant | Néant |
Approche sélective | Néant |
|
Néant |
Approche thématique | Néant | Néant |
|
Un cadre légal différencié, des usages communs
Au cœur du régime différencié des programmes de la BN et de la BnF, réside le cadre légal sur lequel repose les approches mises en œuvre. En effet, ce dispositif structure largement les possibilités des deux institutions. Il est également le reflet d’une « accréditation culturelle de l’éphémère » (Merzeau, 2003). L’absence de dépôt légal suisse au niveau national implique pour la BN une approche sélective et thématique du web. A l’inverse, le dépôt légal du numérique permet à la BnF de s’emparer indifféremment de la quasi-totalité de la production éditoriale numérique française, tendant à une forme d’exhaustivité sans jugement de valeur documentaire. L’accessibilité des archives est une conséquence directe du cadre législatif différent de chacune des deux bibliothèques : la BnF est contrainte d’encadrer son accès pour protéger le droit d’auteur des contenus qu’elle moissonne, alors que la BN est plus souple puisque les accords des producteurs ont été obtenus préalablement.
Il est à noter que l’approche dite « thématique » est partagée par les deux institutions : dans les deux cas, des bibliothécaires sélectionnent en amont les sites signifiants et tentent de former des collections parfois thématiques ou gravitant autour d’événements majeurs. Certains outils informatiques et des préoccupations liées à la profondeur de l’archivage sont partagés par les deux bibliothèques. Le rapprochement s’opère également sur le plan international puisque la BN et la BnF sont membres du Consortium IIPC au travers duquel elles collaborent. Comité de pilotage et groupes de travail au sein de ce consortium sont autant de lieux d’échanges et de retours d’expérience, notamment concernant l’usage de divers logiciels développés par certains membres.
Besoins, attentes et résistances des chercheurs
Le public des nouvelles collections issues des différents programmes de l’archivage du web demeure une question centrale. Si des publics variés peuvent aujourd’hui consulter ces nouvelles archives, celui des chercheurs scientifiques semble être le plus important. (Chevallier, Illien, 2011) (Aubry et al. 2008) De nombreuses questions sont soulevées par ce public particulier : un site Internet peut-il réellement constituer une source fiable ? Quelle procédure existerait-il pour valider la qualité d’une telle source ? Comment justifier le choix de convoquer tel site plutôt qu’un autre dans une sitographie ?, etc. (Chevallier, Illien, 2011)
Malgré des attentes contradictoires et des réticences notamment méthodologiques et épistémologiques, la communauté scientifique semble s’accorder sur la nécessité de travailler avec le numérique, de s’interroger sur les conditions d’une meilleure appréhension du patrimoine numérique natif et sur la conservation de nouvelles formes d’expressions numériques. (Joutard, 2013) La conservation d’une mémoire du web nécessite une reconceptualisation des modèles traditionnels de l’archivage en les pensant spécifiquement pour les documents numériques natifs. Les pertes de certains contenus nés numériques et les liens morts inquiètent certains acteurs du monde académique, notamment les historiens, qui voient disparaître des ressources à durée de vie limitée. Les doutes et les interrogations se cristallisent majoritairement autour de la fiabilité de ces nouvelles archives dont les contours documentaires peinent à être scientifiquement définis ; en effet, même si certains chercheurs s’accordent autour du bien-fondé de l’archivage des sites institutionnels et des blogs, les actions ou traces individuelles laissées sur le web sont considérées avec davantage de circonspection. (Chevallier, Illien, 2011) C’est bien entendu la question irrésolue de la légitimation du statut de collection de ces archives qui se pose ici en filigrane. Ainsi, l’organisation, la hiérarchisation, voire la discrimination des contenus du web sont attendues de la part des chercheurs pour considérer plus sûrement les nouveaux corpus. La variété des contenus agrégés exige des efforts organisationnels majeurs pour un usage scientifique de ces données. (Leetaru, 2016) La bibliothèque peut endosser un rôle important dans ce processus de légitimation. (Illien, 2011)
Plus concrètement encore, ce sont les difficultés d’accès, autant physiques que techniques, qui préoccupent les chercheurs : le supposé déplacement au sein des bibliothèques dépositaires des fonds et les interfaces difficiles à prendre en main empêchent trop souvent le public de s’approprier ces nouvelles ressources. L’indexation plein texte constitue toujours la voie d’accès privilégiée aux volumes exceptionnels de ces collections, malgré les insatisfactions récurrentes liées aux technologies utilisées (Gomes, Miranda, Costa, 2011). Enfin, l’instabilité du média Internet, la volatilité des données et la difficulté à traiter de gros volumes de données souvent très hétérogènes constituent les principaux freins méthodologiques rencontrés par le monde de la recherche (Mussou 2012).
Recommandations techniques et innovations
En dehors des grandes initiatives nationales et des projets circonscrits à une institution donnée, l’IIPC peut être considéré comme un laboratoire d’innovations incontournable sur la scène internationale. Cet organisme a notamment pour but de sensibiliser aux enjeux liés à la conservation des ressources nées numériques. (Bonnel, Oury, 2014) De nombreuses sources sont accessibles par le biais de cet institut : articles, études de cas et conférences enrichissent des sources souvent disparates sur l’archivage du web. Le lieu des innovations en matière de conservation du web se situe ainsi surtout dans le cadre de collaborations internationales.
Quelques outils du « web vivant »
Il existe aujourd’hui de nombreux outils de pointe pour appréhender, étudier et investir le « web vivant », par opposition au web archivé. Mais comment valoriser, analyser et exploiter des collections issues du web ? Des chercheurs de l’« Oxford Internet Institute »[7] proposent de transposer certains de ces outils aux archives du web (Meyer, Thomas, Schroeder, 2011). Nous en retenons ici quelques-uns :
La visualisation peut constituer une fenêtre d’accès inédite aux archives. Dans l’esprit des infographies, elle permettrait de visualiser la façon dont les différentes archives sont reliées entre elles. Un fort développement de cet outil pour le web vivant existe déjà. La recherche profonde, quant à elle, permet d’interroger finement de gros ensembles de données. La prolifération des informations postées (puis archivées) exigerait ainsi de nouveaux moyens d’accès à de très gros volumes d’informations. Les outils d’analyse des réseaux sociaux (SNA) n’ont pas été adaptés aux archives. Ceux-ci pourraient permettre aux archivistes du web l’analyse des liens hypertextes comme révélateur de la structure des interactions des différents sites web composant leurs collections. Les liens et leur analyse expriment quelque chose de la nature du réseau, de ses jeux d’interactions. Enfin, cette analyse pourrait être complétée par l’archivage des liens et autres annotations qui pointent vers les sites archivés afin d’observer leurs évolutions dans le temps.
D’autres pistes d’innovation sont énoncées au sein de l’étude de Meyer, Thomas et Schroeder (2011) : la première est celle dite du « web cumulatif » : il s’agit de considérer le web archivé littéralement en parallèle du web vivant. Cette organisation en filigrane de couches d’archives viendrait combler la fragmentation et les trous du web (comme les liens morts qui désormais pointeraient vers la ressource archivée). Cette piste, relativement utopique, supposerait un changement structurel et profond du web.
S’il est aujourd’hui possible de comprendre l’organisation et les usages des sites présents sur le web et de consulter certains d’entre eux qui n’existent plus, il demeure impossible encore de comprendre l’usage passé des archives du web. Afin d’y parvenir, les chercheurs proposent d’archiver également les journaux des serveurs (« servers logs ») des sites d’archivage du web. De cette façon, il deviendrait possible de comprendre et d’étudier comment les archives du web ont été ou sont utilisées. En conservant le web d’hier, mais également les usages associés à ce web disparu, il serait possible de combler l’une des attentes exprimées par les chercheurs sur la nécessité d’interroger les pratiques scientifiques qui entourent ces nouvelles archives.
Un autre usage possible des archives du web est celui de ses images et de son fort potentiel visuel. Il s’agirait de saisir certains changements du monde au travers des images circulant sur la toile. En extrayant sur une certaine durée des images d’archives d’un même objet, cela permettrait de superposer les clichés et de proposer un rendu visuel de l’évolution de l’objet.
L’exploitation statistique des archives constitue également une opportunité majeure. Quels sont les outils d’analyse à mettre en place pour faire parler de très importantes collections d’archives du web ? Comment ces outils statistiques permettraient de mieux comprendre la structure des collections et conséquemment celle du web en général ? En s’intéressant, par exemple, aux langues des sites web ou à leur date de création, il serait possible de dégager de grandes tendances structurelles du web. Les travaux d’analyse menés par l’ « Observatoire du dépôt légal » de la BnF[8] sur ses collectes larges s’inscrivent dans cette logique statistique.
En lien avec une analyse structurelle du web, il serait possible de rendre compte de la prolifération d’une idée sur le web, de sa viralité et de ses déplacements. Pour repérer et comprendre où les idées surgissent et comment elles se propagent sur le web, il faut pouvoir remonter à l’origine de l’idée. Cette archéologie suppose une profondeur et une granularité des archives très importantes. Dans cette perspective, la temporalité du web, c’est à dire le tempo des publications et les hyperliens qui les relient, doit être archivée. Sans une profondeur suffisante de l’archivage, cette dimension est impossible à extraire des archives.
Enfin, la question du web illicite interroge les chercheurs sur la meilleure façon de rendre compte de ces matériaux circulant sur le web. Les contenus sexuels illicites, sur les drogues, sur les groupes prônant la haine raciale, le terrorisme, etc. sont nombreux. Quelle entité serait habilitée à prendre en charge leur archivage et dans quel cadre juridique ? Ce genre d’archive pourrait autant intéresser des chercheurs que certaines autorités, la justice ou encore les professionnels de la santé, par exemple. L’enjeu réside ici dans la mise en place d’un mécanisme juridique pour protéger et légitimer l’institution garante de ces documents au contenu illégal, et qui saurait mettre en valeur leur intérêt scientifique. (Meyer, Thomas, Schroeder, 2011)
Interfaces, accessibilité et contextualisation
Malgré de nouvelles perspectives pour l’exploitation de la mémoire du web, les chercheurs constatent une absence globale d’interfaces stables et conviviales pour construire et accéder à de solides archives du web[9]. Dans ces conditions, le déploiement des différentes initiatives demeure compliqué. Plusieurs études (Bonnel, Oury 2014 ; Leetaru, 2012) insistent sur l’opportunité de mettre en place des interfaces d’accès aux archives les plus efficaces possibles, qui sachent explorer de très gros volumes de données. Selon Leetaru (2012), l’interface de Twitter constituerait un modèle standardisé très simple d’utilisation. Ces interfaces doivent également être spécifiquement pensées pour les chercheurs qui formeront sans doute une communauté importante se saisissant de ces archives. Toujours dans la volonté d’offrir une voie d’accès améliorée aux archives, c’est bien une description fine des collections au travers de métadonnées variées qui constituera une mise en valeur des fonds. Cette pratique suppose que les administrateurs des programmes connaissent précisément le contenu de leurs archives, ce qui n’est pas toujours le cas, surtout dans le cadre d’approches exhaustives ou intégrales.
Si les chercheurs se saisissent petit à petit de ces nouveaux contenus et citent désormais des sources provenant de celles-ci, il s’agit donc de penser également à la normalisation de ces citations. Cette préoccupation participe au travail de leur légitimation, qui ne doit pas échapper aux usages actuels de référencement des sources traditionnelles. La mise en place d’un identifiant unique et permanent de chaque page web archivée participerait à un système de citation efficace dans les publications scientifiques. Comme pour la citation des pages du web vivant, certaines métadonnées comme la date de capture de la page sont essentielles pour la constitution de notices complètes. Certaines tentatives basées sur les standards MLA et impulsées par Internet Archive vont dans ce sens aujourd’hui[10].
Si les choix documentaires d’acquisition des bibliothécaires sont longtemps restés opaques pour le grand public, il serait envisageable de renverser cette tendance en documentant les biais, souvent algorithmiques, des crawlers et autres robots qui moissonnent le web pour l’archiver. De la même façon qu’une transparence des politiques documentaires, la mise en lumière de certains détails techniques propres à un programme peuvent contextualiser telle ou telle collection. (Leetaru 2016) Parfois, la date d’archivage d’un site peut ne pas correspondre à la date de capture du même site. Cette réalité peut constituer un biais majeur pour l’étude d’une chronologie exacte de l’évolution d’un site. Si l’on cherche à comparer, par exemple, le nombre de pages traitant de la candidature d’un politicien à une élection avec celui d’un concurrent, les résultats obtenus peuvent ne pas correspondre avec la réalité du web d’alors. Le nombre d’occurrences peut être influencé par certaines politiques d’archivage, par l’algorithme selon lequel le robot moissonne le web, etc. La documentation des archives du web doit éclairer ces potentiels biais techniques. Si on donne à un chercheur la possibilité d’accéder au «journal» du crawler, il pourrait connaître les lieux où le robot a peut-être buté contre tel ou tel contenu : les zones blanches des archives peuvent recéler un sens précieux pour ceux qui les étudient. Par ailleurs, si beaucoup de sites dits « dynamiques » adaptent leurs contenus en fonction de l’emplacement physique de l’internaute, la géographie du robot doit également être un élément de contexte documenté pour les utilisateurs des archives du web ; elle influe directement sur les contenus affichés (et donc collectés), l’ordre des pages, etc. En d’autres termes, un crawler installé en Russie ne collectera pas les mêmes contenus qu’un autre localisé en France.
En définitive, l’ensemble de ces préoccupations techniques renvoie à la question de l’archivage du contexte de l’archive. Les liens sortants d’un site archivés donnent à voir un écosystème global dans lequel le site en question se déploie. Les métadonnées associées ou la localisation du crawler s’inscrivent dans cette même logique. A titre d’exemple, l’archivage des documents audiovisuels du web pratiqué par l’INA suppose l’intégration de paratextes qui vont définir et aider à interpréter et s’approprier les documents d’archive. (Carou, 2007) C’est également une attente spécifique des chercheurs, qui souhaitent pouvoir accéder à toute une série de données contextuelles comme l’URL, la date de capture, la place de la page capturée dans le site, l’arborescence ou encore des statistiques de vue. (Chevallier, Illien, 2011) En conservant le contexte, l’archive fait sens et peut faire rayonner tout son pouvoir mémoriel et remplir sa fonction cardinale de témoignage.
Archives sociales, fonction d’authentification et pédagogie
Suite à l’avènement d’un web ultra collaboratif où les échanges et les commentaires constituent le régime privilégié des internautes, la dimension sociale représente aujourd’hui une part substantielle de l’écosystème global d’un site. Les interactions sociales qui entrent en résonnance avec les documents présents sur le site doivent également être archivées, en mesurant, bien entendu, le perpétuel enrichissement de ses espaces d’interaction. (Meyer, Thomas, Schroeder, 2011)
Les archives du web pourraient également constituer, à terme, un potentiel agent d’authentification. En effet, elles pourraient pointer, par exemple, les changements intervenus sur une page dans un jeu de comparaison entre une page « primaire » (archivée à un moment t) et une page consultée sur le web vivant. Ce travail comparatif prendrait tout son sens dans le contexte mouvant du web. Les pages des sites gouvernementaux ou médicaux et leurs évolutions pourraient ainsi être authentifiées par les archives qui, une fois de plus, rempliraient leur objectif de garantie d’authenticité du document. (Meyer, Thomas, Schroeder, 2011)
Enfin, afin de sensibiliser les plus jeunes aux enjeux de l’archivage du web, des programmes impliquant des élèves dans l’élaboration de collections d’archive du web ont été mis en place.[11] (Reynolds, 2013) Il s’agit de rendre attentives les futures générations à l’importance de ce patrimoine nouveau. Les « digital natives » doivent prendre conscience que les contenus produits sur le web ne sont pas éternels et qu’une importante partie de notre mémoire collective se crée, circule et meurt parfois sur la toile. Gageons que cette génération, si active sur le web et coutumière de la richesse de ses contenus, mesurera plus facilement les enjeux d’une sauvegarde de la mémoire numérique que ses aînés.
Conclusion
A ce jour, quatre grandes approches de l’archivage du web peuvent être identifiées : intégrale, exhaustive, sélective et thématique. Chacune d’entre-elles peut parfois être accompagnée d’une stratégie de collecte particulière : automatisée, semi-automatisée ou manuelle. Ces différentes approches constituent des cadres théoriques qui se combinent parfois sur le terrain et qui doivent se renouveler et s’adapter notamment à de nouvelles réalités de l’archivage des documents nés numériques.
Les chercheurs ont tout à la fois des attentes et des résistances : quoiqu’issus d’horizons disciplinaires différents, ils s’accordent sur la nécessité de conserver une mémoire du web, alors même que la disparition des documents nés numériques inquiète certains d’entre eux. C’est autour d’une politique documentaire pensée pour former des collections qui n’apparaissent pas toujours comme légitimes ou fiables aux yeux des chercheurs que la sélection des contenus doit s’articuler. La difficile prise en main des interfaces d’accès à ces archives doit être résolue pour faire rayonner toute la richesse de ses contenus. Un échange des usages et des compétences à l’international peut y répondre, comme on le constate au sein de l’IIPC.
Des outils d’analyse du web vivant comme la visualisation des contenus, la recherche au sein de gros ensembles de données ou l’analyse des réseaux sociaux, sont autant de leviers à activer et transposer pour exploiter et mettre en valeur les collections des archives du web. D’autres pistes d’innovations, comme l’archivage des journaux des serveurs pour comprendre l’usage passé des archives, l’exploitation statistique des archives ou encore l’observation de la prolifération d’une idée sur le web forment un avenir prometteur des archives du web. Les interfaces d’accès constituent à la fois les vitrines des collections et les portes d’accès principales aux contenus ; exploratrices de gros volumes de données, elles doivent être sans cesse repensées pour garantir un accès toujours plus facilité. Le travail de description des archives et des robots-crawler et l’inscription systématique de métadonnées sont des recommandations centrales et récurrentes dans les études. L’archivage du contexte de ces archives répond aux attentes des chercheurs et tend à inscrire ces nouveaux corpus dans une tradition théorique archivistique, notamment concernant leur fiabilité.
L’établissement d’une mémoire numérique apparaît sinon urgent, du moins légitime. Il demeure plus que jamais nécessaire de poursuivre les efforts de recherche autour des nombreuses questions posées par les programmes d’archivage du web : la complexité des processus à mettre en œuvre, les innovations technologiques associées, les politiques et les choix documentaires, mais également la place des professionnels de l’information dans les mécaniques d’archivage sont des enjeux majeurs.
En concentrant un maximum les actions du quotidien d’une société sur son réseau, Internet tend à devenir un lieu de notre histoire mondiale. La trace, le signe ou l’indice numérique nous invitent plus que jamais à considérer le web et son archivage comme une véritable archéologie des pratiques humaines.
[1] Pour davantage d’informations sur le projet et pour notamment accéder à la « Wayback machine », consulter : https://archive.org/index.php
[2] D’autres chercheurs présentent des chiffres moins alarmistes mais néanmoins préoccupants : 80% des pages sont mises à jour ou disparaissent après un an. (Gomes, Miranda, Costa, 2011)
[3] Pour davantage d’informations sur cet organisme international, consulter : http://netpreserve.org/about-us
[4] Il constitue une synthèse du travail de bachelor intitulé « L’archivage du web : stratégies, études de cas et recommandations », disponible dans son intégralité à l’adresse : https://doc.rero.ch/record/257793?ln=fr
[5] A noter que cette interface d’accès permet d’accéder uniquement à un nombre restreint de ressources. En effet, une grande partie des contenus reçus ou collectés par la fondation ne sont que partiellement accessibles en raison d’embargos, contrats de licence et autres politiques d’accès. (Leetaru, 2016)
[6] L’ensemble de ces grands principes de sélection et d’exclusion est disponible au sein du document consultable ici : https://www.nb.admin.ch/nb_professionnel/01693/01699/01873/01895/index.h...
[7] Pour davantage d’informations sur cet institut, consulter : http://www.oii.ox.ac.uk/
[8] Pour davantage d’information sur cet observatoire, notamment les rapports produits, consulter : http://www.bnf.fr/fr/professionnels/depot_legal_definition/s.depot_legal_observatoire.html?first_Art=non
[9] Il est à noter néanmoins que les interfaces ne cessent de s’améliorer pour mieux s’adapter à leurs utilisateurs, comme en témoigne la récente mise à jour de celle de la BnF en octobre 2016.
[10] Consulter à ce propos : http://www.writediteach.com/images/Citing%20from%20a%20Digital%20Archive%20like%20the%20Internet%20Archive.pdf
[11] C’est le cas, par exemple, de l’initiative « K-12 Web Archiving » : https://archive-it.org/k12/
AUBRY, Sara et al., 2008. Méthodes techniques et outils. Documentaliste-Sciences de l’Information [en ligne]. Avril 2008. Vol. 45. p.12-20. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.cairn.info/revue-documentaliste-sciences-de-linformation-2008-4-p-12.htm
BNF, 2015. Collectes ciblées de l’internet français. Bnf.fr [en ligne]. 26 mars 2015. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.bnf.fr/fr/collections_et_services/anx_pres/a.collectes_ciblee.... Html
BONNEL, Sylvie, OURY, Clément, 2014. La sélection de sites web dans une bibliothèque nationale encyclopédique : une politique documentaire partagée pour le dépôt légal de l’internet à la BnF. IFLA World Library and Information Congress 80th IFLA General Conference and Assembly, Lyon, 16-22 August 2014 [en ligne]. [Consulté le 01.11.2016]. Disponible à l’adresse : http://library.ifla.org/998/1/107-bonnel-fr.pdf
CAROU, Alain, 2007. Archiver la vidéo sur le web : des documents ? Quels documents ?. Bulletin des bibliothèques de France [en ligne]. 2007. N°2. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2007-02-0056- 012
CHAIMBAULT, Thomas, 2008. L’archivage du web [en ligne]. Dossier documentaire. Villeurbanne : enssib. 2008. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.enssib.fr/bibliotheque-numerique/documents/1730-l-archivage-du-web.pdf
CHEVALLIER, Philippe, ILLIEN, Gildas, 2011. Les Archives de l’Internet : une étude prospective sur les représentations et les attentes des utilisateurs potentiels [en ligne]. Bibliothèque nationale de France. 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.bnf.fr/documents/enquete_archives_web.pdf
GOMES, Daniel, MIRANDA, Joao, COSTA, Miguel, 2011. A survey on web archiving initiatives. In: International Conference on Theory and Practice of Digital Libraries [livre électronique]. Berlin, Springer, pp. 408-420. Lecture Notes in Computer Science, 6966. [Consulté le 01.11.2016]. Disponible à l’adresse: http://sobre.arquivo.pt/about-the-archive/publications-1/documents/a-survey-on-web-archiving-initiatives
GREFFET, Fabienne, 2012. Le web dans la recherche en science politique [en ligne]. Revue de la Bibliothèque nationale de France [en ligne], n°40. 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : www.cairn.info/load_pdf.php?ID_ARTICLE=RBNF_040_0078
ILLIEN, Gildas, 2011. Une histoire politique de l’archivage du web. Bulletin des bibliothèques de France [en ligne], n°2, 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2011-02-0060-012
ILLIEN, Gildas, 2008. Le dépôt légal de l'internet en pratique. Bulletin des bibliothèques de France [en ligne], n° 6, 2008. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2008-06-0020-004
INTERNET ARCHIVE, 2016. Archive.org [en ligne]. [Consulté le 01.11.2016]. Disponible à l’adresse : https://archive.org/web/
JOUTARD, Philippe, 2013. Révolution numérique et rapport au passé. Le Débat [en ligne], n°177, 2013. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.cairn.info/revue-le-debat-2013-5-page-145.htm
LAPORTE, Xavier, KAHLE, Brewster, 2011. Brewster Kahle, Internet Archive: “Le meilleur du web est déjà perdu”. Internet Actu [en ligne]. Mars 2011. [Consulté le 01.11.2016]. Disponible à l’adresse: http://www.internetactu.net/2011/06/28/brewster-kahle-internet-archive-le-meilleur-du-web-est-deja-perdu/
LEETARU, Kalev H., 2012. A vision of the role and future of web archives. IIPC 2012 General Assembly, [en ligne], 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/VisionRoles.pdf
LEETARU, Kalev H., 2016. The Internet Archive Turns 20 : A Behind The Scences Look At Archiving The Web. Forbes [en ligne]. 18 janvier 2016. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.forbes.com/sites/kalevleetaru/2016/01/18/the-internet-archive-turns-20-a-behind-the-scenes-look-at-archiving-the-web/#172e34fb7800
MERZEAU, Louise, 2003. Web en stock. Cahier de médiologie [en ligne]. 2003. P. 158-167. [Consulté le 01.11.2016]. Disponible à l’adresse : https://halshs.archives-ouvertes.fr/halshs-00487319
MEYER, Eric T., THOMAS, Arthur, SCHROEDER, Ralph, 2011. Web Archives : The Future(s). IIPC netpreserve.org [en ligne]. 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/2011_06_IIPC_WebArchivesTheFutures.pdf
MUSSOU, Claude. Et le web devint archive : enjeux et défis. Ina-expert.com [en ligne]. Juin 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.inaexpert.com/e-dossier-de-l-audiovisuel-sciences-humaines-et-sociales-et-patrimoinenumerique/et-le-web-devint-archive-enjeux-et-defis.html
PEYSSARD, Jean-Christophe, GINOUVES, Véronique, 2012. Internet Archive. Aldebaran.revues.org [en ligne]. 2 septembre 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://aldebaran.revues.org/6339
REYNOLDS, Emily, 2013. Web Archiving Use Cases. Library of Congress, UMSI, ASB13 [en ligne]. Mars 2013. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/UseCases_Final_1.pdf
- Vous devez vous connecter pour poster des commentaires
iPRES 2016 - International conference on digital preservation, Berne, Bibliothèque nationale suisse, 3-6 octobre 2016
Ressi — 31 décembre 2016
Hansueli Locher, Bibliothèque nationale suisse
iPRES 2016 - International conference on digital preservation
Berne, Bibliothèque nationale suisse, 3-6 octobre 2016
Toute personne active dans le domaine de la conservation d’informations numériques est amenée à s’intéresser à la conférence internationale annuelle iPRES. L’édition 2016 de cette conférence a été organisée par la Bibliothèque nationale suisse et s’est tenue à Berne. Du 3 au 6 octobre elle a proposé à plus de 300 participants un programme riche et varié, avec des présentations, des tables rondes, des ateliers de travail et des posters.
L’origine de iPRES
iPRES résulte d’une invitation en 2003 de l’Académie chinoise des sciences (ACS) et de l‘Electronic Information for Libraries (eIFL) pour une première conférence qui s’est tenue à Pékin en 2004 et à laquelle des experts européens de la conservation numérique participèrent. Après la clôture de ce colloque riche en échanges et enseignements, la Deutsche Forschungsgemeinschaft (DFG, Conseil allemand de la recherche) proposa de renouveler l’expérience. Ainsi vit le jour cette manifestation, qui se tient chaque année sur un continent différent.
Une large palette de thèmes
Les thèmes qui se rapportent à la conservation numérique sont le cœur de iPRES et chaque conférence, dans son programme, met l’accent sur un aspect particulier. Le spectre est donc large. La présentation de solutions concrètes, locales, régionales ou internationales, y trouve sa place, aussi bien que les discussions autour des stratégies à mettre en œuvre.
Les stratégies et les processus de conservation, ainsi que leurs répercussions sur les systèmes d’archivage à long terme, étaient au premier plan de la conférence de Berne. Les orateurs ont abordé des thèmes qui tournaient autour de l’infrastructure, des systèmes (en particulier des systèmes de stockage de données), des outils en relation avec l’archivage numérique. Les défis posés par la conservation dans différentes disciplines, en particulier pour les institutions chargées de transmettre le patrimoine culturel, ont été largement évoqués. Les études de cas, les échanges d’expériences et de « bonnes recettes » trouvées par les uns ou les autres étaient également présents dans ces journées. Une question très actuelle a retenu l’attention : de quelles compétences aura-t-on besoin pour assurer les différentes tâches dans le domaine de la conservation numérique ? Et par conséquent, quelles formations faut-il mettre sur pied et encourager pour avoir la garantie de disposer de personnel qualifié dans ces domaines ?
Je renonce dans cet article à présenter dans le détail les nombreuses contributions : ce serait difficile de le faire de façon à les refléter correctement. Je renvoie le lecteur intéressé à la page web de la conférence, www.ipres2016.ch ; sous le lien « Programme » il trouvera les actes de la conférence (Proceedings) sous forme de documents PDF. Je préfère me concentrer sur quelques points que j’ai trouvés particulièrement forts lors de ces journées.
J’ai observé avec intérêt la façon dont se sont reflétées les approches diverses entre la recherche et la pratique, ou comment les différences entre la théorie et la pratique ont été discutées. Presque à chaque fois elles s’enrichissent l’une l’autre et permettent à chacune de progresser.
Temps forts des discours d’orientation
Les discours d’orientation de la conférence sont restés dans ma mémoire comme des temps particulièrement forts et de haute qualité.
Robert Kahn, directeur général de la Corporation for National Research Initiatives in Reston (USA) nous a parlé le premier jour des défis et des possibilités de l’archivage numérique. Il a entre autre présenté aux participants l’idée d’un registre global d’identificateurs (Global Handle Registry). Il s’agit d’un système mondial de résolution d’identificateurs univoques d’objets numériques, basé sur l’attribution aux organisations d’un préfixe. Celles-ci définissent ensuite des préfixes subordonnés et enfin attribuent pour leur domaine de compétence des suffixes ou indicateurs uniques. Ce système hiérarchique de recensement aurait à son sommet le registre global qui permettrait une identification univoque et assurerait ainsi le référencement des objets numériques.
Le deuxième jour, Sabine Himmelsbach, directrice de la Maison des arts électroniques de Bâle nous présenta les problèmes liés à l’archivage de l’art numérique. Nous apprîmes que la durée de vie de ces œuvres est très dépendante des versions du hardware et du logiciel sur lesquelles elles ont été créées. Dans certains cas, des stratégies telles que des émulations peuvent être appliquées. Mais dès qu’une œuvre tire certains inputs directement de l’internet, il devient difficile de les perpétuer car les technologies du web changent constamment. Dans le meilleur des cas, l’artiste intervient lui-même, comme dans l’exemple que l’oratrice nous a présenté, où des flux provenant de différentes chaînes d’information en continu sont fusionnés et réarrangés pour créer une nouvelle présentation des contenus. Cela signifie aussi que l’artiste modifie son œuvre, qui ne se présente plus telle qu’elle était dans sa version précédente.
David Bosshard, directeur général du Gottlieb Duttweiler Institut für Wirtschaft und Gesellschaft (Institut Gottlieb Duttweiler pour l’économie et la société) examina la question du changement social par les technologies numériques et les potentialités qu’elles offrent. Les frontières de plus en plus floues entre la sphère privée et la sphère publique, ainsi que les attentes toujours plus hautes envers les technologies étaient au centre de son discours. Quels risques et quelles chances présentent les stocks toujours plus grands de données ? Comment se développe la relation entre l’homme et la machine ? Comment seront prises les décisions dans le futur ? Ces questions sont trois exemples parmi celles que l’orateur a discutées avec nous.
Des ateliers de travail intéressants
Des ateliers de travail qui pouvaient répondre à toutes les exigences ont été proposés aux participants. Les identifiants durables pour les objets numériques, des introductions à l’utilisation d’outils ou la discussion sur les stratégies de sorties des services basés sur le « cloud » en sont quelques exemples.
Faire un choix parmi cette offre si variée fut difficile : dans de tels moments, il faudrait pouvoir se cloner ! Comme j’ai plutôt une formation technique, je me suis finalement décidé pour une introduction à "Fedora Repository", logiciel développé par Duraspace pour gérer des collections d’objets numériques. J’ai reçu les instructions d’installation des logiciels nécessaires pour le workshop avant la conférence déjà, ainsi nous avons pu traiter des objets concrets dès le début de l’atelier. Quelques exemples pratiques ont permis de comprendre rapidement le fonctionnement du logiciel. J’ai ainsi découvert avec surprise qu’en plus d’un outil de gestion, je disposais de SOLR, un puissant outil de recherche qui me permettait de formuler des requêtes et d’avoir accès à des ensembles d’objets numériques.
Un deuxième atelier de très haute qualité, consacré aux exigences auxquelles doit répondre un système de stockage à long terme de données, m’a beaucoup intéressé. Dans ce cas aussi, une préparation de l’atelier a été faite avant la conférence, au moyen d’un questionnaire. Il s’agissait de définir, sur la base de nos propres expériences, quelles fonctions et quelles propriétés sont pour nous importantes pour un tel système. Les résultats de l’enquête ont servi de point de départ d’une discussion approfondie. Il était très intéressant de voir pour quelles raisons quelles institutions ont défini des priorités différentes des nôtres ou dans quels domaines nous nous écartons de la norme.
Cet atelier ne s’est pas terminé avec la conférence : ses responsables ont pris l’engagement de traiter et de synthétiser les contributions des participants afin de consolider une liste pondérée d’exigences et de fonctionnalités. Cette liste sera une excellente base pour les institutions qui doivent acquérir un système d’archivage à long terme de leurs données.
Plusieurs niveaux
L’expérience m’a montré que les conférences se déroulent toujours sur plusieurs niveaux. Il y a bien sûr le programme officiel qui sert d’accroche. Mais il y a aussi pour moi – et certainement pour la plupart des participants – un agenda caché. Une conférence est une occasion idéale de mener des discussions informelles, de partager avec les collègues d’autres institutions les questions que l’on se pose et les problèmes auxquels nous sommes confrontés. Les pauses, les repas de midi et les évènements sociaux sont des temps idéaux pour répondre à ce besoin.
La conférence de cette année proposait en plus un « networking wall », sur lequel les congressistes pouvaient faire connaître leurs domaines d’expertise ou les questions pour lesquelles ils cherchaient de l’aide. Un très bon moyen pour trouver un interlocuteur !
Twitter a joué, comme toujours dans les conférences internationales, un rôle important. Je dois avouer que je ne l’ai pas utilisé de façon active. Mais j’ai apprécié de pouvoir connaître par ce biais les impressions sur les présentations auxquelles je n’ai pas pu participer ou de revoir, une fois ces journées terminées, certaines informations qui m’intéressaient et que je n’avais pas eu le temps de creuser sur le moment.
iPRES 2017
La lecture de ce papier vous a-t-elle donné l’envie de participer à la prochaine conférence ?
iPRES 2017 se tiendra en 2017 à Kyoto (Japon), du 25 au 27 novembre.
Pour plus d‘informations:
Twitter: #ipres2016
Page web: www.ipres2016.ch
- Vous devez vous connecter pour poster des commentaires

La revue Ressi
- N° Spécial DLCM
- N°21 décembre 2020
- N°20 décembre 2019
- N°Spécial 100ans ID
- N°19 décembre 2018
- N°18 décembre 2017
- N°17 décembre 2016
- N°16 décembre 2015
- N°15 décembre 2014
- N°14 décembre 2013
- N°13 décembre 2012
- N°12 décembre 2011
- N°11 décembre 2010
- N°10 décembre 2009
- N°9 juillet 2009
- N°8 décembre 2008
- N°7 mai 2008
- N°6 octobre 2007
- N°5 mars 2007
- N°4 octobre 2006
- N°3 mars 2006
- N°2 juillet 2005
- N°1 janvier 2005