Publiée une fois par année, la Revue électronique suisse de science de l'information (RESSI) a pour but principal le développement scientifique de cette discipline en Suisse.
Présentation de la revue
Contenu du site
Se connecter
Publié par Ressi
Editorial
Ressi — 20 décembre 2017
Comité RESSI
Editorial n°18
Nous avons le plaisir de vous proposer le 18ème numéro de RESSI, revue électronique suisse en science de l’information qui paraît une fois par an.
Lecture numérique, valorisation innovante d’archives audiovisuelles, gestion des données de la recherche, utilisabilité, démocratisation des archives, protection des biens culturels : ce sont quelques-uns des thèmes abordés dans ce numéro, riche en retours d’expériences, dus autant à des jeunes chercheurs qu’à des praticiens, juniors et seniors.
Sous la rubrique « Compte rendu d’expérience », sept contributions.
La première, intitulée eLectures : la lecture numérique grand public à la BCUL, est signée par quatre collaborateurs du site de la Riponne de la Bibliothèque cantonale et universitaire de Lausanne, à savoir Laurent Albenque, directeur adjoint, Charlotte de Beffort, responsable du prêt, Christophe Bezençon, responsable des collections, et Françoise Simonet, responsable des renseignements et de l’accueil. Il s’agit d’un retour d’expérience approfondi sur l’exploitation de la plateforme eLecture à la BCUL depuis 2 ans. Il décrit l’origine du projet, la mise en œuvre, les solutions choisies, l’offre et sa communication, et propose un bilan de son utilisation ainsi que des développements possibles.
Toujours sur la lecture numérique, la deuxième contribution, Livres et presse numériques en bibliothèque de lecture publique : état des lieux de l’expérience menée par les bibliothèques de Carouge, sous la plume d’Yves Martina, directeur des bibliothèques de Carouge, décrit également le contexte et le bilan intermédiaire d’une offre en presse et livres numériques dans un contexte de bibliothèques municipales.
La troisième contribution émane conjointement d’Alain Dufaux, directeur des opérations et du développement au centre Metamedia, à l’EPFL et de Thierry Amsallem, président de la Fondation Claude Nobs. Intitulée Le Montreux Jazz Digital Project : la sauvegarde des archives audiovisuelles du Montreux Jazz Festival, un patrimoine pour l’innovation et la recherche, l’article décrit les différentes activités du projet de sauvegarde, à savoir la numérisation des archives, la gestion de l’archivage et surtout, l’identification et le suivi de -nombreux- projets de recherche et d’innovation associés aux archives du festival de jazz, puis donne quelques perspectives pour l’avenir.
La quatrième contribution est aussi signée par des collaborateurs de l’EPFL, mais de la bibliothèque, cette fois. Rédigée par Eliane Blumer, coordinatrice des données de recherche, bibliothécaire de liaison pour les sciences de la vie, et par Jan Krause, data librarian, l’article Le service de gestion des données de la recherche à la bibliothèque de l’EPFL : historique, services proposés, perspectives décrit l’origine du service, son fonctionnement, son mode d’organisation et donne des exemples précis de ses services de soutien et de formation.
La cinquième contribution, intitulée Archives démocratiques et signée Andreas Kellerhals, directeur des Archives fédérales suisses, est une réflexion originale sur les conditions d’une plus grande participation des citoyens à la constitution des archives (sélection, sauvegarde et description) et à leur accessibilité.
La sixième contribution est due à Nelly Cauliez, conservatrice responsable de l’Unité Régie de la Bibliothèque de Genève. Intitulée Un container mobile pour la sauvegarde des collections sinistrées : la BERCE PBC Ville de Genève, elle décrit le contexte d’acquisition, les caractéristiques et le fonctionnement de ce dispositif essentiel à la protection des biens culturels que constitue la BERCE.
La septième compte rendu d’expérience constitue la synthèse d’un travail de bachelor. Signé Julien Raemy, assistant HES à la HEG-Genève, intitulé Interopérabilité des images : de la nécessité des tests d’utilisabilité, l’article présente les initiatives existantes en termes d’interopérabilité des systèmes de diffusion d’images,-la communauté IIIF et le projet NIE-INE- et détaille les résultats de tests d’utilisabilité de deux systèmes de visionnement d’images, Universal Viewer et Mirador.
Pour la rubrique Compte rendu d’événement, on trouvera trois contributions.
La première, dans la lignée du dernier retour d’expérience, toujours signée par Julien Raemy, intitulée Retour sur la conférence IIIF (International Image Interoperability Framework), 7-9 juin 2017 au Vatican décrit le déroulement de la conférence IIIF, qui a été l’occasion d’échanges entre participants sur la visualisation, la comparaison, la manipulation et l'annotation d'images.
La deuxième est un compte rendu de la conférence Bibliosuisse qui s’est tenue à Bienne le 3 novembre 2017, et qui a réuni plus de 100 personnes membres des associations CLP et BIS, visant à réfléchir aux conditions d’une fusion des deux associations représentatives de la bibliothéconomie et de la documentation en Suisse. Si cette fusion aboutit à une seule association, en 2018, la nouvelle association ainsi créée, Bibliosuisse, deviendra un porte-parole majeur de la fonction documentaire en Suisse. Signée Halo Locher, secrétaire général BIS et CLP, et Katia Röthlin, secrétaire générale adjointe BIS et CLP, intitulée Les fondements de Bibliosuisse : état des discussions elle explicite les grands principes qui devraient gouverner la future association.
La troisième est un retour sur la 4ème école d’été internationale francophone en sciences de l’information et des bibliothèques qui s’est tenue à Montréal en juillet 2017. Intitulée Marketing et public, ou comment repenser l’approche bibliothèques sur l’accueil de leur public et signée par Elise Pelletier, assistante du Master IS (Sciences de l’information) de la HEG-Genève, l’article détaille, aussi bien sur le fond que sur la forme, les différentes interventions sur le nécessaire marketing en bibliothèque, qui ont eu lieu durant la première semaine de cours de l’école d’été.
Finalement, on trouvera le compte rendu de l’ouvrage de Jean-David Sandoz, intitulé Du bon usage des Lumières : le livre numérique libre, sous la plume d’Alain Jacquesson, ancien directeur de la Bibliothèque de Genève, qui résume cet ouvrage, lequel recense les différents outils et formats existants pour la publication de livres électroniques libres.
Nous vous souhaitons une très bonne lecture et remercions vivement les auteurs de cette édition, ainsi que les fidèles réviseurs et ceux et celles qui ont contribué à la mise en ligne de RESSI. Nous vous encourageons à nous soumettre des propositions d’article à tout moment, et à contribuer à faire connaître RESSI à toute personne intéressée.
Le Comité de rédaction
- Vous devez vous connecter pour poster des commentaires
Le Montreux Jazz digital project
Ressi — 20 décembre 2017
Alain Dufaux, Directeur des opérations et du développement, Centre Metamedia, EPFL
Thierry Amsallem Président de la Fondation Claude Nobs
Le Montreux Jazz Digital Project
La sauvegarde des archives audiovisuelles du Montreux Jazz Festival, un patrimoine pour l’innovation et la recherche
Introduction
Ella Fitzgerald, Nina Simone, B.B. King, Miles Davis, James Brown, Marvin Gaye, Joe Cocker ou encore Gary Moore, Phil Collins, David Bowie et Prince, tous ont joué au Montreux Jazz Festival, chaleureusement accueillis par son créateur Claude Nobs, un montreusien visionnaire, passionné de musique et de technologie. Enregistrés dès les débuts en 1967, en audio et vidéo et toujours avec les technologies de pointe du monde broadcast, les artistes de passage au festival ont participé à la création de l’une des plus importantes collections de musique du 20e siècle, inscrite en 2013 au registre de la « Mémoire du Monde » de l’UNESCO.
“It’s the most important testimonial to the history of music, covering jazz, blues and rock” déclare le producteur Quincy Jones en 2009 depuis son studio de New-York, lors de la présentation du projet de numérisation des 14'000 bandes concernées. 5’000 heures de concerts « live » du Montreux Jazz Festival vont être numérisées, préservées pour les générations futures, et appelées à devenir une matière première idéale pour le développement de la recherche dans les domaines de l’acoustique, du traitement audio/vidéo, de la musicologie, des neurosciences, de l’interaction media-utilisateurs, mais touchant également au domaine de la sociologie et plus largement aux humanités digitales.
Le Montreux Jazz Festival
Le Montreux Jazz Festival débute en 1967 à Montreux, lorsque l’office du tourisme donne mission à Claude Nobs de réfléchir à l’organisation d’un événement dont l’objectif est de développer la renommée de la ville dans le monde entier. Proche des milieux broadcast présents à Montreux chaque année à l’occasion du Symposium TV, Claude Nobs décide de créer un festival de jazz, et d’en enregistrer les concerts en audio mais aussi en vidéo, ce qui est très rare à l’époque. La vision consiste à diffuser ces enregistrements sur les canaux de télévision et de radio, mais aussi sur support disque. Le succès sera retentissant. Montreux devient rapidement connu dans le monde entier pour son festival.
Claude Nobs, cuisinier de formation, possède l’art de recevoir les artistes comme des amis, les invitant à passer quelques jours dans son chalet de Caux pour apprécier le décor, les montagnes et la vue reposante sur la Riviera. Dans une ambiance chaleureuse et souvent festive, les musiciens se rencontrent et se retrouvent en vacances, il n’est pas rare de voir les jam sessions s’improviser dans le jardin, il arrive même aux musiciens d’oublier l’heure du concert à Montreux ! Claude et son festival deviennent ainsi un passage obligé, très apprécié et réputé dans le monde de la musique.
Le festival sera régulièrement ponctué d’évènements marquants, qui contribueront à en augmenter la notoriété. En particulier, un concert improvisé du pianiste Les McCann et du saxophoniste Eddie Harris donne lieu en 1969 à un 33 tours « Live at Montreux », qui restera numéro 1 dans les clubs de jazz durant plusieurs mois aux Etats-Unis. Par ailleurs, lors du concert de Frank Zappa organisé par Claude Nobs en décembre 1971, le Casino est détruit par le feu suite à l’envoi d’une fusée qui enflamme le plafond de bambou. Les membres du groupe Deep Purple sont présents dans la salle et écrivent pour Claude leur titre phare « Smoke On The Water », qui devient ensuite un succès mondial.
Aujourd’hui, la diffusion des concerts « Live at Montreux » sur les plateformes de streaming a atteint le demi milliard de vues ou d’écoutes.
Les archives audiovisuelles du festival
La collection des enregistrements se présente sous plusieurs formes:
- Une archive video
- Une archive audio, incluant des multipistes
Formats de bandes Vidéo |
Période |
|
De |
A |
|
Philips VCR |
1973 |
1977 |
2-inch |
1968 |
1980 |
1-inch |
1970 |
1988 |
U-matic |
1971 |
1990 |
Betacam SP |
1983 |
1992 |
D-2 |
1991 |
1996 |
1-inch HD |
1991 |
1993 |
Betacam Digital |
1993 |
2002 |
D-5 |
2001 |
2002 |
HDCAM |
1997 |
2016 |
XDCAM |
2009 |
2012 |
Broadcast files |
2013 |
2017 |
Formats de bandes Audio |
Période |
|
De |
A |
|
1/4-inch (stereo) |
1967 |
1980 |
2-inch multi-tracks |
1973 |
1990 |
U-matic audio (stereo) |
1979 |
1988 |
DAT (stereo) |
1987 |
1996 |
1-inch (multi-tracks) |
1987 |
1987 |
1/2-inch (multi-tracks) |
1989 |
2000 |
Multi-track Sessions |
2001 |
2017 |
- Numérisation : les tâches de lecture de bandes et de conversion des signaux analogiques en signaux numériques sont confiées à des tiers, spécialistes possédant les compétences et les équipements nécessaires à l’obtention du résultat le plus fidèle possible pour une grande variété de types de supports et dans un laps de temps raisonnable. Sony Dax puis Vectracom et les Studios D.E.S. à Paris sont mandatés dans ce but, alors que le Centre Metamedia prendra exceptionnellement en charge le traitement des bandes HDCAM, et des disques optiques XDCAM.
- Gestion de l’archivage: Le Centre Metamedia est responsable de la gestion générale du projet, ainsi que des tâches opérationnelles liées au suivi de la numérisation et à l’archivage : inventaires, contrôle de qualité, indexation des contenus, stockage des fichiers, création d’une base de données réunissant les métadonnées, modélisation des droits de diffusion, gestion du parc IT, développement d’outils pour le transfert des fichiers médias et leur mise à disposition pour les laboratoires et partenaires, ingestion des médias associés aux nouvelles éditions du festival, design et développement de plateformes pour la navigation dans les archives, numérisation d’un important fonds photo, recueil et enregistrement de témoignages et compilation d’anecdotes récoltées auprès de personnalités proches du festival, communication et documentation de l’intégralité du projet.
- Définition et suivi des projets de recherche et d’innovation associés à l’archive : Le Centre Metamedia propose, spécifie, et assure le suivi et la mise en valeur des travaux de recherche effectués dans les laboratoires. Plus de 50 chercheurs et ingénieurs sont impliqués à fin 2017 dans une quinzaine de laboratoires ou start-up partenaires, dont l’EPFL+ECAL Lab qui lancera la série de « Montreux Jazz Heritage Lab », plateformes immersives pour la découverte des archives à l’EPFL, et prochainement à l’extérieur en mode nomade.
- Format numérique de référence, non-compressé: Codec v210, 4:2:2, 10bits, conteneurs AVI (+WAV pour pistes audio), audio non-compressé à 96khz/24bits, ou en natif si support numérique.
- Format Broadcast: Codec IMX50, 4:2:2, 10bits, conteneur MXF OP-1a, audio non-compressé, 48khz/24bits
- Format numérique de référence, non-compressé: Codec v210, 4:2:2, 10bits, conteneur MOV, audio non-compressé à 48khz/24bits
- Format Broadcast:
- Jusqu’en 2012 : Codec IMX50, 4:2:2, 10bits, conteneur MXF OP-1a, audio non-compressé, 48khz/24bits
- 2013-2014 : Codec DNxHD à 120 Mbits/s
- 2015-2017 : Codec AVC-Intra à 100 Mbits/s
- Audio Mono ou Stéréo: 96khz/24bits, conteneur BWF, ou en natif si support numérique.
- Audio Multipistes: session Pro-Tools, 96khz/24bits, conteneurs BWF ou en natif si support numérique.
Le festival est enregistré en audio dès la première année, alors que les premiers enregistrements vidéo datent de l’année suivante (1968). L’archive audio, dont certains éléments sont en format mono tout au début, se distingue par une qualité sonore bien supérieure à celle que permettent les pistes son des supports vidéo. En 1973, les supports multipistes font leur apparition à Montreux, permettant de stocker 16 instruments en parallèle. Plus tard, ce nombre s’élèvera à 24, 32, 48, puis 96, il est aujourd’hui infini sur fichier informatique.
Dès le milieu des années 70, le festival exploite le Mountain Studio du nouveau Casino de Montreux, qui appartient au groupe Queen. Le signal des micros de scène associés aux divers instruments est acheminé sur la console du studio, où son ingénieur du son, David Richards, réalise le mix des concerts en live! Il ajoute un style rock et pop au mix des concerts de jazz, ce qui créé un son particulier, le « Son de Montreux », caractéristique des enregistrements de l’archive. Dès 1993, le festival se tient dans le nouvel auditorium Stravinski, et des camions de production (dont le fameux « Voyageur ») prennent le relais du Mountain Studio. Les enregistrements de la collection ne sont donc pas captés en salle, et même si un son d’ambiance y est ajouté, les mix réalisés ne sont pas affectés par l’acoustique et les réglages effectués pour la salle.
La Télévision Suisse Romande (TSR) se charge de la production dès les débuts du festival, et stocke les enregistrements dans ses studios de Genève (pour la vidéo) ou à Lausanne (pour l’audio). Les équipements et supports d’enregistrement évolueront avec les technologies des différentes époques. Claude Nobs organise souvent des acquisitions parallèles dans le but d’évaluer et promouvoir de nouvelles technologies naissantes. Ce sera le cas en 1991 notamment avec un prototype de vidéo Haute Définition (HD Vidéo) venu du Japon, en 1994 avec la diffusion d’extraits musicaux sur le premier site web du festival, ou encore en 2002, avec un tout premier format de disques durs (Mackie) pour l’audio multipistes. Dans de tels cas, les formats anciens sont encore utilisés durant plusieurs années par sécurité, la présence parallèle de formats standard définition (SD) et haute définition (HD) est observée par exemple tout au long des années 90.
Au final, une grande partie des concerts de l’archive vidéo sont disponibles sur deux, voir trois formats parallèles, ce qui amène le nombre d’heures d’enregistrements à 11'000, soit plus du double du nombre d’heures de concerts (5000 heures de concerts). Le nombre d’heures d’enregistrements audio, lui, atteint plus de 6000 heures, formats stéréo et multipistes confondus. Il n’est ainsi pas rare de trouver une dizaine de bandes pour un unique concert d’une heure et demie, avec une bande 2" vidéo (concert incomplet), deux bandes 1" vidéo (couvrant la totalité du concert mais avec interruption en milieu de concert), trois parties sur format U-matic vidéo, deux sur format ¼ " audio, et deux bandes ½ " multipistes. Parfois, une copie des supports master a été réalisée une vingtaine d’années après le concert, ce qui ajoute des éléments non-originaux à la collection, mais dont la qualité est aujourd’hui supérieure à celle des bandes d’origine.
Jusqu’à aujourd’hui, ce sont 18 types de formats de bandes différents qui ont été utilisés pour l’enregistrement des concerts, tout au long des 50 ans du festival. Les signaux enregistrés sont analogiques durant une grande partie de cette période, puis deviennent progressivement numériques avec l’apparition des formats U-matic audio pour le son (en 1980 déjà), et Digital D-2 pour la vidéo (dès 1991). En 2017, pour la première fois, l’enregistrement vidéo ne se fait plus sur bande, mais dans un format de fichier numérique broadcast. L’utilisation des différents formats se distribue de la manière suivante au cours des années:
En 1988, Claude Nobs constate la disparition de quelques enregistrements d’origine, dont les bandes ont été réutilisées à d’autres fins par la Télévision suisse romande (pour qui les moyens financiers font défaut à l’époque). Il décide de racheter ces bandes et construit à côté de son chalet un local dédié aux archives, dont les propriétés atmosphériques garantiront l’excellente tenue des bandes durant les 30 ans qui suivent.
En 2013, suite au décès de Claude Nobs, son partenaire Thierry Amsallem crée la Fondation Claude Nobs. D’intérêt public, l’objectif de la fondation est d’assurer la sauvegarde de la collection, et de la mettre à disposition du plus grand nombre dans un but d’éducation et de recherche, ceci dans le respect des droits d’auteur. Parallèlement, c’est avec le support de musiciens tels que Herbie Hancock et Quincy Jones, ainsi que de personnalités américaines proches du jazz, qu’il inscrit la collection au registre de la Mémoire du Monde de l’UNESCO.
Le Montreux Jazz Digital Project
En 2007, Patrick Aebischer, président de l’EPFL, rencontre Claude Nobs et Thierry Amsallem à l’occasion d’une visite au chalet « Le Picotin » à Caux. La discussion met en évidence l’absence de copie de la collection, dont certaines bandes prennent de l’âge (40 ans). Patrick Aebischer perçoit l’intérêt que représente une telle collection pour le développement de projets de recherche et d’innovation à la croisée des domaines technologiques et culturels, notamment sur le plan musical et de l’audiovisuel. A l’aube du développement des humanités digitales, les deux visionnaires imaginent un projet dont les objectifs viseraient à numériser ce patrimoine unique et à en assurer la sauvegarde à long terme, tout en l’enrichissant grâce aux compétences des chercheurs de l’école, pour qui cette base de données du monde réel représente une valeur inestimable en termes de motivation et valorisation de leurs travaux. Dans la mesure où les droits d’auteur le permettent, un espace dédié aux archives est également prévu sur le site de l’EPFL, pour y montrer la collection numérisée ainsi que le résultat des projets d’innovation associés.
Le concept du Montreux Jazz Digital Project est né, il nécessite ensuite quelques années de maturation afin d’en trouver les bonnes formules opérationnelles et le mode de financement. Après deux tentatives impliquant un laboratoire de recherche puis un partenariat avec une start-up, c’est finalement la création en 2010, d’un centre de compétences interdisciplinaires, le Centre Metamedia, qui permet de lancer les opérations de manière conséquente et pérenne, ceci en relation avec le support de la manufacture horlogère Audemars-Piguet, principal sponsor. Par la suite, plusieurs autres partenaires soutiendront également le projet, à l’image de la Fondation Ernst Göhner, La Loterie Romande, Logitech, les entreprises Amplidata et HGST, ainsi que de nombreux donateurs privés tels que Thierry Lombard.
Le Montreux Jazz Digital Project s’établit comme partenariat entre l’EPFL et l’entreprise Montreux Sounds SA, lancée en 1973 en marge du festival pour en assurer le traitement des archives et la production de disques. A l’EPFL, le Centre Metamedia est rattaché à la Vice-Présidence pour l’Innovation et la Valorisation. Il se construit petit à petit en 2011, constitué d’un directeur opérationnel, d’un project manager, d’un développeur pour la création d’une base de données (métadonnées), et d’une spécialiste audio/vidéo en charge du contrôle de qualité des fichiers numérisés. Du côté de Montreux Sounds un ingénieur du son et un spécialiste IT / édition vidéo complètent l’équipe. Outre les aspects liés à l’inventaire des bandes, ils assurent le lien avec les entreprises externes qui effectuent les opérations de numérisation des bandes. Au fil des années l’équipe s’étoffera, d’abord en 2013/14 avec l’arrivée d’une spécialiste en documentation et d’un second développeur, puis en 2016 avec une archiviste spécialisée en audiovisuel, une architecte EPFL pour la conception des plateformes de valorisation, ainsi qu’une musicologue. De nombreux étudiants seront impliqués également, pour des travaux de contrôle de qualité et d’indexation des contenus, ou alors pour des tâches opérationnelles liées soit à l’acquisition des bandes vidéo HDCAM, soit à la numérisation de l’important fonds photo appartenant à Georges Braunschweig. Pour ce dernier, deux étudiants en archivistique prendront en main la conception et l’exploitation d’un banc de numérisation photo, 60'000 négatifs noir/blanc ou diapositives y seront traités entre 2014 et 2017.
Les activités du projet s’organisent selon trois piliers :
Les sections suivantes décrivent ces différents axes de travail dans le détail.
Numérisation
La numérisation s’effectue en donnant la priorité aux formats les plus sensibles, soit les bandes 2", et U-matic pour la vidéo. Elle démarre un peu avant la création du Centre Metamedia, sous la direction de Montreux Sounds SA, qui en définit les conditions, et les critères de qualité. Il est décidé de numériser tous les contenus au format non-compressé dans le but de pouvoir en tout temps générer les futurs sous-formats à partir de la référence la plus fidèle. Un second format de qualité broadcast est également créé.
Vidéo Standard Définition, PAL 576i, 50fps, display ratio 4:3/16:9 letterbox ou anamorphic :
Vidéo Haute Définition, 1080i, 50/59.94 fps, display ratio 16:9
Audio :
Chaque format de bande fait l’objet d’une étude détaillée afin de déterminer quels sont les équipements et paramètres les plus adéquats pour la conversion analogique/numérique. La majorité des bandes seront lues sans problèmes, quelques supports seront rejetés, ils sont actuellement mis de côté pour un éventuel traitement ultérieur.
A noter qu’un banc complet pour l’acquisition des bandes HDCAM est mis en service à l’EPFL en 2015 grâce aux compétences des ingénieurs du Centre Metamedia. A la cadence de 8 bandes lues chaque jour sur deux chaînes de traitement parallèles, il permettra à l’équipe de faire l’expérience de la gestion complète d’une acquisition de données audiovisuelles (en l’occurrence de type HD vidéo au format non-compressé à 1.5 Gbit/s), incluant leur contrôle et ingestion dans l’archive avec écriture des supports numériques, import des métadonnées, indexation et transcodages. Plusieurs opérateurs seront formés dans ce but.
Gestion de l’archivage
Base de Données
Une base de données est conçue dans le but de rassembler et relier toutes les métadonnées liées à l’archive et à ses différentes composantes. Cette base relationnelle, utilisant MySQL, regroupe les principaux éléments d’information liés aux concerts, tels que date, nom du concert (sur le programme du festival), liste des morceaux, nom des musiciens et instruments associés, compositeurs, réalisateurs ou ingénieurs du son (parfois). Les informations liées aux supports d’enregistrements originaux et numérisés (référencées par code-barres dans les deux cas) sont inclues, de même que les données concernant la qualité des médias numérisés (niveaux, défauts éventuels, troncatures, etc.) ou les données saisies lors de travaux d’indexation ou de nettoyage des informations. Au total 128 tables réunissent plus d’un millier de champs d’information différents. Les champs renseignent sur la collection mais sont utiles également à l’exploitation de l’archive par l’équipe (localisation des bandes et dates d’entrées/sorties des locaux, statut du clean-up des données, banc de numérisation utilisé chez nos partenaires, opérateurs et dates de contrôle de qualité, etc.).
La base de données est mise en place dans un écosystème logiciel basé sur le langage Scala créé à l’EPFL. Cet écosystème englobe plusieurs modules développés in-house, en particulier des interfaces basées sur le web pour la navigation dans les métadonnées, un environnement optimisé pour le transfert de fichiers vers ou à partir du stockage des médias, des APIs destinées à la communication avec les plateformes de visualisation des archives, ou encore des outils d’export configurable de données (aux formats JSON ou XML). Une librairie logicielle de scripts pour le transcodage est également mise au point, de manière à générer les sous-formats nécessaires aux plateformes de valorisation diverses, incluant notamment l’incrustation automatisée de certaines métadonnées.
Indexation
En 2013, un grand projet d’indexation des concerts est mis en place, avec la participation de plus de 60 étudiants de l’EPFL. Ce projet consiste à segmenter les fichiers concerts en différents évènements : intro, song, applause, speech, comeback, instruments tuning, silence, credits, no signal, test pattern, to check, unrelated. Il permet également de signaler la présence de possibles coupures de morceau ou problèmes audio/vidéo, et un champ de commentaire libre est mis à la disposition des opérateurs pour renseigner la base de données à propos d’éventuelles particularités observées durant le concert. Une vérification des métadonnées associées aux titres des morceaux et à leurs réelles présences et positions dans le concert est effectuée à cette occasion, ce qui permet de réaliser un premier nettoyage des informations de la base de données (originalement fournies par le Montreux Jazz Festival). Les time-codes précis des débuts et fin de morceaux sont attribués selon un ensemble de règles auxquelles les étudiants sont astreints. Un groupe d’étudiants vérificateurs est impliqué dans une deuxième phase du travail, constitué de personnes expérimentées et travaillant de longue date sur l’indexation. En présence de plusieurs parties de concerts se recouvrant (enregistrement d’un concert sur plusieurs bandes), la démarche inclut la localisation précise du time-code de début de la seconde partie sur l’onde audio de la première, ce qui permettra plus tard de juxtaposer les deux parties.
Ce projet d’indexation s’est avéré conséquent et primordial, il représente les fondements de la mise à disposition de la collection sur les plateformes de valorisation. Il durera 3 ans dans sa première étape majeure, pour le traitement de la presque-totalité de l’archive vidéo (ou alors des enregistrements audio si la vidéo est inexistante). Il se poursuit encore aujourd’hui lors des nouvelles éditions du festival, ainsi que pour les cas difficiles qui devraient prochainement être confiés à des spécialistes.
Dans une nouvelle opération lancée en 2016, il est également affecté à chaque concert un genre musical ainsi que des sous-genres, selon une architecture soigneusement conçue. De plus, une modélisation des contrats liant les artistes et le festival est intégrée à la base de données, elle permet l’attribution automatique des droits de diffusion associés à chacun des 46’000 morceaux de la collection, en fonction des différents types de publics ou environnements dans lesquels ils sont diffusés, ceci en tenant compte des évolutions temporelles ou échéances des termes de contrats.
Stockage et Contrôle de Qualité
Chaque fichier obtenu après numérisation est sauvegardé sur deux jeux de bandes LTO (Linear Tape-Open). Le format est LTO4 en début de projet, puis devient LTO6 plus tard. Les deux jeux sont acheminés séparément sur deux sites de stockage, à Montreux et à l’EPFL. Une empreinte numérique de chaque fichier est extraite et stockée en base de données dans le but de pouvoir vérifier son évolution future et détecter d’éventuelles corruptions. Les fichiers au format broadcast sont traités de la même façon, c’est eux qui feront l’objet d’un contrôle de qualité, au cours duquel chaque fichier est examiné durant 15 minutes par une personne formée spécialement (contrôle non complet, mais visant avant tout à détecter des erreurs de numérisation systématiques). Les éventuels problèmes sont répertoriés dans la base de données, une numérisation est à refaire si les spécifications ne sont pas satisfaites. Les éventuels défauts présents sur l’enregistrement d’origine sont signalés s’ils sont détectés au cours de cette opération.
Dès 2012, le format broadcast est inscrit sur un système de stockage supplémentaire à base de disques durs. La rencontre avec la jeune start-up belge Amplidata débouche sur un partenariat, qui permet l’installation à l’EPFL d’un nouveau type de stockage redondant et sécurisé, AmpliStor, de type object-storage. La taille de ce système est de 1 PB (petabyte), il sera complété en 2013 d’un second système de même taille, puis d’un troisième en 2014 amenant la taille totale à 2.5 PB. Ce système permettra l’accès immédiat à tous les médias de l’archive numérisée et facilitera beaucoup le travail de l’équipe du Centre Metamedia, en particulier pour les travaux d’indexation.
Live Archiving et Première Plateforme de Valorisation sur iPad
En 2013 et 2014, l’acquisition live de la réalisation HD produite par la télévision est effectuée pour les trois salles du festival par l’équipe du Centre Metamedia. Une fibre optique à haut débit (10 Gbit/s) est installée entre le Centre des Congrès de Montreux (2M2C) et l’AmpliStor à l’EPFL, et les fichiers non-compressés y sont transférés et archivés immédiatement après le concert. L’expérience permet de générer immédiatement les sous-formats de fichiers nécessaires aux plateformes de valorisation, qui peuvent ainsi présenter les concerts au public du festival le soir suivant le concert (après indexation et validation des droits de diffusion). Cette expérience rencontre un grand succès auprès du public du festival, qui découvre pour la première fois l’archive au « Chalet d’en-bas », un espace consacré à Claude Nobs, son archive et ses collections.
En 2015, Amplidata est rachetée par HGST, une sous-compagnie du géant du disque dur Western Digital. Très intéressée par le concept de Live Archiving, cette entreprise décide de poursuivre le sponsoring, en remplaçant les AmpliStor par un système Active Archive de dernier cri, constitué de trois unités distribuées, d’une capacité de 4.7 PB chacune. L’une des unités est placée dans le data center du 2M2C à Montreux, alors que les deux autres sont installées dans deux data centers de l’EPFL séparés de plusieurs centaines de mètres. Les trois unités, dénommées Ella, Marvin, et Prince, sont réunies par fibre optique, et permettent de stocker jusqu’à 6.8 PB de données. Elles permettent aujourd’hui de stocker l’intégralité de la collection numérisée, et constituent une troisième copie complète de l’archive. Depuis 2016, les fichiers médias de type broadcast peuvent y être archivés le soir même des concerts, et une interface d’accès optimisée a été développée pour l’accès rapide aux fichiers.
Numérisation de photos
En 2013, un important fonds de photos est mis à la disposition du Montreux Jazz Digital Project par le photographe Georges Braunschweig, dont les prises de vue au festival couvrent presque la totalité des 50 éditions. Deux étudiants en information documentaire de la Haute Ecole de Gestion de Genève (HEG) sont engagés pour mettre en place un banc de numérisation organisé autour d’un appareil de type Reflex numérique, procéder à l’identification des contenus avec le photographe, puis à la capture de chacun des 60'000 négatifs et/ou dias. Cette tâche durera 3 ans, et verra également naître une collaboration avec le laboratoire d’humanités digitales de l’université de Bâle pour la création du banc et plus tard le traitement d’un lot de négatifs couleur.
Issues de la collection de Georges Braunschweig ou provenant du Montreux Jazz Festival, plusieurs dizaines de milliers d’images d’origine numérique seront jointes à cette opération, toutes les images étant importées dans la base de données, et associées aux concerts qu’elles illustrent en vue de leur intégration aux plateformes de valorisation de l’archive audiovisuelle. Un projet en collaboration avec l’entreprise bernoise Specialisterne, sera lancé à titre expérimental en 2016 pour l’identification du contenu détaillé de chaque photo. Ce projet sera réalisé par des personnes autistes, dont les propriétés de concentration sont étonnantes et particulièrement adaptées à ce type de travaux. Seule une partie de la collection a pu être traitée jusqu’à aujourd’hui.
Anecdotes et Témoignages
En marge des projets technologiques liés aux enregistrements, deux premières actions visant à ajouter une touche à caractère historique et sociologique à ce projet ont été lancées au Centre Metamedia. Ainsi, près de 800 anecdotes tirées de la presse ont été rassemblées et importées dans la base de données pour utilisation future, certaines d’entre elles apparaissent actuellement sur la plateforme de valorisation Montreux Jazz Heritage Lab II.
Dans un second volet, et en collaboration avec l’équipe du Prof. François Vallotton, spécialiste en histoire de l’audiovisuel à l’Université de Lausanne (UNIL), la récolte de témoignages est organisée auprès de personnalités ayant touché de près ou de loin au Montreux Jazz festival, à sa création, à ses débuts, à ses aspects techniques, etc. Un grand projet est en préparation pour le futur, dans le but d’étudier l’impact social qu’a eu, et que produit toujours le festival sur la population de la région, de la Suisse, et du monde de la musique.
Valorisation et mise à disposition publique
Si les laboratoires de l’EPFL ont un certain droit à utiliser l’archive en raison de l’exception aux droits d’auteur pour l’éducation et la recherche, il n’en va pas de même pour le grand public. Les enregistrements peuvent être montrés toutefois dans certaines situations particulières, lorsque les contrats le permettent au titre de promotion du festival. C’est le cas sur le site du festival durant l’événement, ou alors dans les Montreux Jazz Café, pour certaines sélections. C’est dans ce but que le Centre Metamedia a créé une application iPad inaugurée en 2013 au sein du festival, puis améliorée et étoffée chaque année. Son implémentation et sa couche graphique ont été réalisées par l’entreprise Brozermo. Les médias y sont rendus accessibles via streaming à partir des serveurs de l’EPFL, l’interface est sécurisée. Le public peut y consulter une partie des enregistrements en navigant dans les différentes années du festival, ou en effectuant des recherches par artiste, titre, ou genre musical.
A fin 2016, le Montreux Jazz Café at EPFL a été inauguré sur le campus de l’école. Intégré au nouveau bâtiment Artlab consacré aux humanités digitales, il permet d’y accueillir le public pour plusieurs types d’expériences de découverte des archives. La collection y est mise en valeur par les technologies que les chercheurs de l’école ont développées dans ce but. A côté des postes iPad équipés de projecteurs sonores, deux cabines proposent une navigation individuelle (ou à deux) sur une interface Web sécurisée, permettant d’approfondir la recherche dans les métadonnées via un moteur de recherche basé sur Elasticsearch. Ces cabines sont destinées à intégrer de plus en plus de fonctionnalités, et une interface participative permettant de commenter les contenus et expériences est actuellement en préparation. En 2018, un tel poste sera mis à la disposition des étudiants des écoles de jazz (EJMA) et de musique (HEMU) de Lausanne, un autre pourrait être installé au Musée National Suisse dans le cadre d’une exposition consacrée au Montreux Jazz Festival et à Claude Nobs début 2018.
Projets d’Innovation
Montreux Jazz Heritage Lab
L’un des projets phares, organisé sous la forme d’une collaboration entre plusieurs laboratoires de l’EPFL, vise à proposer au public une expérience inédite pour la découverte des concerts du festival, ceci à la fois en terme de design, d’interaction avec les médias, et d’immersion dans l’ambiance du concert. Dans le cadre de l’EPFL+ECAL Lab, laboratoire au carrefour entre design et technologie, plusieurs équipes se lancent dans le design puis la construction de trois générations de Montreux Jazz Heritage Lab.
La première version, Le Cocon, est imaginé en 2011 en collaboration avec le laboratoire d’architecture Atelier de La Conception de L’espace (ALICE), qui propose un environnement boisé dans lequel 2-4 personnes peuvent prendre place confortablement pour visualiser les concerts (des années 2009 et 2010 uniquement) sur un grand écran incurvé et rapproché. Le design sonore, spatialisé, est confié au groupe Acoustique de l’EPFL, à la startup Illusonic issue du Laboratoire de Communications Audiovisuelles, et à l’entreprise yverdonoise Relec qui fournira des haut-parleurs PSI-Audio de haute qualité. La participation du Laboratoire de Traitement de Signal (LTS2), qui développe une mesure de similarités entre morceaux basée sur le signal audio, permet de proposer une interface tactile de navigation par genre et artistes proches. En 2012, Claude Nobs découvre le Cocon lors de son inauguration dans les locaux de l’EPFL+ECAL Lab et déclare « Je n’ai jamais vu mes concerts comme ça ».
Le Montreux Jazz Heritage Lab II est développé en 2015 et 2016 pour le Montreux Jazz Café de l’EPFL, dans le but de pouvoir y accueillir une vingtaine de personnes dans un espace de 7m x 7m. Le concept prévoit un grand écran incurvé ainsi que des miroirs latéraux qui répliquent l’image vidéo à plusieurs reprises sur les côtés de la salle, agrandissant ainsi l’espace visuellement. Des LEDs diffusent les métadonnées depuis l’arrière des miroirs (sans tain), et reproduisent les couleurs présentes sur l’écran, ajoutant ainsi au sentiment d’immersion. Plusieurs domaines de compétences sont nécessaires dans la réalisation de ce projet; parmi les multiples partenaires impliqués, signalons la présence d’acousticiens en 3D audio pour le développement d’un système Ambisonics d’ordre 3, qui permet de reproduire l’acoustique des salles du festival et augmenter ainsi le sentiment de largeur sonore (parfois à l’aide de remix 3D faisant intervenir l’archive multipiste). Une nouvelle interface tactile dont le design est basé sur l’axe temporel des 50 ans du festival propose une sélection par année, soirée, artiste, puis titre du morceau. La recherche par concert et genre est possible également. Le fonctionnement est celui d’un jukebox, dont les morceaux choisis sont diffusés sur les écrans du Montreux Jazz Café. Le Centre Metamedia exporte les métadonnées, assigne les droits de diffusion de chaque morceau, et fournit les fichiers média associés après transcodage dans un sous-format prévu pour la qualité grand écran (codec H264 à débit variable, 4:2:0, 8bits).
Le Montreux Jazz Heritage Lab Nomad est actuellement en construction à l’EPFL+ECAL Lab, il sera démontable et déplaçable facilement dans le but de le présenter lors d’évènements. Un prototype en a été montré en été 2017 au chalet Le Picotin, la version finale devrait être présentée au public du Montreux Jazz Festival durant l’édition 2018.
Sound Dots
Développés en 2012 pour le premier prototype, puis évoluant vers deux générations ultérieures plus performantes, les « SounD Dots » sont des diffuseurs sonores directionnels imaginés par deux post-doctorants du laboratoire d’acoustique de l’EPFL, puis plus tard produits et commercialisés par la start-up Hidacs qu’ils créeront. Conçu pour la diffusion de musique, accrochés au plafond et dominant une table basse où est présentée l’application iPad de navigation dans l’archive, ils sont présentés à Montreux durant plusieurs éditions du festival, puis intégrés au Montreux Jazz Café at EPFL en 2016. Dans une atmosphère telle que celle d’un café, ils permettent de proposer plusieurs spots adjacents pour la découverte de contenus audiovisuels, dont les composantes sonores ne se mélangent pas et ne dérangent donc pas les autres groupes. Le concept permet de préserver les relations sociales au sein des groupes d’utilisateurs, puisqu’aucun casque d’écoute n’est nécessaire. Ce projet financé par le Centre Metamedia en 2012 est un bon exemple de transfert technologique résultant des interactions avec les archives du Montreux Jazz Festival.
Reconstruction du Casino Kursaal
En 2014, le Centre Metamedia est présent au Montreux Jazz Festival pour y présenter les archives au public du Chalet-d’en-bas. Il y propose une expérience permettant de revivre un concert dans l’ambiance du Casino Kursaal de Montreux, détruit en 1971 par le feu. Développé dans le cadre d’un projet avec le Laboratoire de Communications Audiovisuelles (LCAV), ce travail consiste à modéliser précisément l’acoustique de la salle de concert, afin d’en connaître la réponse en chaque point. Le modèle est basé sur une estimation des paramètres géométriques et acoustiques de la salle (absorption des sols et parois notamment), qui sont en partie déduits des photos et vidéos de l’archive. Un rendu visuel de la salle de concert (et de son fameux sablier!) est créé par l’Atelier Feuerroth en Allemagne. Au Chalet-d’en-bas, l’expérience présente une vidéo aux visiteurs bien installés dans des fauteuils. La caméra avance depuis le fond de la salle de concert jusque sur la scène, où elle passe à quelques centimètres du batteur. Durant ce déplacement, l’acoustique perçue par les visiteurs évolue parallèlement et rend compte des déplacements de la caméra. Lorsque celle-ci passe près du batteur, les technologies 3D audio assistées des multipistes de l’archive permettent de restituer le son de la batterie à quelques centimètres des oreilles des visiteurs. L’expérience, quelque peu émotionnelle, rencontre un énorme succès. Suite à ce projet, une modélisation des salles actuelles du festival sera imaginée pour le Montreux Jazz Heritage Lab II.
Remix the Archive
Une mise en valeur des archives multipistes est tentée dès 2015 dans le cadre d’un partenariat avec l’entreprise Future Instruments présente sur le parc de l’innovation de l’EPFL. L’idée consiste à développer une interface tactile pour le mixage des différents instruments d’un concert. Chaque instrument (ou groupe d’instruments) est représenté par une bulle, dont le déplacement sur un écran en modifie le volume. Dans une seconde version, le système est associé à une infrastructure sonore de type 3D audio / Ambisonics, et les instruments peuvent être déplacés et mixés dans l’espace de la salle. Destiné avant tout à l’éducation d’un public amateur de musique, le système a également été présenté à des DJs, équipé d’une fonctionnalité de synchronisation permettant de mixer des boucles audio issues de librairies tierces.
Enregistrement des Concerts en Réalité Virtuelle
En 2016, un partenariat avec l’entreprise PRG en Allemagne permet d’enregistrer une vingtaine de concerts du Montreux Jazz Festival en réalité virtuelle. Une récente caméra OZO de Nokia est placée au centre de la scène et capture les images 360 degrés. Parallèlement, un microphone placé au niveau de la caméra, et dont les signaux binauraux seront mélangés aux multipistes du concert lors du post-traitement, permet d’associer le rendu audio 3D à la visualisation spatiale, ce qui est significatif pour la véracité de l’immersion. Lors de la découverte du concert à l’aide de lunettes de réalité virtuelle, un mouvement de la tête provoque ainsi la redistribution des composantes audio dans le casque d’écoute, et l’acoustique perçue suit ainsi le mouvement. L’expérience sera très prochainement proposée aux visiteurs du Montreux Jazz Café at EPFL.
Analyse et Visualisation des données de concerts
Le Laboratoire de Traitement de Signal (LTS2) de l’EPFL travaille en étroite collaboration avec le Centre Metamedia depuis les débuts du Montreux Jazz Digital Project. En 2012 par exemple, le développement du projet Genezik permet la création de « balades musicales », playlists dont les morceaux se succèdent de manière cohérente, dans un style proche et avec des transitions douces. C’est l’analyse et l’extraction de paramètres caractéristiques à partir du signal audio qui permet d’établir les similarités entre les morceaux d’une collection musicale. L’application Genezik sera proposée sur iPhone et MAC en 2014, l’outil intégrera également les fonctionnalités de recommandation. A noter qu’un détecteur d’applaudissement sera développé à cette occasion, les applaudissements des enregistrements live devant être éliminés avant analyse pour éviter les confusions.
En 2016 et 2017, Kirell Benzi, post-doctorant du laboratoire, étudie la problématique de la visualisation de données Big Data, et y ajoute une touche esthétique. Plusieurs visualisations sont développées à partir des métadonnées de l’archive du festival, permettant en particulier de représenter les liens entre artistes (carte des artistes ayant joué ensemble), l’évolution des genres à travers les années, la distribution géographique des artistes sur la planète, etc. Ces visualisations sont à l’étude actuellement, plusieurs projets d’étudiants vont être lancés prochainement et une collaboration avec la nouvelle start-up Kirelion est envisagée. Le développement de versions animées des visualisations pourrait représenter dans le futur un nouveau moyen pour le public d’entrer dans l’archive et d’y naviguer, par exemple en débutant par un instrument particulier, ou alors par un artiste, parcourant ensuite les concerts d’autres artistes avec qui il était en relation à Montreux.
Futurs projets
La liste de projets d’innovation et recherche est encore longue, en particulier si nous évoquons les perspectives futures. Citons par exemple le projet de détection et correction de défauts sur les vidéos SD de la collection (en particulier lignes et « dropouts ») lancé en 2012 dans le MultiMedia Signal Processing Group (MMSPG). Ce projet pourrait être développé plus avant dans le futur, peut-être en collaboration avec un projet d’augmentation de la qualité des anciennes vidéo vers les nouveaux formats (HD, 4K, HDR), projet actuellement en démarrage au laboratoire Image And Visual Representation Lab (IVRL).
A noter également les projets de type « machine learning », qui vont participer notamment à un enrichissement important de la base de données des métadonnées de l’archive. En audio un premier projet avait été lancé en 2013 dans un second Laboratoire de Traitement de Signal (LTS5) de l’EPFL pour tenter de modéliser certains instruments (en exploitant notamment la référence que représentent les multipistes!). Ce projet avait abouti à un démonstrateur permettant d’isoler ou supprimer un instrument présent sur un enregistrement stéréo. La méthode donnait des résultats encourageants pour traiter les instruments à vent, dont la structure harmonique et les propriétés statistiques restent simples (peu de flancs d’attaques).
Un autre sujet intéressant en lien avec ce projet de modélisation des instruments consiste à tenter de détecter les solos présents dans les archives, pour la basse, la batterie, la guitare, le saxophone et bien d’autres instruments. Un premier essai a été réalisé en 2015 par un étudiant de l’Idiap Research Institute à Martigny. Une indexation par time-code des différents solos serait souhaitable pour la recherche dans la base de données, en particulier pour les besoins des musicologues.
Dans le même sens, mentionnons le projet « Google du Montreux Jazz » lancé en 2016, qui vise à identifier et localiser les objets clés dans la vidéo des concerts, instruments bien sûr, mais aussi visages des musiciens, spots, ou logos. Cette collaboration avec le Laboratoire IVRL a pour but d’extraire de belles images, pour en créer des vignettes à caractère esthétique pouvant être associées à chaque morceau de l’archive. Une interface a été développée pour permettre la création semi-automatique de mosaïques d’images représentatives des différents morceaux.
Perspectives et Conclusions
De beaux projets sont en construction pour le futur, notamment en collaboration avec le nouveau professeur en musicologie digitale et cognitive, qui est entré en fonction tout récemment à l’EPFL, et dont les analyses à caractère musicologique de l’archive du festival vont débuter. Du côté éducatif, un cours MOOC (Massive Open Online Course) est en préparation au Centre Metamedia, en collaboration étroite avec le Montreux Jazz Festival et la MOOC Factory de l’EPFL, et d’autres liens apparaissent avec des professeurs issus des écoles de musique de la région (HEM-GE, UNIL, HEMU, EJMA, UNIGE). Des collaborations académiques sont également en discussion avec le Berklee College of Music à Boston (pour la remasterisation des archives), ou avec l’IRCAM et l’INRIA en France, des institutions qui travaillent déjà sur certains projets faisant intervenir des extraits d’archives.
Du côté de l’innovation à long-terme dans le domaine archivistique, un récent partenariat avec l’entreprise Twist Bioscience ouvre des perspectives prometteuses en vue du stockage de données sur ADN. Deux morceaux emblématiques de l’archive de Montreux viennent d’être encodés, stockés, puis extraits et décodés sans erreur à partir de l’ADN, pour être joués en public lors du forum tenu à l’EPFL le 29 septembre 2017, organisé par la Fondation ArtTech. C’est « Smoke On The Water » du groupe de rock Deep Purple, ainsi que « Tutu » du trompettiste de jazz Miles Davis qui ont été traités avec succès, une compilation des meilleurs concerts du festival pourrait être considérée dans le futur, à l’occasion d’une action plus importante. Le stockage sur ADN est perçu comme une solution robuste et fiable à très long terme, à envisager de manière parallèle aux technologies en cours actuellement.
L’enveloppe globale du Montreux Jazz Digital Project s’élève jusqu’à aujourd’hui à 15 millions de francs suisses, y compris les donations sous formes matérielles. Le défi à relever réside maintenant dans la préservation à long terme du travail réalisé jusqu’à aujourd’hui, au niveau technique bien sûr (la documentation et la mise en conformité vis-à-vis des normes OAIS sont en cours), mais plus particulièrement au niveau de son financement.
Le Montreux Jazz Digital Project est un grand succès à la fois pour l’EPFL et la Fondation Claude Nobs qui a repris en 2016 la suite du partenariat établi initialement avec Montreux Sounds SA. Le projet est également précieux pour le grand public et la société, il participe aussi à la notoriété du Montreux Jazz Festival et renforce son image de pionnier dans l’avance technologique. Des perspectives magnifiques s’ouvrent autour de cette collection numérisée, à la fois dans l’innovation, mais également dans l’éducation et la recherche, autour de thématiques technologiques, musicologiques, sociologiques ou historiques.
Espace de découverte des archives et des projets d’innovation associés, dans l’enceinte du Montreux Jazz Festival durant son édition 2014
Crédit: Alain Herzog, EPFL, 2014
- Vous devez vous connecter pour poster des commentaires
Les grandes bibliothèques à quatre voix
Ressi — 31 décembre 2016
Jonas Beausire, Haute Ecole de Gestion, Genève
Les grandes bibliothèques à quatre voix
Ce recueil, au titre programmatique, laisse distinguer quatre voix singulières et remarquables, celles d’anciens directeurs romands de grandes bibliothèques : Jacques Cordonier, Alain Jacquesson, Jean-Frédéric Jauslin et Hubert Villard[1]. Tous mandatés à la fin du 20e siècle, les quatre hommes ont accompagné leur établissement, qu’il soit cantonal, national et/ou universitaire, dans la transition numérique. Ils racontent, tout au long de ces entretiens[2], leurs années de formation, leur parcours, les innombrables défis et obstacles professionnels auxquels ils ont dû faire face, mais aussi leurs regrets. En apportant leur regard sur les grands enjeux et débats bibliothéconomiques, les quatre directeurs déploient plus largement une réflexion sur ceux de la société de l’information.
Omniprésence de l’informatique
Pédagogie, mathématiques, informatique, lettres et bibliothéconomie sont les disciplines qui ont formé les quatre intervenants. Cette pluralité disciplinaire trouve un dénominateur commun avec l’informatique et son rôle « […] révolutionnaire […] appliqué au traitement de la documentation. » (p. 29). En effet, les processus d’automatisation et d’informatisation sont au cœur d’une révolution documentaire dont témoignent les défis organisationnels de certains directeurs. Le passage d’un système informatique centralisé à la mise en place d’un réseau informatique[3], permettant d’accélérer les échanges et le partage des ressources, est l’occasion d’anecdotes qui renseignent sur une époque où les transferts de bandes magnétiques s’organisaient à coup de voyages en 2 CV et de relais nocturnes. Plus tard, ce seront les services de prêt et des acquisitions qui seront gérés informatiquement. Quel que soit le contexte spécifique de cet avènement de l’informatique documentaire, celle-ci mènera systématiquement vers un décloisonnement des connaissances et des services traditionnels de la bibliothèque et vers de nouvelles possibilités de collaboration entre les institutions.
Stratégies et politique
Ces années de direction sont également racontées au travers du prisme des grandes orientations stratégiques prises par les quatre directeurs. La collaboration internationale et les interdépendances avec les autorités de tutelle structurent les grandes décisions prises mais aussi les limites politiques auxquelles certains ont été confrontés. Ainsi, Jacques Cordonier rappelle comment il a souhaité positionner la Bibliothèque cantonale valaisanne « […] comme la tête d’un réseau fédérant l’ensemble des bibliothèques du Valais […] » (p. 14) ou J-F Jauslin de rappeler comment il a œuvré à placer la Bibliothèque nationale (BN) « […] au niveau international parmi les autres bibliothèques nationales […] » (p. 61). En invoquant le premier septennat de François Mitterrand et les grands travaux de son exceptionnelle politique culturelle[4], J-F Jauslin insiste sur la nécessité de faire dialoguer le monde de la culture avec celui de la politique afin de garantir soutiens, partenariats et financements des bibliothèques. Hubert Villard insiste quant à lui sur « le rôle citoyen prépondérant » (p. 102) des bibliothèques en évoquant la lutte contre l’illettrisme, par exemple.
Accessibilité et renouvellement des collections
L’informatisation, l’accélération des échanges, le développement de certaines technologies et les synergies politico-culturelles ont agi sur le développement des collections physiques et électroniques des différents établissements. Ces entretiens sont également l’occasion d’évoquer les enjeux liés aux nouvelles technologies et la façon dont elles ont permis de conceptualiser de nouveaux accès aux collections, à l’image du portail « Vallesiana »[5] qui fédère les ressources des fonds d’archives, de la médiathèque et des musées du Valais. Les portails e-rara.ch, e-codices.ch et e-periodica.ch[6] signalent la numérisation massive des contenus. Des technologies comme celle mise à disposition à la BN permettent même de « […] numériser un document et de l’imprimer en moins d’une heure à des coûts tout à fait performants. » (p. 72-73). L’association Memoriav[7] illustre également des préoccupations patrimoniales qui s’étendent jusqu’aux documents audiovisuels et leur difficile prise en charge. Certains auteurs rappellent que cette mise à disposition des ressources numérisées au plus grand nombre interroge aussi la capacité des institutions à préserver ces nouveaux contenus dont la durée de vie informatique ne dépasse pas cinq ans (Cordonier et al., p. 80). H. Villard, à la tête de la Bibliothèque cantonale et universitaire de Lausanne (BCU), relate comment son institution a contracté un partenariat avec Google afin de faire numériser ses ouvrages libres de droit. Les enjeux patrimoniaux et politiques que soulèvent ce genre de collaboration divisent les différents directeurs dont certains dénoncent le dévoiement des missions fondamentales des bibliothèques et de leur indépendance (p. 79).
Missions et défis de demain
Le spectre des GAFA[8] n’est de loin pas le seul enjeu de l’avenir des bibliothèques ; leur fréquentation et leur organisation interne sont au centre des réflexions des quatre directeurs. Parmi les différentes perspectives sur la façon d’engager une relation pérenne avec leurs publics, une approche centrée sur les besoins de l’utilisateur semble avoir guidé les initiatives de chacune des institutions, comme l’affirme A. Jacquesson : « […] il me semble toujours souhaitable de procéder à l’analyse des besoins des utilisateurs. » (p. 46). Ces attentes multiples convergent vers la finalité du métier de bibliothécaire : « […] satisfaire un besoin d’information du lecteur. » (p. 102). Ainsi, les espaces physiques de la bibliothèque sont tour à tout considérés comme ceux propices au travail, à la tranquillité, au refuge ou aux échanges et Jacques Cordonier de citer les propos rapportés d’un réfugié cubain en conclusion de son entretien : « Lorsque je suis arrivé à Sion, il y a deux endroits où j’ai pu aller librement, où l’on ne m’a pas demandé mes papiers et où l’on ne m’a pas fait payer : la cathédrale et la médiathèque. » (p. 28). Au-delà de ce souci commun des usagers, les quatre hommes expriment leur position quant à l’opportunité d’une loi fédérale spécifique aux bibliothèques, laissant entendre des voix circonspectes sur cet instrument, considéré au mieux comme un levier peu opportun, au pire comme un pari perdu d’avance. Ce sont davantage l’exploitation des big data et les humanités digitales qui constituent de nouveaux champs de recherche et des défis professionnels inhérents à notre société de l’information, comme le souligne A. Jacquesson : « […] de nouveaux professionnels nés avec le numérique vont être chargés de traquer l’information sur les réseaux ; ils auront la lourde tâche d’organiser les big data […] ». (p. 56). En rappelant les chiffres d’une étude qui souligne qu’Internet constitue le 80% des sources utilisées par les doctorants, J-F Jauslin insiste sur le rôle de guide privilégié que les bibliothécaires doivent plus que jamais endosser auprès des chercheurs, soumis à une masse informationnelle en perpétuel accroissement. Cette fonction prescriptrice et d’accompagnement est partagée notamment par H. Villard qui brosse le portrait du bibliothécaire académique « nouvelle mouture » en ces termes : « […] accompagnateur de la recherche, au plus près des chercheurs, professeurs et étudiants. Il leur apporte ses précieuses compétences en matière d’appui à la publication scientifique, de gestion des modalités d’open access, de sauvegarde des données primaires et secondaires de la recherche, de l’archivage à long terme, de l’emploi de métadonnées normalisées, d’analyse de grands ensembles de données, etc. » (p. 105). Le bibliothécaire de lecture publique, quant à lui, doit allier mise en valeur des collections, « compétences sociales » et médiation culturelle comme le souligne J. Cordonier : « […] une bibliothèque est un lieu riche de compétences, de personnes[9] qui osent faire des choix, monter des expositions, inviter des artistes, […] non pas prescrire […] mais proposer, attirer l’attention, sensibiliser. » (p.25). Un horizon d’attentes qui laisse poindre une kyrielle de défis pour inscrire durablement cette nouvelle silhouette professionnelle dans le paysage des bibliothèques.
Critique
La force de ce petit livre d’entretiens réside dans ses différentes strates de lecture ; le recueil peut ainsi se lire à la fois comme un retour d’expérience à l’usage des futurs cadres de grandes bibliothèques et comme un guide inspirant pour le futur des bibliothèques, mais également comme un segment de l’histoire culturelle de la Suisse. En effet, comme le souligne Alexis Rivier dans son préambule, les quatre institutions, sous l’impulsion de leur direction, « […] ont contribué à mettre en place ce qui est peu à peu devenu une norme dans les pratiques sociétales du 21e siècle. » (p. 8). Au fil des pages, le lecteur peut ainsi saisir en quoi les bibliothèques ont grandement participé à l’avènement d’une société de l’information comme nous la vivons aujourd’hui. L’opacité des activités d’une bibliothèque scientifique ou patrimoniale est ici levée pour éclairer avec intelligence la façon dont ces établissements ont façonné des pratiques aujourd’hui généralisées : informatisation des espaces, partage de gros volumes de données, accessibilité des ressources et des savoirs, etc. L’autre intérêt de l’ouvrage est de dessiner rapidement une histoire récente des bibliothèques, du milieu des années 1980 jusqu’aux portes des années 2010.
Le format de l’entretien, ici retranscrit à la première personne, puis découpé thématiquement, apporte une certaine fluidité à la lecture ; la parole est vive et engagée, jusque dans la thématisation de certaines déceptions vécues par les directeurs. On peut regretter parfois que certains sujets ne soient davantage approfondis, notamment concernant les enjeux politiques des bibliothèques. Mais le découpage garantit une variété des sujets abordés qu’il est agréable de comparer entre les prises de parole. Dans un souci de transparence, il aurait été souhaitable d’ajouter en fin de volume le questionnaire reçu par chacun des intervenants.
Qu’il s’agisse d’un public de néophytes, de bibliothécaires ou encore d’historiens, chacun pourra déceler, au sein de ce recueil d’entretiens inédits, de quoi nourrir ses intérêts. Il est à souligner enfin que la postface d’Alexis Rivier offre un bel effort de synthèse et d’ouverture vers des perspectives futures. A l’heure où certains responsables issus de grandes bibliothèques de notre pays prédisent des scenarios catastrophiques pour l’avenir des bibliothèques, il est cardinal d’écouter ces quatre voix riches d’expériences et d’espérances.
Notes
[1] Respectivement directeurs de la Bibliothèque cantonale du Valais – Médiathèque Valais (1988-2008), Bibliothèque publique et universitaire de Genève (1993-2007), Bibliothèque nationale suisse (1990-2005) et Bibliothèque cantonale et universitaire de Lausanne (1986-2008).
[2] Les entretiens, basés sur un questionnaire unique, ont ensuite été retranscrits à la première personne et amendés par les auteurs.
[3] Jacques Cordonier et Hubert Villard notamment évoquent à maintes reprises la mise en place du « Réseau romand des bibliothèques de Suisse occidentale » (Rero).
[4] Nous pensons naturellement au projet de la bibliothèque nationale portant son nom.
[5] Consulter : www.vallesiana.ch
[6] Ces trois portails concernent respectivement les livres anciens, les manuscrits médiévaux et les revues suisses.
[7] Consulter : http://memoriav.ch
[8] Il s’agit de l’acronyme désignant les géants du web que sont Google, Apple, Facebook et Amazon.
[9] C’est moi qui souligne.
Bibliographie
CORDONIER, Jacques, JACQUESSON, Alain, JAUSLIN, Jean-Frédéric, VILLARD, Hubert. Entretiens. Genève : L’esprit de la Lettre, 2016. (Collection Bibliothécos), 116 p.
- Vous devez vous connecter pour poster des commentaires
Anleitung und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension
Ressi — 31 décembre 2016
Karsten Schuldt, Schweizerisches Institut für Informationswissenschaft, HTW Chur
Anleitung und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension
Makerspaces in Bibliotheken: Eine grundsätzlich etablierte Idee
Makerspaces, Fablabs oder ähnlich benannte Abteilungen in Bibliotheken einzurichten, ist auch in der Schweiz einigermassen normal geworden.[1] Viele Bibliotheken haben dies in den letzten Jahren in grösseren oder kleineren Projekten unternommen, einige haben Makerspaces als dauerhaftes Angebot eingerichtet, andere als Veranstaltungsreihen oder nur mit einigen, ausgewählten Technologien, z.B. 3D-Druckern, die in der Bibliothek betrieben werden. Diese Makerspaces können sich kaum mit denen in Millionenstädten messen, die oft in der Literatur besprochen werden, sie erfüllen auch viele der Versprechen, die sich in der Literatur zu Makerspaces gemacht werden (Anderson 2013; Hatch 2014), nicht. Gleichwohl sind sie eine Angebot, dass Bibliotheken nicht mehr grundsätzlich erläutert werden muss. Vielmehr stellen sich praxisorientierte Fragen: Welche Technologien eignen sich für welche Arten von Makerspaces in welchen Bibliotheken? Wie teuer sind sie, auch im längerfristigen Betrieb? Was kann mit ihnen im Rahmen der Bibliothek angeboten werden? Bislang scheinen Bibliotheken diese Fragen jeweils für sich selber zu beantworten, jeweils neu, teilweise, nachdem sie Angebote von anderen Bibliotheken in ihrem Umfeld angeschaut haben.
Es scheint die auch immer wieder einmal in Gesprächen am Rande von Konferenzen und Weiterbildungen geäusserte Vorstellung vorzuherrschen, dass es bislang keine Literatur dazu gäbe, wie Makerspaces in Bibliotheken eingerichtet werden könnten. Teilweise wird dies als Desiderat geäussert, dass zu schliessen wäre. Das ist nicht korrekt. Vielmehr werden seit einigen Jahren immer wieder neue Anleitungen dazu, wie Makerspaces in Bibliotheken eingerichtet und was in ihnen unternommen werden kann, publiziert, vorrangig in englischer Sprache. Im Folgenden soll eine Anzahl dieser Anleitungen kurz besprochen zu werden.[2] Es scheint allerdings nicht so, als wären diese Publikationen die letzten dieser Art. Vielmehr ist zu vermuten, dass aktuell in den Bibliotheksverlagen viele weitere Manuskripte dieser Art bearbeitet und in den laufenden Monaten und Jahren publiziert werden. Insoweit kann hier nur eine vorläufige Auswahl vorgestellt werden. Grundsätzlich sind die hier besprochenen Publikationen alle in einem sehr einfachen Englisch abgefasst, so dass sie ohne Probleme auch für Bibliotheken in der Schweiz genutzt werden können.[3]
Makerspace Workbench (Kemp 2013)
Obwohl Makerspaces immer lokal gestaltet werden und manchmal der Eindruck vermittelt wird, dass sie alleine deshalb entstehen würden, weil sie sinnvoll sind – Haike Meinhard (Meinhard 2014) oder Megan Egbert (Egbert 2016) sprechen von Maker-Bewegung bzw. Maker-Movement und suggerieren ein ungesteuertes Wachstum –, ist es doch möglich, auf einen Verlag als Antriebskraft hinter dieser Idee zu verweisen, nämlich MakerMedia (http://makermedia.com), San Francisco, die sowohl das Magazin make: (http://makezine.com) herausgibt, als auch die verbreitete Veranstaltungsreihe Maker Faire (http://makerfaire.com) betreut und als Brand hält.[4] Entgegen mehrfach aufgestelltet Behauptungen (z.B. Meinhard 2014) ist die Idee der Makerspace oder Fablab eben nicht in der Zivilgesellschaft, der Hackercommunity, den Schulen oder Bibliotheken entstanden, sondern von MakerMedia – auf der Basis von anderen Einrichtungen – vorangetrieben und auch als Brand etabliert worden. Das heisst nicht, dass diese Firma alle Maker-Aktivitäten kontrolliert oder von ihnen profitiert; aber es ist doch bedenkenswert. Die Firma hat die Darstellung und das Verständnis von Makerspaces (also: Was „kann“ in ihnen gemacht werden? Was nicht?) geprägt, viele positive Darstellungen, gerade der Zeit bis 2014, und Begründungen, warum Makerspaces etwas gutes sind, stammen direkt von ihr und wirken bis heute nach.
Neben dem Magazin make: und der Veranstaltungsreihe Maker Fair gibt die Firma in unregelmässigen Abständen auch Bücher heraus. Diese sind immer wieder ähnlich aufgebaut. Sie richten sich an Personen, die Makerspaces betreiben wollen und präsentieren vor allem Beispiele für Dinge, die hergestellt – also „ge-makt“ – werden können. Dies gilt unter anderem für The Makerspace Workbench von Adam Kemp (Kemp 2013), das hier als ein Beispiel der Produktionen des Verlages besprochen wird. Das Buch startet, wie viele Bücher aus diesem Verlag, mit einem fast schon missionarischem Einstieg in das „Making“ an sich, inklusive einer Kurzversion des „Makerspace Manifesto“. (Vgl. auch die ein Buch lange Ausarbeitung des „Manifesto“: Hatch (2015)) Anschliessend wird in einem Kapitel dargestellt, in welchen Räumen, mit welchen Sicherheitsmassnahmen und Ausstattungen ein Makerspace eingerichtet werden kann. Obgleich das Buch betont, dass es eine grosse Anzahl von Möglichkeiten gibt, arbeitet es doch beständig mit konkreten Beispielen, bis hin zu konkreten Geräten, die genannt, gezeigt und mit denen gerechnet (z.B. die für sie benötigte Elektrizität) wird. Die Beispiele beziehen sich immer auf US-amerikanische Geräte, Sicherheitsvorschriften etc., müssen also bei der Umsetzung in der Schweiz mit „übersetzt“ werden.
Bei all diesen, zum Teil sehr konkreten, Vorstellungen behält das Buch einen missionarischen Charakter bei. So werden z.B. kurz unterschiedliche Makerspaces besprochen (in der Bibliothek, der Schule, dem Klassenraum, in der privaten Garage), aber gleichzeitig bei jedem dieser möglichen Makerspaces noch einmal betont, wie gut sich diese jeweils eignen würden und wie zukunftsgerichtet sie wären. Man würde erwarten, dass dies nicht mehr nötig ist, da ein solches Buch vor allem von Menschen gelesen wird, die schon von Makerspaces überzeugt sind. Weitere Kapitelen besprechen eins zu eins einzelne Werkzeuge, Hilfsmittel und Materialien, die in einem Makerspace vorhanden sein können, inklusive Abbildungen aller dieser Produkte. In den weiteren Kapiteln werden Projekte für Makerspaces, auf der Basis der vorgestellten Materialien etc., vorgestellt, immer als konkrete Anleitungen gefasst, in einfachen Schritten, so wie in Kochbüchern Rezepte vorgestellt werden. Das ist alles sehr feingliedrig, inklusive unzähligen Bildern und Sicherheitstipps. Auffällig ist jedoch, dass sich die Darstellung immer auf das jeweilige Projekt selber bezieht, nicht auf Gruppeaktivitäten im Makerspace, nicht auf pädagogische oder andere Fragen. Zwar gibt es ein Kapitel mit dem Titel „Learning in a Makerspace“, aber auch dieses geht nicht ein auf pädagogische oder didiaktische Fragen, sondern präsentiert Projekte, die sich inhaltlich in das (US-amerikanische) Schulcurriculum eingliedern lassen, ohne z.B. auf mögliche Lernziele dieser Projekte einzugehen. Es ist ein reines Projektehandbuch, welches allerdings den Grossteil der Publikationen des Verlages MakerMedia widerspiegelt. Dazu zählt das unhandliche A4-Layout, dass dem Buch ein wenig den Anschein einer Kopie aus dem Copyshop verleiht. Dieses Layout findet sich aber auch bei weiter unten besprochenen Publikationen (Preddy 2013, Wall & Pawloski 2014, Hamilton & Hanke Schmidt 2015).
Makerspaces in Schulbibliotheken (Preddy 2013)
Gerade in den USA scheint es, folgt man der Literatur, in zahllosen Schulbibliotheken Makerspaces zu geben. Leslie B. Preddy (Preddy 2013) legte – zumindest für die Schulklassen 6 bis 12, für die anderen gibt es keine vergleichbare Publikation – eine Anleitung für solche Einrichtungen vor. Auch diese Autorin formuliert in einer missionarischen Stimme, dass solche Einrichtungen die Bibliotheken verändern würden, z.B.: „A makerspace is an exciting oppurtunity for school libraries to take that next evolutionary step toward making the library a destination, instead of a fly-by stop.“ (Preddy 2013:1)
In einem ersten Kapitel versucht das Buch, die Arbeit eines Makerspaces in den Kontext US-amerikanischen Schulbibliotheken zu stellen. So postuliert die Autorin, dass Makerspaces in die Standards für Schulbibliotheken (AASL Standards for the 21st-Century Learner) passen würde und gleichzeitig in die Anforderungen, die das die Bundesstaaten übergreifende Schulcurriculum Common Core stellt. Ansonsten ermuntert die Autorin dazu, sich bei der Gestaltung des Makerspaces von der jeweiligen Schule leiten zu lassen.
Anschliessend stellt die Autorin auf über 140 Seiten nacheinander mögliche Projekte vor, zu grossen Teilen auch solche, die keine Technologie erfordern, sondern eher dem Basteln und Werken zuzuordnen sind. Die Projekte sind jeweils kurz beschrieben, mit Bildern angereichert und oft mit weiterführenden Links versehen. Die Beispiele sind durch die ausführliche Darstellung gut nachvollziehbar, aber gleichzeitig in dieser Masse auch ermüdend. Auffällig ist, dass die Beispiele ebenso, wie bei Kemp (Kemp 2014), quasi ohne weitere Hinweise auf pädagogische oder andere Fragen auskommen. Hilfreich ist die listenhafte Aufzählung von Technologien für Makerspaces im Anhang des Buches.
Makerspaces für Kinder und Teens (Wall & Pawloski 2014)
Ähnlich, wie Peddy (Peddy 2014) für Schulbibliotheken gehen Cindy R. Wall und Lyyn M. Pawloski (Wall & Pawloski 2014) in ihrem Buch zu Makerspaces in Bibliotheken für Kinder und Teens vor. Im unhandlichen A4-Format wird in einer kurzen Einleitung wieder mit sehr grossen Versprechen gearbeitet, wenn begründet wird, warum Bibliotheken Makerspaces haben sollten:
The Maker philosophy empowers people with the knowledge that they can create the things that they want and need. In the ideal Maker world, when people have a need, they do not wait for a corporation to acknowledge that need and create a product; instead they make the product themselves. Therefore, library Maker programming should empower participants to believe in their ability to create something through experimentation and trial and error. The Maker Movement allows individuals to free and shift their thinking; it allows everyone to think in terms of unlimited possibilities. (Wall & Pawloski 2014:1)
Diese Aufzählung enthält regelmässig verbreitete Behauptungen über Makerspaces, z.B. das in ihnen durch „Trail and Error“ gelernt werden würde, ohne das dies weiter begründet wird. Diesen grossen Ankündigungen folgen allerdings wieder nur 160 Seiten mit einzelnen Projekten. Diese Projekte sind übersichtlicher dargestellt, als in den bislang besprochenen Büchern und folgen immer der gleichen Struktur (Vorstellung, Kosten, Zeit, Vorteile, „Zielgruppen“, benötigtes Personal, „Zutaten“, Vorbereitung, Durchführung, Varianten, mögliche Zusätze, übrigbleibender Müll und weiterführende Literatur). Der Einsatz von Bildern ist zurückhaltender, ansonsten wird ein gewiss lustig gemeinter Stil durchgehalten, bei dem die Projekte als Kochrezepte (Durchführung heisst z.B. „Bake“) präsentiert werden. Teilweise sind die nötigen Schritte auch sehr differenziert dargestellt. Die Anhänge verorten die Beispiele eher in der Schule, z.B. gibt es Diskussionsfragen für Gruppen, die im Anschluss an bestimmte Projekten gemeinsam diskutiert werden können und auch einige Arbeitsblätter.
Konkrete Beispiele (Bagley 2014; Willingham & de Boer 2015)
Während die bislang besprochen Bücher vor allem konkrete Projekte darstellten, die in Makerspaces umgesetzt werden könnten, versammelt Caitlin A. Bagley (Bagley 2014) konkrete Makerspaces in US-amerikanischen Bibliotheken. Dieser Sammlung stellt sie Überlegungen zu Makerspace voran, die sich vor allem mit der Begründung für diese (Warum sollten sie in einer Bibliothek vorhanden sein?) und Finanzierungsmöglichkeiten beschäftigt. Anschliessend werden neun Einrichtungen in Öffentlichen, Hochschul- und Schulbibliotheken vorgestellt. Diese Vorstellungen folgen grundsätzlich dem immer gleichen Muster (Gründung, Finanzierung, Beschreibung des Ortes selber, Beschreibung der Technologien oder Werkzeuge, die erfolgreich eingesetzt wurden, Veranstaltungen und Betrieb, Marketing, Personal und Betreuung, Gruppen, die den Makerspace nutzen, sowie eine Zusammenfassung). Die Beschreibungen sind als reiner Text gefasst, also ohne Bilder aus den Makerspaces, aber auch ohne Tabellen etc. Die Sprache ist, verglichen mit den andern Büchern, die einen missionarischen Eifer an den Tag legen, sehr konkret an den jeweiligen Beispielen orientiert. Es werden vor allem Erfolge gezeigt, aber auch gesagt, was nicht funktioniert hat oder wo es Schwierigkeiten gab.
Das Buch scheint vor allem zu zeigen, dass es möglich ist, langfristig und erfolgreich Makerspaces in Bibliotheken zu betreiben. Zudem erinnert die Autorin daran, dass es notwendig ist, im Vorfeld zu klären, was für einen Makerspace, mit welchen Zielen und vor allem mit welchen Möglichkeiten eine Bibliotheken haben möchte, bevor sie daran geht, ihn zu planen.
Theresa Willingham und Jeroen de Boer (Willingham & de Boer 2015) verbinden in ihrem in der Reihe Library Technology Essentials – und damit neben anderen Titeln zu technischen Themen – erschienenen Band die Darstellung von Beispielen mit der Darstellung konkreter Veranstaltungen in Makerspaces. Auch dieser Band ist in einer übermässig positiven Sprache verfasst, bei der schnell der Eindruck entsteht, dass über tatsächliche Schwierigkeiten einfach hinweggegangen wird. Sie wagen sich, einen schnellen Überblick zur Geschichte von Makerspaces in Bibliotheken und eine Begründung für solche Räume vorzustellen, der aber sehr strittig ist. Gleichzeitig stellt diese Darstellung nicht den Fokus des Buches dar.
Vielmehr versucht das Buch, auf der Basis von konkreten Erfahrungen in Bibliotheken, alle Themen anzusprechen, die für die Entscheidungen rund um einen Makerspace notwendig sind. Letztlich bleibt vieles der lokalen Interpretation überlassen (Z.B.: „Make the lab an essential part of business operations and try to find as much support as possible within the organization.“, Willingham & de Boer 2015:26), gleichzeitig werden Vorschläge für die Anschaffung von Hardware und Software gemacht (wobei die Software zumeist Open Source Produkte sind), die wohl schon mit der Drucklegung überholt gewesen sein dürften. Das Buch gibt eher Richtungen und zu beachtenden Themen vor. Mehr kann es vielleicht nicht leisten.
Daran an schliessen Vorstellungen von 14 Bibliotheken mit Makerspaces, FabLabs oder ähnlichen Initiativen. Auch diese haben einen starken Fokus auf die USA (ein Beispiel kommt aus Italien, ist aber in Zusammenarbeit mit der dortigen U.S. Embassy realisiert), eine Anzahl stammt aber aus Skandinavien und den Niederlanden. Die Vorstellungen sind jeweils relativ kurz gefasst, je rund zwei bis vier Seiten. Was sie von den Darstellungen bei Bagley (2014) unterscheidet ist, dass sie sich nicht auf stationäre Makerspaces in Bibliotheken beschränken, sondern auch mobile Makerspaces von Bibliotheken (FryskLab, betreut vom Herausgeber des Buches Jeroen de Boer) und Initiativen, die mit Bibliotheken zusammen (temporäre) Makerspaces durchführen, vorstellen. Diese Beispiele zeigen, dass auch solche kurzfristigen Veranstaltungen möglich sind, dann allerdings – was nicht besprochen wird – bestimmte Ansprüche (Community-Bildung, pädagogische Konzepte), die sonst mit Makerspaces verbunden werden, aufgegeben werden, weil sie in temporären Veranstaltungen gar nicht umgesetzt werden können.
Im letzten Drittel des Buches werden, wieder auf der Basis von schon durchgeführten Programmen in Bibliotheken, einzelne Projekte vorgestellt und so beschrieben, dass sie prinzipiell auch anderswo durchgeführt werden können. Diese Projekte unterscheiden sich von denen, die bei Kemp (Kemp 2013), Preddy (Preddy 2013) oder Wall und Pawloski (Wall & Pawloski 2014) beschrieben werden, dadurch, dass sie mehr auf den Kontext Bibliothek eingehen (z.B. Einsatz des Personals) und weniger genau auf das Projekt (z.B. was genau mit dem 3D-Drucker produziert wird).
Grundsätzlich hat auch dieses Buch seine Schwächen, insbesondere sind die Herleitungen und Begründungen für Makerspaces nicht nachvollziehbar. Von allen hier besprochenen Büchern ist es aber das zugänglichste und für Bibliotheken auch motivierenste.
Arbeitsblätter für Makerspaces (Hamilton & Hanke Schmidt 2015)
Auf den ersten Blick kaum von den anderen Anleitungen für Projekte in Makerspaces wie Preddy (Preddy 2013) oder Kemp (Kemp 2013) zu unterscheiden – bis hin zum A4 Format – geht das Buch von Matthew Hamilton und Dara Hanke Schmidt (Hamilton & Hanke Schmidt 2015) doch weiter. Es geht nicht um konkrete Veranstaltungen, die durchgeführt werden, sondern um einen möglichst einfachen Zugang für Bibliotheken, um Makerspaces zu machen. Dafür werden, immer auf der Basis von Erfahrungen von Makerspaces, die in US-amerikanischen Bibliotheken existieren, Angaben zu Projekten gemacht und Vorlagen geliefert, z.B. Vereinbarungen für die Nutzung eines Makerspaces, die quasi direkt kopiert und dann anderswo zu Unterschrift vorgelegt werden können, Sicherheitsreglements oder Schreiben an Lehrpersonen und Eltern. Es werden Angaben über Kosten etc. gemacht und immer wieder in kurzen Interviews Makerspaces vorgestellt. Es wird besprochen, wie Makerspaces geplant und wie sie ausgestattet werden können sowie das sie auch als Medialabs gestaltbar sind. Das alles auf einer sehr anwendungsbezogenen Ebene, teilweise mit Hinweisen zu Technologien, Preisen etc., die schon überholt sein werden. Sichtbar ist an diesem Buch, dass in ihm die Bibliothekarinnen und Bibliothekare, die einen Makerspaces planen sollen, im Fokus stehen.
Die Welt retten mit Makerspaces? (Egbert 2016)
Megan Egbert (Egbert 2016) geht es in ihrem Buch hingegen vor allem darum, zu begründen, wie Makerspaces in Bibliotheken pädagogisch und gesellschaftlich sinnvoll genutzt werden können. Sie bietet keine Anleitung für Veranstaltungen etc., sondern vielmehr ein Begründung für verschiedene Arten des Making. Das Buch ist, fast noch mehr als das von Kemp (Kemp 2013), eine missionarische Schrift, die im Making einen Weg sehen will, der aus den angeblich überholten Bibliotheken (und Schulen) hypermoderne Einrichtungen machen soll. In weiten Teilen ist das kaum lesbar, in einer Marketing-Sprache geschrieben, die keinen Widerspruch und kein kritisches Hinterfragen zuzulassen scheint. So wird oft von überzeugten Vertreterinnen und Vertretern der Makerspaces geschrieben, insoweit ist das Buch als Beispiel für deren Argumentationen interessant. Es ist ein Diskurs, der ohne auf Geschichte und Entwicklung von Einrichtung sowie ohne wirklich die Gesellschaft, in der die Einrichtungen wie Bibliotheken existieren, wahrzunehmen, die Überlegenheit von „Making“ behauptet, weil es neu sei. Selbstverständlich ist es nicht neu, sondern die Wiederkehr älterer pädagogischer Ideen (z.B. wiederholen sich viele Behauptungen, Erwartungen und Ungenauigkeiten aus der Reformpädagogik), nur sehr gereinigt von allen gesellschaftlichen Fragen (und auch der Frage: Wozu? Was sollen Menschen damit lernen?). Ein sicherlich gut gemeinter, aber inhaltlich dürftiger Diskurs, der Grundprinzipien des neoliberalen Denkens (z.B. alles, was vorher war, sei schlecht und übersteuert, es müssen „disruptiv“ geändert werden, ohne zu fragen, wohin und wozu) fortschreibt; offenbar ohne sich dessen bewusst zu sein. In diesem Rahmen werden auch ehemals kritische Anfragen an die pädagogische Realität (z.B. die Frage, wieso Mädchen anderes lernen als Jungen oder die Vorstellung des Konstruktivismus, dass die Menschen ihr eigenes Wissen „konstruieren“ und nicht das, was sie gelehrt bekommen) möglichst in den Diskurs integriert, aber so, dass sie dabei ihrer kritischen Funktion entledigt werden.
Egbert lässt in ihrem Buch immer wieder persönliche Geschichten einfliessen, berichtet z.B. immer wieder von ihren Erfahrungen in ihren Bibliotheken (Meridian Library District, Idaho) und mit ihrer Familie. Das Buch selber ist also in der Realität der Autorin verankert, aber es scheint immer wieder durch, dass Idaho nicht so weit von den Zentren des missionarischen Sprechens über Making, Disruption etc. im Silicon Valley entfernt liegt.
Ansonsten geht das Buch die gleichen Themen durch, wie es auch Willingham und de Boer (Willingham & de Boer 2015) oder Bagley (Bagley 2014) taten: Gründe für Makerspaces, unterschiedliche Makerspaces, Finanzierung, Personal. Egbert geht, ganz in missionarischer Absicht, davon aus, dass es sinnvoll wäre, wenn Personen zu „Makern“ werden und dann auch in anderen Orten eine „Maker-Kultur“ verbreiten würden. Sie denkt dabei vorrangig an Bibliothekarinnen und Bibliothekare.
Die von ihr im Untertitel versprochen „Teaching Revolution“ beschränkt sich darauf, zu behaupten, dass mit Makerspaces konstruktivistische Pädagogik in der Bibliothek etabliert würde. Der Konstruktivismus geht als Lerntheorie davon aus, dass Menschen das, was sie lernen, selber konstruieren und die gesamte Umgebung, z.B. der Lernraum, die Planung einer Bildungsveranstaltung, die Arbeit der Lehrenden, bei diesem Prozess nur unterstützen können. Grundsätzlich kritisiert der Konstruktivismus andere Lerntheorien und stellt die Lernenden selber in den Mittelpunkt. Es ist im Rahmen der „Maker-Bewegung“ zum Allgemeinplatz geworden, zu behaupten, Makerspaces seien quasi die Umsetzung dieser konstruktivistischen Theorien. Das lässt sich bestreiten, schon da der Konstruktivismus weit länger diskutiert wird als Makerspaces. Bestreiten lässt sich auch die in der „Maker-Bewegung“ verbreitet Gegenüberstellung von „altem Lernen“ und „neuem, im Makerspace“. Vielmehr ist der Konstruktivismus schon länger in anderen pädagogischen Projekten ausprobiert worden und Grundlage vieler Veränderungen, die in den letzten Jahrzehnten in Schulen stattfanden. Ebenso kritisch zu sehen ist die in solchen Texten immer wieder als angebliche Neuerung hervorgehobene Partizipation der Lernenden. Auch diese wird seit Jahrzehnten in anderen pädagogischen Zusammenhängen angestrebt und umgesetzt. Egbert hingegen übernimmt die Behauptung der „Maker-Bewegung“ und reduziert sie auf eine sehr banale Ebene, bei der behauptet wird, dass, wenn Menschen in Makerspace „maken“ – also mit den eigenen Händen arbeiten, selber ausprobieren, in eher offenen Situationen agieren und auch, reflektiert, scheitern dürfen – sie besser lernen würden, als z.B. in Schulen.[5] Für die Planung von Makerspaces ist dieses Buch eher ungeeignet, es ist eher eine „Missionsschrift“.
Fazit: Viel Missionierungsanspruch, viele kleinteilige Anleitungen
Es ist in dieser Sammelrezension ersichtlich geworden, dass es grundsätzlich nicht an Literatur zu Makerspaces in Bibliotheken mangelt. Sie ist in grossen Teilen vom US-amerikanischen Denken geprägt, was bei der Nutzung in der Schweiz (oder anderswo) mit beachtet werden müsste. Insbesondere der missionarische Anspruch, möglichst viele Menschen in „Maker“ zu verwandeln, irritiert – zu Recht – immer wieder. Keines der hier referierten Bücher liefert eine nachvollziehbare und vor allem belastbare Begründung dafür, wozu das gut sein soll. Gerade bei Kemp (Kemp 2013) und Egbert (2016) scheint eine Mentalität durch, wie sie sonst mit den „Start-Up Zentren“ wie dem Silicon Valley verbunden wird: ungesellschaftlich, immer ohne jeden Grund übermässig positiv und vor allem mit der Behauptung auftretend, die Welt vom Grunde auf zu verändern. Das stimmt bei Start-Ups nicht und es wird auch durch Makerspaces in Bibliotheken nicht eintreten.
Gleichzeitig zeigen die Bücher auch, dass es neben diesen Versprechen auch eine funktionierende Praxis von Makerspaces in Bibliotheken gibt. Sie werden die Welt nicht verändern, aber sie bereiten offenbar vielen Menschen – sowohl Nutzenden von Bibliotheken als auch dem Personal selber – Vergnügen und bilden eine sinnvolle Ergänzung anderer bibliothekarischer Angebote. Akzeptiert man diese Einschränkung, dann eignen sich mehrere hier besprochene Bücher für die konkrete Planung von Makerspaces (Willingham & de Boer 2015) oder Veranstaltungen in Makerspaces (Fleming 2015; Preddy 2013). Letztlich werden aber auch in diesen Büchern Bibliotheken immer wieder darauf zurückverwiesen, dass sie die Entscheidungen darüber, welche Angebote sie machen wollen, ob Sie Makerspaces einrichten wollen, und wenn ja, wie und wie sie diese nutzen wollen, immer selber treffen müssen. Es gibt keine überall funktionierenden Konzepte, es gibt keinen überall geltenden Grund, einen Makerspace einzurichten oder nicht einzurichten. Es ist einfach so, dass sie als Einrichtungen Spass machen können, aber auch Arbeit bedeuten. An Literatur, die dabei Unterstützung liefert, die jeweils notwendigen Entscheidungen zu treffen, mangelt es nicht.
Erwähnt werden muss zudem, dass in diesem Artikel, mit einer Ausnahme, nur Bücher besprochen wurden, die sich explizit mit Makerspaces in Bibliotheken beschäftigten. Es gibt weit mehr, erstens für andere Bereichen, z.B. für Schulen und für Makerspaces allgemein. Zweitens existieren neben gedruckten Büchern auch zahlreiche digitale Dokumente, z.B. zahlreiche Studienabschlussarbeiten (z.B. Blanpain, 2014) Handreichungen (z.B. Makerspace Resources Task Force 2014) und Webprojekte (z.B. http://www.makerspace.com). Zahlreiche grössere Makerspace stellen sich selber online dar (z.B. „The Edge“ der State Library of Queensland, Australien http://edgeqld.org.au oder, ausserhalb von Bibliotheken, der Makerspace der New York Hall of Science, http://makerspace.nysci.org). Sicherlich bedarf es immer wieder „Übersetzungsleistungen“ in die jeweiligen lokalen Kontexte, sicherlich muss man die jeweiligen Texte kontextualisieren und ihnen gerade nicht alles glauben. Aber am Ende ist, wer sich dafür interessiert, wie ein Makerspace in Bibliotheken funktionieren kann, heutzutage gut mit Materialien bedient.
Conclusion : beaucoup de revendications prosélytiques, une multitude de petits guides
Il s’est avéré, lors de ces recensions, qu’il ne manque pas de littérature sur les fablabs en bibliothèque. Il faut noter que cette littérature est souvent imprégnée d’une pensée américaine (des Etats-Unis), ce qui est à prendre en considération si on souhaite l’utiliser en Suisse ou ailleurs. En particulier cette approche de prosélyte, qui incite à transformer le plus possible de personnes en « makers », peut, à juste titre, irriter. Aucun des livres recensés ici ne donne de justification solide et compréhensible qui expliquerait pourquoi ce serait bien.
Chez Kemp (2013) et Egbert (2016) justement apparait une mentalité que l’on retrouve habituellement dans les pépinières de start-up ou à la silicon valley : non-sociale, ultra-positive sans aucune raison, et convaincue de changer le monde. Cela n’est pas plus juste pour les start-ups que pour les bibliothèques.
Cependant, ces ouvrages montrent également qu’à côté des promesses tous azimuts, il existe aussi une pratique des fablabs en bibliothèque. Ces fablabs ne changeront pas le monde, mais ils plaisent visiblement aussi bien aux usagers qu’aux personnels des bibliothèques, et représentent un complément intéressant aux autres services de la bibliothèque.
Cette limite étant posée, plusieurs ouvrages se prêtent à une planification concrète de fablabs (Willingham & De Boer, 2015), ou d’évenements dans des fablabs (Fleming, 2015 ; Preddy, 2013). Finalement ces ouvrages insistent sur le fait que c’est aux bibliothèques elles-mêmes de décider quelle offre elles souhaitent, si elles souhaitent mettre sur pied des fablabs, et si oui comment elles veulent les utiliser. Il n’y a pas de concept universel, il n’y a pas de raison valable pour tous, pemettant de mettre en place ou non un fablab.
Simplement ce sont des structures qui peuvent procurer du plaisir mais impliquent aussi du travail. Ce n’est en tout cas pas la littérature qui manque pour aider les bibliothèques à prendre les décisions nécessaires.
Il faut signaler que tous les ouvrages recensés dans cet article, à une exception près, parlent explicitement des fablabs en bibliothèque. Il y en a bien davantage, soit qui concernent les fablabs dans d’autres domaines comme les écoles par exemple, soit sur les fablabs en général. Ensuite il y a non seulement de la littérature imprimée mais aussi de nombreux documents numériques, par exemple des travaux de diplôme (Blancpain, 2014), des boîtes à outils (par ex. Makerspace Resources Task Force 2014) et des projets Web (par ex. www.makerspace.com). De nombreux fablabs se présentent eux-mêmes en ligne (par ex., « the Edge », de la bibliothèque de l’Etat du Queensland en Australie, http://edgeqld.org.au, ou en dehors des bibliothèques, le fablab du New York Hall of Science, http://makerspace.nysci.org).
Il est certain que les nombreux textes sur le sujet nécessitent toujours un effort de transposition dans chaque contexte local et on ne doit pas tout croire. Mais finalement, celui qui s’intéresse à la manière dont un fablab peut fonctionner en bibliothèque a aujourd’hui tout le matériau qui convient.
Notes
[1]In der Deutschschweiz scheint vor allem von Makerspaces gesprochen zu werden, in der Romandie von Fablabs. Beide Namen meinen ausserhalb der Bibliotheken eigentlich ähnliche, aber nicht gleiche Einrichtungen. In Bibliotheken scheinen sie aber quasi-synonym verstanden zu werden. Im weiteren wird der Begriff „Makerspace“ verwendet.
[2]Die Besprechung entsteht im Zusammenhang mit dem Projekt LLgomo (Library Lab goes mobile) der HTW Chur, bei dem getestet wird, welche Formen und Ideen von Makerspaces sich in kleineren Gemeindebibliotheken umsetzen lassen.
[3]Zumal neben diesen Publikationen noch zahlreiche Anleitungen für Makerspaces / Fablabs in Schulen existieren, die hier nicht besprochen werden, aber für Bibliotheken ebenso interessant sein können.
[4]Das Magazin erscheint neben der englischen Ausgabe in Deutsch als beigeordnetes Heft der c't als Make: (https://shop.heise.de/zeitschriften/hardware-hacks/make-magazin), Maker Faires gibt es auch in der Schweiz (für die Deutschschweiz „betreut“ aus Deutschland, http://maker-faire.de) und im umliegenden Ausland, d.h. Frankreich (http://makerfaire.fr), Deutschland und Österreich (http://maker-faire.de) oder Rom, Italien (http://www.makerfairerome.eu/en/).
[5]Bücher dieser Art liegen auch für andere Bereiche vor. Laura Fleming (Fleming 2015) argumentiert ähnlich oberflächlich, wenn auch mit weniger Text, für Makerspaces in Schulen (und Schulbibliotheken), obwohl sie es als Lehrerin besser wissen müsste. Es ist also keine Besonderheit von Bibliotheken.
Literatur
Anderson, Chris (2013). Makers : the new industrial revolution. New York: Crown Business, 2013
Bagley, Caitlin A. (2014). Makerspaces: Top Trailblazing Projects (A LITA Guide). Chicago: ALA TechSource, 2014
Blanpain, Coline (2014). Un lab en bibliothèque, à quoi ça sert ?. Villeurbanne Cedex France: enssib, http://www.enssib.fr/bibliotheque-numerique/documents/64259-un-lab-en-bi...
Egbert, Megan (2016). Creating Makers: How to Start a Learning Revolution at Your Library. Santa Barbara ; Denver : Libraries Unlimited, 2016
Fleming, Laura (2015). World of Making: Best Practices for Establishing a Makerspace for Your School. Thousand Oaks: Corwin, 2015
Hamilton, Matthew ; Hanke Schmidt, Dara (2015). Make It Here: Inciting Creativity and Innovation in Your Library. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2015
Hatch, Mark (2014). The Maker Movement Manifesto: Rules for Innovation in the New World of Crafters, Hackers, and Tinkerers. New York et al.: McGraw-Hill, 2014
Kemp, Adam (2013). The Makerspace Workbench: Tools, Technologies, and Techniques for Making. Sebastopol: MakerMedia, 2013
Makerspace Resources Task Force (2015) Making in the Library Toolkit, Young Adult Library Services Association, 2015, http://www.ala.org/yalsa/sites/ala.org.yalsa/files/content/MakingintheLi...
Meinhard, Haike (2014). Das Zeitalter des kreativen Endnutzers: Die LernLab-, Creatorspace- und Makerspace-Bewegung und die Bibliotheken. In: BuB 66 (2014) 479-487
Preddy, Leslie B. (2013). School Library Makerspaces, Grades 6-12. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2013
Wall, Cindy R. ; Pawloski, Lynn M. (2014). The Maker Cookbook: Recipies for Children's and 'Twenn Library Programs. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2014
Willingham, Theresa ; de Boer, Jeroen (2015). Makerspaces in Libraries (Library Technology Essentials, 4). Lanham ; Boulder ; New York ; London: Rowman & Littlefield, 2015
- Vous devez vous connecter pour poster des commentaires
Gilbert Coutaz, Archives en Suisse. Conserver la mémoire à l’ère numérique, Lausanne, Presses polytechniques et universitaires suisses, 2016 (Le savoir suisse, 113), 131 p.
Ressi — 31 décembre 2016
Alain Dubois, Archives de l'Etat du Valais
Gilbert Coutaz, Archives en Suisse. Conserver la mémoire à l’ère numérique, Lausanne, Presses polytechniques et universitaires suisses, 2016 (Le savoir suisse, 113), 131 p.
La collection « Le savoir suisse », qui a notamment pour ambition de porter à la connaissance d’un large public les résultats de la recherche en langue française, consacre l’un de ses derniers numéros à la question des archives en Suisse. Qui mieux que Gilbert Coutaz, directeur des Archives cantonales vaudoises depuis plus de 20 ans, ancien président de l’Association des archivistes suisses, excellent connaisseur du paysage archivistique suisse et de la communauté professionnelle qui s’y rattache, pouvait s’atteler à cette tâche ? Au final, l’auteur nous livre une analyse fine, érudite et sans concession de la question, d’une lecture très agréable, qui se distingue certes de la vaste synthèse Archivpraxis in der Schweiz. Pratiques archivistiques en Suisse parue en 2007, quand bien même elle en reprend certains éléments.
Archives en Suisse n’est pas une introduction à l’archivistique. Il ambitionne plutôt de donner la parole aux archivistes et de rappeler au grand public le rôle crucial, mais souvent incompris qu’ils exercent à une époque où l’explosion du volume d’information et le développement rapide des technologies de l’information et de la communication bousculent les repères et transforment les archives en réalités virtuelles qu’il s’agit de gérer au quotidien, de collecter, de conserver, de communiquer et de mettre en valeur. L’ouvrage de Gilbert Coutaz explore ainsi en sept chapitres un domaine peu connu, celui des archives en Suisse, en raconte l’histoire et en présente les objectifs, le rôle et les défis actuels.
Le premier chapitre, intitulé « Les archives aujourd’hui », donne rapidement le ton de l’ensemble du livre. L’archivistique et la communauté des archivistes sont souvent méjugées et incomprises, car considérées comme poussiéreuses (p. 9), alors que dans le même temps les archives exercent un rôle social et sociétal essentiel. Le métier d’archiviste a de fait connu ces dernières années de profondes mutations, que la société en général ignore, puisqu’il nécessite désormais l’acquisition de vastes compétences non seulement pour gérer des fonds d’archives historiques, mais également pour apporter une réponse adaptée aux exigences et aux défis nés des nouvelles technologies de l’information et de la communication et de la société de l’information et de la connaissance. L’archiviste est ainsi sans cesse tiraillé entre ces deux exigences parfois difficiles à atteindre de concert (p. 21). Gilbert Coutaz cherche ensuite à définir dans le second chapitre ce que sont les archives. Il rend tout d’abord attentif le lecteur à la polysémie du terme « archives » en français, explique ensuite précisément le sens des termes « informations », « données », « documents » et « records », utilisés parfois indifféremment, présente les quatre objectifs que poursuivent les archives (prouver, se souvenir, comprendre et s’identifier), avant de s’intéresser à la constitution des fonds et aux modes d’entrée des archives. Il termine son chapitre par l’évocation d’un aspect fondamental du métier : l’évaluation. Et lève à ce propos un cliché tenace : l’archiviste n’est pas un adepte de la conservation effrénée, puisqu’il ne conserve définitivement que 3 à 10% des documents produits ou reçus par une organisation dans le cadre de ses activités (p. 29).
Le troisième chapitre permet à Gilbert Coutaz de montrer ses vases connaissances de l’histoire des archives en Suisse et de dresser un panorama magistral de l’évolution de ces dernières de l’avènement des chancelleries au Moyen Age à la récente professionnalisation du métier, en passant par le développement de la Registratur au début du XVIIIe siècle, l’apparition des outils archivistiques modernes au XIXe siècle (plan de classement et principe de provenance, entre autres) ou la définition de nouveaux champs d’intervention. Succède à cette rapide fresque historique un chapitre consacré à l’archivistique helvétique, qui oscille entre fédéralisme et universalité. Gilbert Coutaz dépeint tout d’abord la mosaïque des dépôts d’archives publiques en Suisse, qui reproduit l’étagement des pouvoirs politiques (confédération, cantons et communes), et démontre que l’organisation archivistique suisse repose finalement sur les Archives cantonales ou les Archives d’Etat (p. 58). Il consacre également quelques pages à l’Association des archivistes suisses, créée en 1922, qui a tout d’abord contribué à l’affirmation progressive d’une véritable communauté professionnelle et garantit désormais aujourd’hui l’expression des droits, des devoirs et des pratiques de ses membres et la qualité des prestations (p. 66). Gilbert Coutaz dresse enfin le panorama de la formation professionnelle, qui s’est mise en place très tardivement par rapport aux pays voisins et se fonde sur les trois piliers suivants : l’apprentissage, la formation HES et les études postgrades. La communauté des archivistes s’est ainsi peu à peu constituée au cours des dernières années une identité professionnelle.
Le cinquième chapitre s’intéresse, pour sa part, aux pratiques archivistiques en Suisse. Celles-ci ont résolument évolué ces dernières années vers l’amont de la chaîne documentaire ; le cycle de vie des documents forme désormais un tout à maîtriser de l’élaboration des documents et la constitution des dossiers à leur versement dans un service d’archives ou à leur élimination contrôlée. Fort de ce constat, Gilbert Coutaz propose avec beaucoup de pertinence de substituer à la théorie des trois âges des archives, théorisée par Theodore Schellenberg en 1956, la « théorie des trois statuts de l’information » (statut de production, statut de trace et statut de source de connaissance) (p. 77-79). Il s’agit d’un apport original d’Archives en Suisse, qui ouvre de stimulantes pistes de réflexion et offre un complément intéressant au principe du records continuum qui tend actuellement à devenir la norme. La maîtrise de l’information nécessite du reste de pouvoir mobiliser différents outils tout au long de son cycle de vie. Gilbert Coutaz présente ainsi en détail les outils et les méthodes de travail qui fondent la pratique professionnelle : plan de classement et calendrier de conservation, qui permettent de gérer l’information au quotidien, évaluation des dossiers au terme de leur durée d’utilité légale ou administrative, ou encore description des archives selon les normes définies par le Conseil international des archives.
Faisant écho au premier chapitre, le sixième chapitre interroge l’identité professionnelle des archivistes, qui a fortement évolué ces dernières années pour embrasser de vastes champs de connaissances liés à l’ensemble du cycle de vie des documents. Les qualifications traditionnelles en paléographie ou en diplomatique ne suffisent en effet plus et doivent désormais être complétées par des formations poussées dans les domaines de la gestion des documents et des technologies de l’information et de la communication, auxquels il convient par ailleurs d’ajouter des compétences sociales avérées que ne mentionnent pas Gilbert Coutaz, mais qui sont pourtant essentielles dans l’exercice du métier au quotidien. Le profil de qualification rapidement brossé est certes exigeant, mais il correspond aux attentes placées dans les archivistes, qui doivent pouvoir exercer un rôle absolument central dans leur propre organisation en tant qu’expert de l’information. Comme l’énonce le septième et dernier chapitre, en guise de conclusion, « les archivistes doivent être actifs, coopératifs et vindicatifs, convaincants et visionnaires. Ils doivent exprimer leurs préoccupations, défendre leurs compétences et souligner leur niveau d’expertise, rechercher partout où cela est possible des collaborations et des alliances pour combler leurs lacunes, dénoncer les dérives, les manipulations et les négligences en matière de gestion d’archivage » (p. 124).
Archives en Suisse est ainsi une contribution majeure sur le rôle et la place des archives et de l’archiviste dans la société actuelle. Destiné à un large public, l’ouvrage explique de manière didactique et érudite, dans un langage simple, les enjeux qui sous-tendent actuellement la profession et qui permettent à la fois de garantir une gouvernance transparente et responsable, et de constituer, conserver et transmettre aux générations à venir la mémoire individuelle et collective de notre temps. Destiné aux historiens, l’ouvrage tend à montrer qu’un fonds d’archives dépend fortement des conditions qui ont présidé à son élaboration et à sa prise en charge, et qu’il convient par conséquent de tenir davantage compte du contexte d’origine des sources sous peine de mal les interpréter. Destiné aux archivistes, l’ouvrage explique parfaitement l’évolution du métier à travers le temps, à travers ses lignes de permanence et de fracture, et permet ainsi d’ancrer la profession dans un long terme qui gagnerait à être mieux connu. Destiné aux décideurs, enfin, l’ouvrage montre la plus-value que peut apporter aujourd’hui un archiviste au sein de la société de l’information et de la connaissance, par ses nombreux champs d’expertise, ou au sein d’une organisation, qu’elle soit publique ou privée, en termes de gestion de l’information. Il s’agit d’une évidence : un service d’archives est un véritable centre de compétences en matière de gestion de l’information, qui dispose des connaissances nécessaires pour apporter des réponses crédibles, pragmatiques et durables aux besoins exprimés dans ce domaine par une organisation et ses collaborateurs. C’est ce message qui fait de l’archiviste un acteur central et recherché qu’il convient de retenir en priorité de l’ouvrage de Gilbert Coutaz.
Archives en Suisse dresse le portrait d’un archiviste qui travaille en étroite collaboration avec différentes professions pour maîtriser l’information tout au long de son cycle de vie. L’ouvrage évoque ainsi régulièrement la nécessaire coopération avec les informaticiens et les « administratifs » dans le cadre des projets de gestion des documents (p. 93). Dans ce contexte, le contenu du chapitre consacré aux collaborations entre archives, musées et bibliothèques, intitulé « Evitons l’amalgame », est difficilement compréhensible. S’il convient bien évidemment de relever les différences de métier fondamentales qui existent entre ces trois domaines, il me paraît tout aussi important de souligner les collaborations fructueuses qui ont pu être instaurées ces dernières années entre archives, musées et bibliothèques et qui ont débouché sur la mise en œuvre de solutions novatrices et durables, où le rôle des archives a du reste été réaffirmé, voire même renforcé. Quant à la question du rattachement institutionnel, elle me semble mal posée. C’est en effet la figure de l’archiviste, capable d’apporter des réponses crédibles aux besoins de son organisation en termes de gestion des documents et des archives, qui doit être davantage mise en avant que la structure organisationnelle en tant que telle. Si l’on fait aujourd’hui appel à un archiviste au sein d’une organisation, c’est avant tout pour son savoir-faire et non pas en raison de son rattachement hiérarchique à telle ou telle entité. Du moins j’ose l’espérer. Qu’il me soit du reste permis de préciser ici qu’Archives en Suisse se place dans la série « Opinion » de la collection « Le savoir suisse », qui permet aux auteurs invités d’exprimer des vues personnelles sur certaines thématiques. Gilbert Coutaz émet ainsi une position personnelle sur les relations entre archives, musées et bibliothèques, qui n’est pas forcément partagée par l’ensemble de la communauté archivistique.
Finalement, il reste à espérer qu’Archives en Suisse soit diffusé au-delà de la seule communauté des archivistes, qu’il suscite le débat d’idées sur la place de l’archiviste dans la société de l’information et de la connaissance et qu’il nourrisse les réflexions sur le rôle social et sociétal des archives en Suisse et dans le monde.
- Vous devez vous connecter pour poster des commentaires
La conservation numérique: un enjeu de taille! Retour sur la 3e École d’été internationale francophone en sciences de l’information et des bibliothèques
Ressi — 31 décembre 2016
Eunsu Ahn, ENSSIB
Camille Delaune, ENSSIB
Hésione Guémard, ENSSIB
Colin Harkat, ENSSIB
La conservation numérique: un enjeu de taille!
Retour sur la 3e École d’été internationale francophone en sciences de l’information et des bibliothèques
Entre le 27 juin et le 9 juillet 2016, s’est tenue la 3e édition de l'École d’été internationale francophone en sciences de l’information et des bibliothèques. L’École des Bibliothécaires, Archivistes et Documentalistes (EBAD)[1] de l’Université Cheikh Anta Diop (UCAD) (Dakar, Sénégal) a, à cette occasion[2], accueilli chaleureusement pendant deux semaines des étudiants, des professionnels de bibliothèques, de centres de documentation et d’archives, afin de réfléchir ensemble sur les enjeux de la « conservation numérique ». L’école a été l’occasion de suivre des cours et des ateliers, dispensés principalement par Tristan Müller, directeur du service numérisation de la Bibliothèque et Archives Nationales du Québec (BAnQ, Montréal, Canada), d’écouter des retours d’expériences[3], moments forts d’échanges et de débats, et de faire des visites ciblées. Cet article résume l’essentiel des cours et des retours d’expériences, et livre également nos réflexions sur l’espace et la numérisation, la diffusion et la préservation, nous qui avons été des participants à cette 3ème édition de l’école d’été (et qui sommes étudiants en master professionnel à l’ENSSIB).
Espace et numérisation
Cette école d’été a apporté des connaissances sur la gestion de l’espace, car un des atouts indéniable de la numérisation est le gain qu’elle permet d’envisager de ce point de vue dans les structures de conservation. Papa Cheikh Thiéfaye DIOUF, archiviste au service des archives et de la documentation de la Faculté des lettres et sciences humaines de l’UCAD, explique que « la gestion de l’espace est l’une des priorités largement partagée par les spécialistes de l’information documentaire. En effet, les archivistes, les bibliothécaires et les documentalistes, après élimination pour les uns ou désherbage pour les autres, gagnent un minimum d’espace destiné à de nouvelles acquisitions ou à de nouveaux versements ».Nous notons que cette « gestion de l’espace » possible grâce aux projets de numérisation est parfois directement une réponse à des situations d’urgence. Julie Mbarga, de la Bibliothèque Universitaire de l’Université de Douala au Cameroun, illustre ce type de situations avec cet exemple : «des seaux par-ci, par-là sur le sol d’une mezzanine de 300m2 environ qui sert de salle de lecture à cent usagers par jour (chercheurs et étudiants) et de bureau à quinze membres du personnels, du fait d’une étanchéité délabrée. Tel est le spectacle peu reluisant qu’offre cette bibliothèque en saison de pluie». Mais il faut noter que la situation critique n’est qu’un facteur dans la décision de mettre en place le processus de numérisation. La volonté de diffuser largement, et parfois même au delà de nos frontières, est également un argument de mise en place d’un projet de numérisation.
Diffuser auprès du public: une priorité!
La numérisation des fonds répond souvent à une forte demande de consultation des lecteurs. Le flux permanent des arrivées de documents rend d’autant plus indispensable le suivi des projets. L’école d’été n’a fait que rappeler ces deux aspects essentiels dans l’esprit des participants. En effet, Julie MBARGA témoigne « les cours, les ateliers, les échanges, les visites en entreprises dont nous avons bénéficié, grâce à une bourse de l’AIFBD (Association internationale francophone des bibliothécaires et documentalistes), nous ont montré l’urgence de sauvegarder sous forme numérique, et de mettre en ligne le fonds documentaire de la Bibliothèque universitaire (BU), particulièrement les thèses, les mémoires, les rapports de stage, les actes de décrets présidentiels, contenus dans le quotidien national bilingue du Cameroun : « Cameroun Tribune » que la BU reçoit chaque jour depuis 2003, du fait de la demande forte de notre public ». El Hadji Birame DIOUF, Conservateur des bibliothèques au centre de documentation de l’Institut Fondamental d’Afrique Noire (IFAN, Dakar, Sénégal) ajoute que l’Ecole d’été «a permis de prendre conscience que la conservation numérique de l’information ne signifie pas uniquement éviter l’effacement ou la perte des données ou les conserver intacts et intègres. Mais, cela signifie aussi conserver leur intelligibilité, leur lisibilité et la possibilité de les réutiliser pour satisfaire le besoin informationnel des usagers». Cette réflexion nourrie durant l’école d’été a donc amené les professionnels en poste à concrétiser dans un avenir proche des projets, comme c’est le cas avec Armand N’DA KOUADIO, bibliothécaire stagiaire à l’Institut de Géographie Tropicale (IGT) en Côte d’Ivoire : « à travers cette formation [à l’école d’été], je souhaiterais mettre en place un dépôt numérique à l’IGT. La mission primordiale de ce dépôt est de préserver et diffuser les documents aux étudiants et aux enseignants chercheurs. Pour réussir cette mission, nous allons mettre en place une politique de numérisation. Cette politique n’est pas limitée à l’action de convertir un document analogue dans une forme numérique, mais comprend également toutes les activités pouvant amener la mise en ligne d’une copie numérique accessible. Alors, plusieurs professionnels en sciences de l’information documentaire et informaticiens peuvent être appelés à participer à ces activités, qui incluent notamment, la sélection des documents originaux, la création des métadonnées, la conversion numérique, les opérations de post-numérisation et la mise en ligne des documents numérisés ».
La bibliothèque de l’Institut de Géographie Tropicale après la crise post-électorale de 2010.
À gauche: Documents en attente de traitement. À droite: Documents traités et rangés dans les rayons : Source des images : Armand N’DA KOUADIO juillet 2014.
Par ailleurs, nous avons eu la chance d’assister au retour d’expérience de Sophie MADIBA sur le Centre de Recherche et de Documentation sur les Traditions et Langues Africaines Cerdotola (Yaoundé, Cameroun) qui s’est interrogée sur comment organiser la conservation d’une collection orale ? En effet, comment collecter et diffuser un patrimoine oral afin de le conserver et de le transmettre au grand public, dans l’optique de ne pas l’oublier ?
Et maintenant ? Se préparer et persévérer
Tristan MÜLLER a voulu attirer l’attention des étudiants sur la préservation à long terme : sur l’importance de connaître la technologie, comme par exemple la rétrocompatibilité, un concept notable. En effet, même si les documents numériques sont conservés, le matériel informatique et les logiciels actuels, les formats de fichier, ne sont pas forcément adaptés à leur lecture. Travailler sur la compatibilité implique de préserver les technologies, les ordinateurs comme les logiciels, ou alors émuler ces derniers, c’est-à-dire chercher à imiter un comportement physique d’un matériel sur un environnement informatique actuel.
De plus, cette démarche de numérisation implique des enjeux financiers et humains que dorénavant personne ne peut ignorer. Par exemple, la question de savoir comment réutiliser les « métadonnées issues des fichiers numériques » est apparue. Par ailleurs, comment « prioriser la conservation d’une collection » ? De nombreuses interrogations ont été soulevées sur cette thématique. En effet, qu’est-ce qui permet de sélectionner un fonds plus qu’un autre ? Prioriser la numérisation d’un fonds est souvent le témoin de la sauvegarde d’un patrimoine déjà en péril. Par exemple, Aminata CISSE, et Nathalie ALOU (respectivement conservateur et assistante conservateur au Ministère de l’Economie et des Finances à Abidjan, Côte d’Ivoire) vont mener un projet de numérisation d’une publication en série[4] en mauvais état afin de la préserver. Pour illustrer ces interrogations et prolonger les échanges, les ateliers, et plus particulièrement le deuxième[5], ont permis de se questionner sur les lois et règles en vigueur (nationales et internationales) relatives à la préservation, la conservation et à la communication des documents.
Papa Cheikh Thiéfaye DIOUF rappelle qu’ « en tant que professionnel dans le domaine de l’information documentaire et étant averti, l’ambition d’être à la hauteur du temps (l’ère du numérique) ne doit en aucun cas nous pousser à ne pas prendre en compte les exigences très subtiles de la numérisation. N’eût été la nouvelle conception que l’on a aujourd’hui de la numérisation après avoir suivi les ateliers de l’école d’été, on serait aisément « séduit » par les avantages qu’elle offre (dématérialisation, gain d’espace physique, visibilité) sans pour autant s’arrêter un instant sur les préalables que requiert un projet de numérisation ». En effet, les apprenants se sont totalement appropriés, tant d’un point de vue théorique que pratique, les enseignements afin de les intégrer dans leurs milieux professionnels prochainement. Aujourd’hui, Adjovi Essenam FUMEY, étudiante en Master à l’EBAD affirme : « je me sens donc plus opérationnelle dans le cadre de mon emploi actuel pendant lequel nous sommes appelés à muter les documents audiovisuels et audio sur des supports en vu de leur diffusion et de leur conservation ».
Enfin pour conclure, les étudiants de l’Enssib recommandent une participation aux futures écoles d’été. En effet, « en tant que futurs professionnels nous sommes ravis d’avoir participé car au delà de tous ces apprentissages, cette école d’été a été l’occasion pour nous d’échanger culturellement et professionnellement ». La quatrième édition de l’école d’été se déroulera à l’EBSI, l’Ecole de bibliothéconomie et des sciences de l’information à Montréal, (Québec, Canada), et nous espérons vous y voir nombreux !
Eunsu Ahn, Camille Delaune, Hésione Guémard, Colin Harkat
(étudiants en master professionnel à l’Enssib et ayant participé à la troisième édition de l’école d’été internationale francophone en sciences de l’information et des bibliothèques).
Notes
- Complément d’informations sur le programme : http://www.ebad.ucad.sn/sygea/Ecole_ete_2016.html
- Le site web (https://2eifsib.wordpress.com/) met à disposition toutes les informations complémentaires.
[1]Les représentants de chaque école sont intervenus durant la cérémonie d’ouverture le lundi 27 juin 2016. Une video est disponible sur la chaîne télévisée RTS (Radiodiffusion Télévision Sénégalaise).
[2]Après une première édition à l’École de bibliothéconomie et des sciences de l’information (EBSI, Montréal, Canada) sur la thématique « marketing et médiation numérique en bibliothèques » et une deuxième à l’École nationale supérieure des sciences de l’information et des bibliothèques (Enssib, Villeurbanne, France) sur « patrimoine, public, numérique », en 2016 le partenariat se renforce puisque la Haute École de Gestion (HEG, Genève, Suisse) a rejoint l’organisation.
[3]Sophie MADIBA sur le Centre de Recherche et de Documentation sur les Traditions et Langues Africaines (Cerdotola) (Yaoundé, Cameroun); Yvonne Berthe CISSE NOUDOFININ sur la Bibliothèque Centrale de l'Université Cheikh Anta Diop de Dakar (Sénégal); Christian CHABRIER de la société privée de numérisation de fonds anciens Arkhênum (Bordeaux, France); Mor DIEYE de la section Archives de l’EBAD (Dakar, Sénégal).
[4]Elles déclarent : « En effet, notre production REF [Revue Économique et Financière] qui retrace la mémoire économique de la CI [Côte d’Ivoire] est en danger. Un inventaire effectué en 2015, nous révèle que les premiers numéros de cette publication sont en voie de disparition. Nous souhaitons conduire des numérisations des dix premiers numéros de la revue économique et financière ivoirienne. Ce projet permettra la sauvegarde de ce patrimoine et sa diffusion auprès de larges publics ».
[5]Le deuxième atelier portait sur le cas précis des Archives de la construction de la Grande Mosquée de Dakar. L’exercice consistait à estimer les risques, leurs impacts, et ensuite d’imaginer les moyens de prévention pour limiter ces incidents.
- Vous devez vous connecter pour poster des commentaires
Quelle gouvernance informationnelle pour une PME High Tech ?
Ressi — 31 décembre 2016
Aurèle Nicolet, Haute Ecole de Gestion, Genève
Résumé
Le présent article résume et condense un travail réalisé dans le cadre du Master en sciences de l’Information durant la première partie de l’année 2016.
Alpes Lasers, petite entreprise neuchâteloise, fait appel à la Haute école de gestion pour l'aider à mettre en place une gouvernance de l'information. Une enquête est menée sous la forme d'un état des lieux des documents et des pratiques documentaires. Deux instruments de collecte sont utilisés : un inventaire typologique et des entretiens semi-structurés avec les responsables des différentes unités. L'enquête pointe plusieurs lacunes que l'on peut résumer en un manque de vision d'ensemble de la gestion de l'information au sein de l'entreprise et une absence de maîtrise du cycle de vie documentaire. Suite à ces résultats, plusieurs recommandations sont formulées : définition d’une politique, nomination d’une personne responsable et mise en place d’outils méthodologiques (plan de classement, calendrier de conservation, politique de nommage, plan de gestion des données et plan de protection des documents essentiels).
Quelle gouvernance informationnelle pour une PME High Tech ?
Introduction
Fondée en 1998, Alpes Lasers est une jeune société anonyme spécialisée dans la recherche et le développement de laser à cascade quantique, une technologie relativement nouvelle, puisque les premiers essais concluants ont été menés au début des années 90 et les premières commercialisations ont commencé à l’orée des années 2000 (Quantum cascade laser 2016).
Constatant des difficultés à gérer efficacement son information, l’entreprise contacte la Haute école de gestion et lui demande de l’accompagner dans une démarche de gouvernance informationnelle, sous la forme d’un mandat. Deux principaux objectifs sont établis : cartographier les ressources informationnelles et formuler des recommandations.
Méthodologie
Afin de réaliser notre premier objectif, nous avons mené une enquête qui visait à dresser deux états des lieux, celui des ressources documentaires de l’entreprise et celui de ses pratiques de gestion de l’information.
Pour le premier point, nous avons choisi d’établir un inventaire typologique. Pour le second, nous avons opté pour des entretiens semi-directifs. En plus de ces deux états des lieux, nous avons également procédé à une analyse des exigences légales et réglementaires auxquelles est soumise l’entreprise.
Inventaire typologique
Pour réaliser notre inventaire, nous nous sommes inspirés de travaux préexistants, comme celui qu’a réalisé Mme Conus dans le cadre de son travail de Bachelor (Conus 2013, p.77). Nous avons aussi fait le choix de ne concevoir qu’une seul grille, prévue aussi bien pour les documents papiers que pour les documents numériques, car, pour Jean-Pascal Perrein, la non-différenciation du format est l’un des cinq piliers de la gouvernance informationnelle (Perrein 2014a). Notre grille comporte dix entrées :
- Numéro de référence
- Lieu de conservation
- Titre du dossier : Il s’agit du titre inscrit sur le classeur ou la boîte d’archive ; pour les documents numériques, le nom du dossier ou du sous-dossier.
- Description : le détail du contenu lorsque le titre n’est pas assez explicite ou inexistant.
- Dates extrêmes
- Unité productrice : cela désigne l’unité créatrice des documents ou de leur enregistrement.
- Nature du support
- Volume : il est donné en mètres linéaires pour les documents papier et en kilo-octet pour les documents numériques afin de faciliter la conversion en giga-octet.
- État : Pour l’état de conservation, nous avons créé une échelle de trois degrés : bon, moyen et mauvais. Le niveau « mauvais » correspond à un état critique, tels que des moisissures, de l’urine ou d’autres éléments affectant l’intégrité des documents. Le niveau « moyen » est utilisé pour des documents présentant des pliures ou des déchirures, mais qui ne nuisent pas à son intégrité. Enfin, le niveau « bon » correspond à des documents ne présentant pas de dégâts ou extrêmement minimes. Comme l’échelle peut difficilement être reportée pour les documents numériques, nous avons utilisé l’entrée pour noter d’éventuels problèmes de lecture des fichiers.
- Remarques : elles ont été utilisées pour des notes comme des indications données lors des entretiens ou des constatations au moment de l’inventaire.
Pour commencer notre inventaire, nous sommes partis de la liste de classeurs et de boîtes fournie par l’assistante administrative. Très vite, nous avons constaté que cette liste ne reflétait plus la réalité du terrain. En raison d’un récent déménagement, les lieux de stockage indiqués ne correspondaient plus et les classeurs/boîtes ne respectaient plus un ordre logique. Ainsi, différents éléments d’une même série se retrouvaient dispersés sur plusieurs étagères. De plus, des cartons contenant des classeurs de la filiale allemande n’avaient pas été ouverts.
Tous ces éléments ont engendré un retard sur le planning prévu et nous ont amené à continuer l’inventaire en parallèle des entretiens. Cependant, ce délai supplémentaire n’a pas été uniquement négatif, puisque les entretiens nous ont permis d’affiner notre compréhension sur certains dossiers et de découvrir l’existence de séries de documents que nous n’aurions pas soupçonnée.
Une fois terminé l’inventaire de documents papier, nous nous sommes attaqués aux documents numériques et avons exploré l’espace partagé « Common », le principal lieu de stockage en dehors des bases de données. Nous nous sommes heurtés à deux difficultés : le degré de détail de l’inventaire et l’identification du producteur. En effet, pour des documents physiques, le niveau de description est assez facile. Il s’agit généralement du classeur ou de la boîte d’archives. Dans le cas d’un dossier numérique, la séparation est plus difficile. Nous avons finalement opté pour une description au niveau du sous-dossier, nous réservant néanmoins le droit d’adapter ce niveau de description selon les cas rencontrés. Ainsi, l’organisation labyrinthique du dossier « Admin » nous a amené à affiner le degré de détail, alors que le dossier « Measurement », dont le type de contenu est extrêmement répétitif et standardisé, a été décrit au niveau du dossier.
Pour le deuxième problème, celui de l’identification claire d’un producteur, deux cas se présentaient. Dans l’un, le créateur du fichier ou du dossier n’était pas humain. On peut prendre comme exemple les programmes de mesure qui créent automatiquement des fichiers dans le dossier « Measurement ». Dans l’autre cas, le producteur est humain, mais nous ne possédons aucune indication de son nom ou de sa fonction. Or, au sein de l’entreprise, des personnes peuvent cumuler plusieurs responsabilités et les dossiers peuvent contenir des fichiers appartenant à des services différents.
Ces éléments problématiques ont rendu difficile l’établissement d’une comparaison claire entre les dossiers numériques et les dossiers papier.
Entretiens
Sur la base de l’organigramme, nous avons sélectionné huit personnes à interviewer : les différents de chefs de service/unité, l’assistante administrative et le CEO. Puis, nous avons préparé un guide d’entretien, basé sur un exemple fourni par notre directrice de mémoire (Makhlouf Shabou [ca. 2016]) et sur l’article de Crockett et Foster qui propose plusieurs questions à poser aux producteurs d’archives (Crockett et Foster, 2004, p. 51). Nous avons choisi d’orienter la discussion autour de trois éléments : les fonctions et activités du collaborateur, les problèmes d’accès à l’information et ses pratiques de gestion et d’archivage des documents. Une dernière partie permettait à l’interviewé d’exprimer ses attentes vis-à-vis du projet.
Une fois le guide terminé, nous avons contacté les collaborateurs afin de préciser le but de notre rencontre et fixer une date de rendez-vous. Les entretiens ont duré environ quarante-cinq minutes. Pour une meilleure flexibilité et afin que nos interlocuteurs soient plus à l’aise pour présenter leurs pratiques et problèmes, nous avons fait le choix de ne pas enregistrer les entretiens. Une fois les notes mises au propre, nous en avons envoyé une copie afin de les faire valider par le participant.
Résultats
Volumétrie
Commençons par la volumétrie. Alpes Lasers compte environ 50 mètres linéaires et 360 Go de données numériques. Pour des raisons de calcul, nous avons séparé les documents numériques des documents papier, car il est difficile d’établir une comparaison entre le poids d’un fichier et un métrage linéaire (Chabin 2013).
Figure 1 : Volumétrie des documents papier par service
Trois unités se partagent un peu plus de 90% de la masse documentaire papier. Il s’agit de l’assistante administrative (53%), de la filiale allemande AL-Technologie (23%) et de l’unité Back-End (17%) qui s’occupe du montage, de l’analyse des mesures et de la sélection des lasers. Leur prédominance s’explique assez bien. L’assistante administrative a la charge de la comptabilité, des ressources humaines, des relations avec les fournisseurs ou encore des dossiers des clients. Pareillement, nous retrouvons pour AL-Technologie les dossiers comptables, ceux du personnel et les différentes commandes passées. Or, malgré le développement du numérique, tous ces éléments restent encore très souvent sous format papier. Pour l’unité Back-end, la majorité de ses documents sont des feuilles de mesure et des ordres de fabrication, qui jusqu’à présent étaient systématiquement imprimés.
Concernant la volumétrie de l’espace partagé « common », en raison du problème d’identification claire des producteurs évoqué plus haut, il nous était impossible de la présenter par service. Nous avons donc fait le choix de garder la structure de l’espace.
Figure 2 : Volumétrie des dossiers de l’espace partagé « common »
Quatorze dossiers composent l’espace partagé, mais n’ont pas tous la même importance. Nous pouvons tout de suite remarquer le poids important du dossier « Measurement » et celui dérisoire (<1%) de six dossiers. Pour quatre d’entre eux (« Attic », « Exe », « Lost and founds » et « Test set perms »), la raison est simple. Il s’agit de dossiers utilisés par l’unité IT comme débarras, zone de test ou d’aide à l’installation de programme. Concernant les deux derniers, l’explication est différente. « Produits » est un dossier récemment créé, dont une grande majorité de ses sous-dossiers sont vides, car la documentation pour les produits n’est pas encore rédigée. Enfin, la légèreté du dossier « Documentation » tient à la nature de ses documents : modèles, manuels et autres fichiers de texte.
Besoins et environnement d’Alpes Lasers
En parallèle de l’enquête menée via l’inventaire et les entretiens, nous nous sommes intéressés aux besoins et à l’environnement d’Alpes Lasers afin de les prendre en compte dans notre projet de gouvernance. Trois points sont ressortis : les objectifs stratégiques, les exigences réglementaires et normatives, ainsi que les besoins du secteur.
Puisqu’il n’existe pas de document présentant explicitement les objectifs stratégiques de l’entreprise, nous avons demandé au CEO de nous en dresser une liste. Trois objectifs sont ressortis, qui s’avèrent davantage opérationnels que stratégiques : la réduction du risque de développement, l’optimisation de la prévisibilité de la production et la maximisation des opportunités de comprendre les mécanismes sous-jacents. Ce sont trois éléments que nous pouvons relier à ceux de tout programme de gouvernance informationnelle (GlassIG 2016) : minimiser les risques, minimiser les coûts et optimiser la valeur.
Concernant la législation et dans le domaine qui nous intéresse, Alpes Lasers est principalement soumise, comme toute société anonyme, au Code des Obligations et à l’Ordonnance concernant la tenue et la conservation des livres de comptes (Olico). À ces deux textes, nous pouvons ajouter l’article 70 de la loi sur la TVA qui précise certains délais de conservation dans le cas des créances fiscales. De plus, comme la société a pris en charge les documents de sa filiale située en Allemagne en cours de fermeture, elle est également soumise à la législation allemande.
Pour les entreprises, la recherche et le développement jouent un rôle important, particulièrement dans un domaine novateur comme les lasers à cascade quantique. Deux éléments sont à prendre en compte : les brevets et les données de la recherche.
La quantité de brevets détenus par une société est un élément fondamental dans la course à l’innovation (Seuillot 2015). Ainsi, l’un des fondateurs d’Alpes Lasers, Jérôme Faist a presque dû réinventer le laser à cascade quantique, car les brevets de son invention « appartenaient aux Laboratoires Bell et étaient bloqués » (Fonds national suisse 2007, p. 2).
Depuis plusieurs années, les milieux universitaires et les organismes de financement s’intéressent à la gestion des données de la recherche et surtout à leur réutilisation possible. Ainsi, dans le cadre du programme Horizon 2020, l’Union européenne a lancé un projet pilote qui demande à chaque groupe de chercheurs un plan de gestion des données ou data management plan (DMP). Ce document planifie la gestion des données durant toute la durée d’un projet et au-delà, s’intéressant aux questions de conservation et de diffusion de données. Pour le moment, en Suisse, la rédaction d’un DMP n’est pas encore obligatoire, mais fait partie des mesures du programme pluriannuel 2017-2020 du Fonds national suisse de la recherche scientifique.
On pourrait être tenté de croire que l’adoption d’un DMP ne concerne que la recherche publique, car il a trait à l’ouverture des données, un élément qui coïncide peu avec des intérêts commerciaux. Cependant, il faut bien prendre garde à ne pas assimiler la gestion des données de la recherche à leur partage systématique (Donnelly 2015, p.11). En fait, les entreprises peuvent tirer plusieurs bénéfices d’un DMP, comme une amélioration du flux de données, une plus grande efficacité dans l’enregistrement ou encore la réutilisation des données au sein de l’entreprise (Beagrie, Pink 2012, p. 3).
Problèmes constatés
Notre enquête nous a permis de relever plusieurs éléments problématiques que nous avons ensuite apprécié selon les principes d’ARMA, car « [ils] forment les bases à partir desquelles tout programme efficace de gouvernance de l’information est élaboré, évalué et – que l’organisation ou son personnel les connaisse ou non – un jour ou l’autre jugé. » (ARMA International 2015, p. 2).
Commençons par l’absence d’une direction de l’information qui touche au principe de responsabilité. Cela entraine un manque de vision d’ensemble permettant de coordonner les efforts de chacun. Ainsi, chaque collaborateur développe sa propre méthode sans avoir connaissance de celle des autres ou de retour sur la sienne, un manque qui a plusieurs fois été exprimé lors des entretiens.
Le second élément problématique est celui de la disponibilité. Il est difficile d’accéder à l’information, en dehors des dossiers connus et utilisés régulièrement. Plusieurs facteurs peuvent l’expliquer. Tout d’abord, chaque unité a sa propre méthode de classement. Ensuite, il n’y a pas de processus d’élimination des éléments obsolètes ou redondants, ce qui engendre du bruit. Enfin, l’environnement informatique hétérogène rend l’accès difficile à certains programmes.
Lors de l’inventaire, nous avons relevé la difficulté d’identifier clairement le producteur. Cette absence d’information sur le contexte de création, comme l’identité de l’auteur, rend problématique la vérification de l’authenticité et de la fiabilité d’un document et donc au principe d’intégrité.
D’une manière générale, Alpes Lasers veille à la protection de ses données et à leur confidentialité. Cependant, lors de nos entretiens, nous avons appris que plusieurs collaborateurs utilisaient des services comme Dropbox ou Google Drive pour le travail à distance ou le partage de documents avec des personnes externes à l’entreprise, comme des fournisseurs ou des clients. Cela pose des problèmes de perte de maitrise de l’information, car les conditions exactes de stockage et de protection de ces fournisseurs sont peu transparentes.
En ce qui concerne les principes de conservation et de disposition de l’information, nous relevons l’absence d’un sort final pour les documents. Une fois créés, ils sont conservés, quelle que soit leur valeur. Ceci engendre plusieurs problèmes. Tout d’abord, la présence de documents redondants ou obsolètes entraine un bruit lors des recherches. Ensuite, tôt ou tard, se posera la question de la place.
Enfin, le dernier point problématique touche au principe de transparence. Alpes Lasers documente peu ses processus ou sa production. Cette absence de documentation est caractéristique des PME, « car la proximité permet les échanges oraux sans formalisation écrite » (Hassanaly 2013, p.47). À ce titre, le choix adopté par l’unité IT de proposer une aide ponctuelle plutôt que de concevoir des manuels d’utilisateur est particulièrement illustratif. Consciente de cette lacune, l’entreprise a entrepris des efforts dans ce sens, mais la démarche est récente et apparaît peu dans les entretiens, ce qui tend à penser que cela n’a pas encore été bien intégré par les collaborateurs.
Recommandations
À partir des résultats de l’enquête et des lacunes constatées, nous avons exprimé une série de recommandations qui s’articule autour de trois points : définition d’une politique, engagement d’une personne responsable de l’information et adoption d’outils méthodologiques.
Définir une politique de gouvernance informationnelle
Document qui traduit l’engagement de la direction dans la gestion de l’information, la politique de gouvernance informationnelle cadre et légitime « un ensemble d’exigences et de règles, formalisées et rendues applicables dans un référentiel ». (Perrein 2013). Elle possède quatre objectifs (Makhlouf Shabou 2015, p. 8) :
- Consigner la stratégie et les décisions prises concernant la gouvernance ;
- Communiquer cette stratégie et les décisions prises à l’ensemble de l’organisation ;
- Impliquer la direction ;
- Uniformiser les pratiques.
Comme il s’agit d’une pratique encore peu répandue, il n’existe, pour le moment, pas de modèle canonique. Cependant, différents éléments tendent à se retrouver dans les politiques que nous avons analysées. On trouve souvent un exposé des bénéfices et des objectifs, une définition des rôles et responsabilités, et enfin une liste des normes et des standards auxquels se référer.
Pour réaliser une première version de notre politique de gouvernance, nous nous sommes inspirés de celle de l’Université de Lausanne (UNIRIS 2014a). Deux éléments ont présidé ce choix. D’une part, son cadre légal est, en partie, similaire à celui d’Alpes Lasers : les deux organisations sont suisses. D’autre part, la forme claire et didactique nous semblait parfaitement convenir pour une entreprise qui n’est pas familiarisée avec les questions de gouvernance. Il faut toutefois noter que la politique proposée dans notre travail, l’est à titre d’illustration. Mettre en place une politique nécessiterait plus de temps que ce que nous avions à disposition.
Nommer une personne responsable
Tous (ARMA International 2015, p. 2 ; Perrein 2015) s’accordent sur l’importance de nommer une personne ou une entité dédiée à la gouvernance de l’information. Dans notre travail, nous avons envisagé de confier cette responsabilité à une seule personne, mais, suite aux remarques de notre expert, il nous semble plus intéressant d’établir un comité en charge de la gouvernance et d’avoir une personne spécialiste de l’information pour sa mise en application. Concernant cette personne, trois scénarios sont possibles : l’engagement d’un ou d’une professionnelle à 40%, l’appel à une entreprise spécialisée ou un partenariat avec la Haute école de gestion.
L’engagement d’un professionnel offre plusieurs avantages. La personne est intégrée dans la société et a une bonne connaissance de ses processus et de ses ressources, ce qui facilite la coordination entre les différents acteurs, comme l’IT, la direction et les producteurs d’information. De plus, elle peut plus facilement s’engager dans des projets à long terme comme la valorisation des archives définitives. Seul inconvénient, l’engagement est une charge fixe, difficile à moduler selon les ressources financières de l’entreprise.
L’appel à une société spécialisée, par rapport à l’engagement d’une personne fixe, offre un avantage d’ordre budgétaire, puisqu’il est plus facile d’ajuster la dépense selon la situation financière ; mais en raison de son externalité, elle risque de ne pas avoir une vision d’ensemble et de coordination entre les services et donc de ne pas conduire à une véritable gouvernance de l’information.
Enfin, le troisième scénario, un partenariat avec la Haute école de gestion, dispose des mêmes avantages et inconvénients que le deuxième. Nous retrouvons une dépense moindre, puisqu’il s’agit d’étudiants en formation, mais le problème d’externalité est augmenté. En effet, il est difficile de disposer d’une vision d’ensemble, lorsque chaque étudiant doit s’approprier le contexte de l’organisation. Le troisième scénario pourrait davantage prendre la forme de mandats ponctuels portant sur des éléments précis, tels que la mise en place d’un plan de classement ou d’un calendrier de conservation.
Mettre en place des outils méthodologiques
Plan de classement
Selon la norme ISO 15489, le plan de classement a trois usages (ISO 15489-2, p. 9). D’une part, il permet d’organiser, décrire et articuler les documents. Il sert également à relier et à partager les documents communs à plusieurs entités, en interne comme à l'extérieur de l'organisme. Enfin, il offre la possibilité d’améliorer l'accès, la recherche, l'utilisation et la diffusion des documents de la manière la plus appropriée.
Une fois le plan de classement validé, se pose la question de sa mise en place. La commission « Records Management » de l’association des archivistes français considère trois stratégies : la renaissance, la reprise partielle ou la reprise totale (Groupe interassociation AAF-ADBS "Records Management" 2011, p. 29).
La stratégie de la renaissance consiste à arrêter une date à laquelle l’ancienne arborescence ne peut plus être modifiée. Seule la lecture est autorisée et les documents ne sont pas repris dans le nouveau classement. L’avantage de cette méthode tient à sa simplicité et à la possibilité de repartir à zéro. Cependant, le constant va-et-vient entre les deux structures risque d’entretenir la confusion plutôt que la dissiper.
La stratégie de la reprise partielle laisse les documents non essentiels et inactifs dans l’ancienne structure et rapatrie les autres dans la nouvelle. Cette option offre un bon compromis. La dépense en temps est moindre que pour la reprise totale. Son principal point noir est le risque de prolonger la transition entre les deux systèmes, mais le problème est moins important que pour la stratégie de renaissance.
La stratégie de la reprise totale fait le choix d’abandonner complètement l’ancienne arborescence et de transférer l’ensemble des documents sur la nouvelle. Cela a le mérite d’assurer une cohérence et une unité à l’ensemble, mais le coût en temps et en moyen est énorme. De plus, il existe un risque, faible mais réel, que certains documents ne puissent être repris dans la nouvelle structure, si certaines activités de l’entreprise ont changé, par exemple.
Pour notre part, nous recommandons cette dernière stratégie. Certes, l’investissement en temps est important, mais ce délai peut être mis à profit en éliminant les éléments obsolètes parallèlement au transfert des documents.
Calendrier de conservation
Présenté généralement sous la forme d’un tableau, le calendrier de conservation répertorie les différents types de documents d’une organisation et définit plusieurs éléments : le responsable de l’exemplaire principal et ceux des exemplaires secondaires pour chaque type de document ; la durée de conservation du document lorsqu’il n’est plus actif et enfin le sort final du document (élimination ou archivage définitif). Cela permettra à Alpes Lasers de maitriser le cycle de vie de ses documents.
Politique de nommage
Un nommage clair et précis rend facile l’identification et la classification des documents. Il peut en outre pallier à une absence de métadonnées (UNIRIS 2014b). Il convient cependant de ne pas imposer une politique artificielle, mais d'harmoniser les pratiques déjà existantes, car le succès dépend de plusieurs éléments, comme la consultation et l'adhésion des utilisateurs (Scaglione 2016, p. 4).
Plan de gestion des données de la recherche
En raison de la part importante de la recherche et du développement au sein d’Alpes Lasers, il nous semble important de mettre en place un DMP pour chaque projet, aussi bien interne qu’externe. Il n’est cependant pas nécessaire d’en créer un de toutes pièces. C’est pourquoi nous proposons d’adopter celui conçu pour le programme d’Horizon 2020 (Commission européenne 2016, p. 5).
Plan de protection
Alpes Lasers a déjà pris certaines mesures, comme la conservation de documents sensibles dans un coffre d’une banque. L’adoption d’un plan de protection des documents essentiels permettra de systématiser et d’unifier la pratique.
Conclusion
L’enquête menée nous a permis de relever plusieurs éléments problématiques, tels qu’une organisation des dossiers propres à chaque unité, voire à chaque collaborateur, ou encore une absence d’élimination des informations obsolètes ou redondantes. Ceci pointe un manque de gouvernance claire chez Alpes Lasers, d’une vue d’ensemble du fonds documentaire et du cycle de vie. Le problème n’est pas propre à notre mandant et touche de nombreux organismes.
Pour pallier ce problème, nous avons proposé une série de recommandations qui relèvent finalement davantage du records management que véritablement de la gouvernance informationnelle. Cela n’est pas étonnant, puisqu’on peut considérer le records management comme le socle de la gouvernance de l’information (Pagnamenta 2014, p. 11). Enfin, nous tenons à rappeler que les recommandations proposées ne constituent pas une fin en soi, mais ne sont qu'une première étape. En effet, la gouvernance de l'information n'est pas un projet à court terme, mais doit être envisagée sur le long terme (Smallwood 2014, chap.1 ; GlassIG 2016).
Bibliographie
ARMA INTERNATIONAL, 2015. Principes de tenue des enregistrements (Generally Accepted Recordkeeping Principles). ARMA International [en ligne]. 2015. [Consulté le 2 août 2016]. Disponible à l’adresse : http://www.arma.org/r2/generally-accepted-br-recordkeeping-principles
BEAGRIE, Neil and PINK, Catherine, 2012. Benefits from Research Data Management in Universities for Industry and Not-for-Profit Research Partners [en ligne]. Charles Beagrie Ltd and University of Bath, novembre 2012. [Consulté le 01 juillet 2016]. Disponible à l’adresse : http://opus.bath.ac.uk/32509/
CHABIN, Marie-Anne, 2013. Le mètre linéaire, unité de mesure des archives. Transarchivistique [en ligne]. 26 mai 2013. [Consulté le 5 août 2016]. Disponible à l’adresse : http://transarchivistique.fr/le-metre-lineaire-unite-de-mesure-des-archives/
COMMISSION EUROPÉENNE, 2016. Lignes directrices pour la gestion des données dans Horizon 2020. openaccess.inist.fr [en ligne]. 15 février 2016. [Consulté le 22 juin 2016]. Disponible à l’adresse : http://openaccess.inist.fr/IMG/pdf/lignes_directrices_gestion_des_donnees_horizon_2020_version2._1_tr_fr.pdf
CONUS, Lina-Luz, 2013. Analyse des pratiques d'archivage au sein de la Mairie de Chêne-Bourg en vue de la mise en place d'un système de gestion des archives [en ligne]. Genève : Haute école de gestion de Genève. [Consulté le 17 avril 2016]. Disponible à l’adresse : https://doc.rero.ch/record/233050
CROCKETT, Margaret, FOSTER, Janet, 2004. Using ISO 15489 as an Audit Tool. The Information Management Journal [en ligne]. July/August 2004. Vol. 38, pp.46-53. [Consulté le 1er août 2016]. Disponible à l’adresse : http://www.arma.org/bookstore/files/CrockettFoster.pdf
DONNELLY, Martin, 2015. Research Data Management & the H2020 Open Data Pilot. In : UNIVERSITÉ DE CHYPRE. Open Access to research publications and data. Nicosie, 22-23 octobre 2015 [en ligne]. FOSTER, 2015. [Consulté le 5 juillet 2016]. Disponible à l’adresse : https://www.fosteropenscience.eu/content/research-data-management-h2020-open-data-pilot
FONDS NATIONAL SUISSE, 2007. Mission sur Mars, avec le Fonds national suisse. snf.ch [en ligne]. Février 2007. [Consulté le 8 août 2016]. Disponible à l’adresse : http://www.snf.ch/SiteCollectionDocuments/Dossiers/dos_Grundlagen_Mars_f.pdf
GLASSIG, 2016. What have we learned about Information Governance?. GlassIG [en ligne]. 24 février 2016. [Consulté le 23 juillet 2016]. Disponible à l’adresse : http://www.glassig.com/2016/02/24/learned-information-governance-1-3/
GROUPE INTERASSOCIATION AAF-ADBS « RECORDS MANAGEMENT », 2011. Le plan de classement des documents dans un environnement électronique : concepts et repères [en ligne]. Site de l’Association des archivistes français (AAF), 17 juin 2011. [Consulté le 6 juillet 2016]. Disponible à l’adresse : http://www.archivistes.org/Groupes-de-travail-et-commissions
HASSANALY, Parina, 2013. Management de l'information : quelle réalité pour les TPE/PME ?. Documentaliste-Sciences de l'Information [en ligne]. 2013/1 (Vol. 50), pp.46-47. ISSN 0012-4508. [Consulté le 15 juillet 2016]. Disponible à l’adresse : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2013-1-page-38.htm#s1n6
MAKHLOUF SHABOU, Basma, 2015. Politique de Gouvernance de l’Information. [document PDF]. 1er octobre 2015. Support de cours: Module 10 « Gouvernance de l'Information (GI) », Haute école de gestion de Genève, filière Information documentaire, année académique 2015-2016
MAKHLOUF SHABOU, Basma, [ca. 2016]. Guide d'entretien destiné au personnel du Système de Management Environnemental de l’Etat [document Word].
ORGANISATION INTERNATIONALE DE NORMALISATION, 2001. Information et documentation : "records management". 1ère éd. 2 vol. Genève : ISO, 15 septembre 2001. ISO/IEC, 15489.
PAGNAMENTA, Roxane, 2014. Gouvernance de l’information : définition, enjeux et perspectives en Ville de Genève [en ligne]. Genève : Haute école de gestion de Genève. Travail de master. [Consulté le 01 juillet 2016]. Disponible à l’adresse : http://doc.rero.ch/record/232841
PERREIN, Jean-Pascal, 2013. Définition de la gouvernance de l’information par des mots : Extrait du livre GouvInfo “Océan bleu”. 3org – Points de vue sur le flux Information [en ligne]. 2 avril 2013. [Consulté le 21 juillet 2016]. Disponible à l’adresse : http://www.3org.com/news/gouvernance_de_linformation/definition-de-la-gouvernance-de-linformation-par-des-mots-extrait-du-livre-gouvinfo-ocean-bleu/
PERREIN, Jean-Pascal, 2014. Les 5 piliers de la gouvernance de l’information. 3org – Points de vue sur le flux Information [en ligne]. 26 juin 2014. [Consulté le 23 juillet 2016]. Disponible à l’adresse : http://www.3org.com/news/gouvernance_de_linformation/les-5-piliers-de-la-gouvernance-de-linformation/
PERREIN, Jean-Pascal, 2015. L’instance de gouvernance de l’information trouve sa légitimité. 3org – Points de vue sur le flux Information [en ligne]. 13 janvier 2015. [Consulté le 2 août 2016]. Disponible à l’adresse : http://www.3org.com/news/flux_information/instance-de-gouvernance-de-linformation-trouve-sa-legitimite/
SCAGLIONE, Marc, 2016. Synthèse du questionnaire « Politique de nommage » [document PDF]. 17 mai 2016. Diffusé sur Swiss-lib Digest, Vol 85, Issue 10
SEUILLOT, Guillain, 2015. Retranscription de l’interview de Nicolas Grandjean sur les lasers. PodcastSciences.fm [en ligne]. 8 avril 2015. [Consulté le 28 juillet 2016]. Disponible à l’adresse : http://www.podcastscience.fm/dossiers/2015/04/08/retranscription-de-linterview-de-nicolas-grandjean-sur-les-lasers/
SMALLWOOD, Robert F., 2014. Information governance: concepts, strategies and best practices. Hoboken : Wiley, 2014. Wiley CIO series. ISBN 978-1-118218-30-3
UNIRIS, 2014a. Politique de records management et d’archivage pour une gouvernance informationnelle [en ligne]. Université de Lausanne, 30 juin 2014. [Consulté le 16 juillet 2016] Disponible à l’adresse : http://www.unil.ch/uniris/home/menuguid/a-telecharger/documents-de-reference.html
UNIRIS, 2014b. Politique de records management : Règles de nommage des documents électroniques [en ligne]. Université de Lausanne, 18 mars 2014. 7 novembre 2014. [Consulté le 16 juillet 2016] Disponible à l’adresse : http://www.unil.ch/uniris/home/menuguid/a-telecharger/pour-les-unites.html
- Vous devez vous connecter pour poster des commentaires
Big Data et intelligence économique : rendre le futur moins incertain : compte-rendu de la 13eme journée franco-suisse sur la veille stratégique et l’intelligence économique, 9 juin 2016, Genève
Ressi — 31 décembre 2016
Angélique Broye, Haute Ecole de Gestion, Genève
Cette 13ème journée franco-suisse sur la veille et l’intelligence économique avait pour but de montrer l’enjeu stratégique des Big Data aujourd’hui dans divers domaines tels le marketing, la santé, les transports publics, la gestion des risques et bien d’autres encore. En matière d’intelligence économique, les enjeux liés à l’exploitation des données du Big Data sont considérables. Ces données transforment les attentes des entreprises qui visent encore plus la performance et l’innovation.
C’est donc sur ce thème que la directrice de la Haute Ecole de Gestion de Genève, Madame Claire Baribaud, a ouvert cette journée de conférences devant la septantaine de personnes présentes dans l’aula du nouveau bâtiment de la HEG-Genève.
S’en est suivi le discours de bienvenue de Monsieur Nicolas Walder, maire de la ville de Carouge, se réjouissant de la continuation des liens franco-suisses par le biais du comité Jveille et invitant les participants à débuter l’écoute des conférences.
Big Data et prospective, par Thomas Gauthier
Monsieur Gauthier cherche à savoir quel est le rôle de l’anticipation pour une entreprise. Il explique qu’actuellement notre monde est devenu complexe. Ainsi, pour qu’une entreprise puisse garder ses clients, il faut qu’elle intègre dans ses produits et services des technologies informatiques qui évoluent vite. Mais il lui faut également des atouts qu’il lui faut chercher internationalement. Le plus important pour elle est donc d’élargir son intelligence et de construire des réseaux de coopération. De ce fait, il faut maintenant qu’une entreprise soit sans frontières.
En parallèle de cela, l’entreprise doit mettre en place une démarche de prospective. Cette dernière s’intéresse au présent et non au futur et doit permettre de mieux agir dans le présent en préparant l’avenir. Thomas Gauthier le démontre par l’exemple de l’entreprise Shell qui, dès les années 70, motive ses équipes à penser « l’impensable » en matière de scénarios catastrophes. Cette culture de la prospective permettra à la compagnie de faire face de manière efficace aux divers problèmes qu’elle a pu rencontrer et ainsi lui permettre une résilience plus aisée.
Cependant, cette démarche de l’entreprise doit concorder avec la complexité de notre monde actuel et pour cela, plusieurs outils d’appréhension de cette complexité ont été mis en place tels des analyses de tendances et signaux faibles, des analyses de jeux d’acteurs ou encore des diagnostics stratégiques et prospectifs de l’entreprise. Grâce à eux, les entreprises et les sociétés peuvent se faire une idée de leur pérennité et de leur situation future.
Pour développer cette prospective, il faut donc des données et notre monde en dispose toujours plus. Il y a donc là un nouveau gisement à exploiter et qui est de plus en plus facile à stocker. Cependant, il faut savoir exploiter ces données et ne pas tomber dans le piège des biais cognitifs et d’une attitude scientiste. La prospective interroge donc nos modèles mentaux. D’après Peter Drucker, pour prendre des décisions efficaces, il ne faut pas commencer avec des faits mais avec des opinions. Par la suite, nous obtenons des faits grâce aux critères de pertinence qui sont indispensables à cette tâche.
L’intelligence artificielle et le cognitive computing sont-ils réservés aux sociétés multinationales ? par Pierre Kauffmann
Pierre Kaufmann explique l’intelligence artificielle (IA) et le cognitive computing grâce à l’exemple de Watson, IA sur ordinateur créée par l’entreprise IBM. Cette intelligence a été testée lors d’un jeu télévisé de réponses à des questions, Jeopardy, qui l’opposait à deux concurrents humains. Le but pour la machine était de se battre sur la compréhension du langage humain. Elle devait donc comprendre le langage naturel. Pour cela, elle devait passer par une première phase d’analyse du texte de la question. Dans la deuxième phase, Watson tentait de comprendre ce que l’on cherchait. Lors de la troisième phase, il a recherché les informations qui répondaient à la question dans toutes les informations qu’il a intégrées dans son système. Finalement, il a dû décider entre toutes les réponses qu’il a obtenues laquelle était la meilleure pour répondre à la question. Et il a gagné le jeu.
Suite à cela, Watson a été considéré tellement performant qu’il a été commercialisé en 2015 dans le monde de la recherche et notamment de la médecine. En effet, dans ce domaine la machine peut se montrer d’une grande aide pour le professionnel de la santé. Elle lit toutes les publications disponibles sur un sujet donné, elle met les informations en relation et intègre toutes ces données. Le but de cela étant de pouvoir soigner le mieux possible un patient. De ce fait, elle met en relation les informations acquises avec celles concernant la personne devant être soignée afin de proposer le meilleur diagnostic possible. Enfin, elle conseille le médecin qui sera le seul à prendre la décision finale concernant le traitement du patient. La machine est donc là pour montrer les liens entre les données, pour guider et conseiller mais elle ne prend jamais la décision finale.
En 2016, l’IA passe au cognitive computing qui est une solution qui comprend, raisonne et apprend en interaction avec les humains. Elle est également capable de lire et de voir. Tout cela est possible grâce au grand nombre de données intégrées par la machine. Avec le cognitive computing, nous ne sommes plus dans le monde des machines ou des systèmes que l’on programme mais dans un monde où la machine s’adapte à l’environnement qui l’entoure grâce à l’interaction avec l’être humain.
Pour que le cognitive computing puisse prendre vie, il lui faut trois éléments : les données, les algorithmes et la puissance de calcul. Grâce à cela, il est en évolution permanente et peut traiter les données de manière toujours plus performante. De ce fait, le cognitive computing peut donc servir dans diverses situations comme dans les helpdesks afin de répondre aux questions du public et détecter ce qui peut être anormal dans une situation donnée. Il peut aussi servir dans le domaine de la santé grâce à la détection sur photo de potentiels mélanomes sur un corps humain. Une autre utilisation est possible avec le discovery advisor qui permet de travailler sur des modèles prédictifs afin de permettre aux entreprises de faire des économies.
La machine dispose donc de nombreux avantages car elle n’est pas fatiguée, elle peut répondre aux diverses interrogations en tout temps et elle gère une très grande quantité d’informations. Cependant, ces avantages s’arrêtent après un certain niveau de précision au-delà duquel elle a besoin de l’homme. C’est notamment le cas pour les questions d’opinion. Ce n’est donc pas encore aujourd’hui que la machine prendra le pas sur l’humain.
Le Big Data au service des tpg : amélioration de la performance et de la satisfaction client, et outil de prospective, par Antoine Stroh et Mickaël Chopard
Antoine Stroh et Mickaël Chopard expliquent qu’actuellement les transports publics genevois (tpg) observent une montée de la concurrence avec entre autres les CFF, Uber, le CEVA et Google Car. Ils ont donc décidé de se servir des données recueillies par leurs véhicules afin de maintenir leur position.
Avec le transport de près de 500'000 personnes par jour, la quantité de données obtenues est intéressante. En effet, chaque bus peut recueillir des informations par le biais du Wifi, du GPS, du ticketing, de la priorité au feu, de la radio et du système informatique. Le but premier de cette récolte de données était d’assurer la sécurité des voyageurs et de mieux communiquer avec eux. Mais s’est présentée pour les tpg, la question de l’exploitation de ces informations qu’il leur faut donc traiter, analyser afin d’améliorer leurs performances et éventuellement diffuser.
Les tpg sont déjà doués dans le métier du transport. La donnée doit donc leur apporter de la valeur et une vision complémentaire. Elle permet d’améliorer les connaissances et de trouver des solutions aux problèmes de ponctualité, de confort des voyageurs, de charge du véhicule mais aussi des conditions de travail des conducteurs, de leur temps de parcours et de battement.
Messieurs Stroh et Chopard mettent en avant le fait qu’aujourd’hui, avec internet et les smartphones, notre population est habituée à tout avoir rapidement. Les transports misent donc tout sur la ponctualité de leurs véhicules. De ce fait, un retard de bus peut provoquer une série de plaintes sur les réseaux sociaux et cela nuit à la réputation des tpg. Les données sont donc primordiales pour améliorer les services et donc par-là, la satisfaction et la relation client.
Les tpg pratiquent également l’open data. Le citoyen devient ainsi co-créateur et cette démarche permet à l’entreprise d’améliorer sa proximité avec le public, d’être transparente et d’induire une démarche d’innovation.
La valorisation des données permet donc d’aider les personnes à faire leur travail et à s’améliorer.
Le Big Data va-t-il changer les règles de l’intelligence économique ? par Loïc Gourgand
Loïc Gourgand explique que la société Spallian, pour laquelle il travaille, a accès à des bases de données non-exploitées jusqu’à aujourd’hui, qu’elle possède des fonds de cartographie et met en place des stratégies de smart data permettant d’extraire toutes les données utiles à l’entreprise. Par ailleurs, Spallian fait des études de géomarketing et pratique la smart gouvernance. Le but étant d’utiliser la prospective pour avoir un avantage concurrentiel dans le futur. Spallian obtient également ses données en temps réel qu’elle peut exploiter afin de conseiller et d’aider les entreprises qui la mandatent.
Pour tous ces services, Spallian crée des dashboards sur mesure pour ses clients qui intègrent des données en temps réel.
Afin d’obtenir toutes ces informations, elle dispose de plusieurs outils qu’elle a créé. Le premier est un outil Stat’ permettant l’extraction de données et leur traitement en masse. Cela permet à l’entreprise de traiter toutes les données dans un même endroit.
Ensuite, vient Corto qui permet de pratiquer la cartographie analytique. L’exemple d’utilisation de cet outil donné par Monsieur Gourgand concerne un projet d’implantation d’un groupe immobilier dans un parc. Un des buts de ce groupe était de savoir si l’endroit était rentable et sécurisé. Pour vérifier cette dernière donnée, Corto a pu fournir à Spallian une cartographie des données enregistrées par la police concernant des actes malveillants perpétués dans et aux alentours de cette zone.
L’outil a aussi permis de prendre des décisions à court terme notamment dans l’exemple de sécurisation des agences d’une banque lors de l’Euro 2016. Pour ce faire, Corto a répertorié les fanzones, a géolocalisé les réseaux de transports et a finalement couplé les localisations des agences de la banque afin de savoir lesquelles se trouvaient en zone de danger. Cela a permis à la banque de pouvoir prendre des mesures de protection pour les sites concernés.
En plus de cela, Spallian développe des produits permettant l’utilisation de données mobiles. Notamment lors de l’épidémie d’Ebola, un système d’alerte a pu être mis en place afin de géolocaliser des personnes travaillant pour une certaine entreprise dans les zones à risques.
Pour mener à bien ses projets, Spallian dispose d’un département de data scientists qui vérifient les données récoltées. En effet, les outils doivent toujours être mis à jour. De plus, l’entreprise dispose également de personnel formé dans le marketing ou la gestion afin de répondre au mieux aux attentes des clients et aux exigences marketing de l’entreprise.
Par ces exemples, nous pouvons voir dans quelles mesures l’exploitation de Big Data permet de gérer au mieux la sécurité d’une entreprise ou d’une personne mais également d’aider des sociétés et des entreprises à prendre des bonnes décisions, ce qui est aussi une des finalités de l’intelligence économique.
Détection systématique de communautés à l’échelle de Twitter, par Clément Levallois
Clément Levallois explique que Twitter dispose aujourd’hui de 117 millions d’utilisateurs actifs. Ce réseau est très riche en métadonnées grâce aux tweets et aux profils des utilisateurs. Ces éléments permettent aux chercheurs des universités de mener à bien diverses recherches concernant les perceptions d’une marque par les utilisateurs à travers leurs tweets. Il est possible de savoir si une marque est perçue comme écologique en suivant par exemple tous les comptes twitter concernant la marque et tous ceux propres à Greenpeace. En les comparants, c’est-à-dire en regardant si les personnes qui suivent les activités de l’une suivent aussi celles de l’autre, il est possible de répondre à cette question. Notamment en utilisant divers outils présents sur le marché tels Tweetdeck, Bluenod et Visibrain qui permettent de visualiser les communautés de Twitter.
Monsieur Levallois a mené un projet à l’EM-Lyon Business School visant à combler le vide que laissent ces outils. En effet, ces derniers répondent aux demandes faites mais sans vraiment résoudre le problème de la visualisation des communautés. Le but de ce projet était donc d’obtenir, via une carte, une visualisation complète de Twitter pour ensuite détecter les communautés du réseau à une échelle globale. Cela devrait permettre de savoir quels types de communautés parlent de quelle marque mais aussi de comprendre comment une publicité ou un buzz se propage dans le monde. Les réponses à ces questions devraient être disponibles prochainement.
Cependant, les données relationnelles entre utilisateurs de Twitter sont, à l’heure actuelle, difficiles à acquérir. Des substituts ont été imaginés mais sans succès car toute la difficulté est de réussir à suivre les relations entre utilisateurs et de détecter les biais. On estime que les données relationnelles sont pertinentes lorsque les utilisateurs partagent trois listes en commun.
Avec ce projet, Clément Levallois souhaite mettre à disposition du public une carte réseau via un site web ou une API. Cette carte sera remplie au fur et à mesure grâce à la collaboration d’entreprises au projet.
Par cet exemple, nous pouvons observer à quel point le Big Data peut aider des marques à développer leur marketing, cibler leur public et diffuser leur publicité d’une façon plus précise.
Conclusion
Grâce aux exemples des conférences données lors de cette 13ème journée franco-suisse sur l’intelligence économique, nous avons pu constater que la multiplication des données ces dernières années est une nouvelle source d’information permettant aux entreprises de mieux s’armer aujourd’hui pour le monde de demain. La prospective est d’ailleurs un élément non négligeable que cette accumulation de données permet de préciser.
Ces Big Data permettent d’améliorer les services et les performances, mais aussi de trouver les problèmes à résoudre. Par le biais de l’intelligence artificielle et du cognitive computing, elles peuvent faire gagner du temps aux professionnels de divers métiers tout en renforçant leurs compétences décisionnelles. En étant utilisées comme dans l’exemple des tpg, elles permettent d’améliorer les performances d’une entreprise et lui permettent de se maintenir en position de concurrence. Les Big Data sont également très utiles pour une marque souhaitant se démarquer sur les réseaux sociaux et cibler au mieux ses différents publics.
Finalement, quand on sait exploiter ces informations convenablement, elles servent également dans le domaine de choix d’implantation et de sécurité comme l’a démontré l’entreprise Spallian avec ses nombreux exemples.
Nous pouvons donc conclure que les Big Data bien exploitées permettent d’avoir une meilleure prise sur l’avenir et donc, de « rendre le futur moins incertain ».
- Vous devez vous connecter pour poster des commentaires
L’archivage du web : présentation des méthodes de collecte et recommandations pour l’accès aux contenus –et leur structuration-
Ressi — 31 décembre 2016
Jonas Beausire, Haute Ecole de Gestion, Genève
Résumé
Cet article – synthèse d’un travail de bachelor – consiste en l’établissement d’un panorama des grandes approches méthodologiques et stratégies de collecte de l’archivage du web, une analyse des attentes et des résistances du public des chercheurs face à ces nouvelles archives et la présentation de pistes d’innovations et de recommandations pour mieux appréhender l’archivage du web.
Les approches de l’archivage du web sont exposées : intégrale, exhaustive, sélective et thématique. Elles se combinent souvent sur le terrain mais doivent être repensées pour être renouvelées. Chacune d’entre elles peut être accompagnée d’une stratégie de collecte : automatisée, semi-automatisée ou manuelle.
Les attentes des chercheurs, leurs besoins et résistances sont mis en lumière par des résultats d’enquêtes. Si la communauté scientifique s’accorde sur la nécessité de constituer une mémoire du web, la fiabilité et la légitimité des collections issues du web cristallisent les résistances exprimées par les chercheurs. Globalement, les questions épistémologiques et méthodologiques pour inscrire ces archives dans un usage scientifique établi ne sont pas encore résolues.
Enfin, des recommandations techniques et conceptuelles sont abordées : elles mettent notamment l’accent sur la construction d’interfaces d’accès et la description des archives et de leur contexte grâce, en particulier, aux métadonnées. Une variété d’outils d’analyse du web constitue également des leviers privilégiés pour exploiter et mettre en valeur les futures archives du web.
L’archivage du web : présentation des méthodes de collecte et recommandations pour l’accès aux contenus –et leur structuration-
Introduction
Les questions soulevées par l’archivage du web préoccupent les acteurs du monde de l’information depuis presque vingt ans maintenant. Il est aisé de situer dans le temps les prémices des réflexions qui entourent les questions d’une mémoire du web. En effet, des initiatives comme celle, bien connue et la plus ancienne de toute, de la fondation « Internet Archive »[1] ont pris naissance dès 1996 dans un climat d’urgence à se saisir des nouvelles traces qui faisaient déjà la mémoire de la fin du XXe siècle (Peyssard 2012). La multiplication des ordinateurs connectés durant la bulle Internet jusqu’en 2000 confirmera la nécessité de sauvegarder les contenus désormais « nés numériques » du prochain millénaire.
L’établissement, durant la première décennie du XXIe siècle, de programmes d’archivage du web institutionnalisés (le plus souvent au sein de bibliothèques nationales) va peu à peu voir opérer un changement de paradigme essentiel : de la numérisation généralisée du patrimoine, il s’est agi de patrimonialiser le (né) numérique. Ce passage, symptôme de la légitimation de ces nouvelles archives, n’est pas sans poser un catalogue de questions : Comment préserver ces nouveaux documents ? Selon quelles logiques documentaires ? Comment les conserver de façon pérenne ? De quelles façons les rendre accessibles et à qui ? Au fond, comment prendre en charge une masse documentaire exponentielle, qui a valeur de patrimoine, et qui ne cesse de disparaître de plus en plus rapidement ?
Si désormais les contenus nés numériques préoccupent les institutions patrimoniales et constituent un segment de notre mémoire collective, les différents acteurs concernés par leur archivage pointent également une autre réalité : la disparition du web d’hier est toujours plus importante. En effet, les documents et données issus du web sont aujourd’hui trop souvent inaccessibles, hantés par le spectre de l’erreur http 404 (fichier introuvable) ; la durée de vie moyenne d’une page web avant modification ou suppression est d’environ cent jours (Laporte, Kahle, 2011)[2]. La dimension fragile, fuyante et nomade de ces documents exhorte les archivistes, les bibliothécaires et les chercheurs à penser de nouveaux modèles de collecte et plus largement à assimiler de nouveaux lieux de notre mémoire collective.
Les sources mobilisées pour la réalisation de ce travail proviennent majoritairement du web et étonnent souvent par leur complexité lorsqu’elles sont destinées au public de l’ingénierie informatique, par exemple. Le caractère fondamentalement transdisciplinaire des entreprises d’archivage du web se traduit dans la pluralité des publics auxquels s’adressent les ressources scientifiques disponibles sur le sujet. Les publications liées aux activités de l’International Internet Preservation Consortium (IIPC)[3] demeurent le réservoir privilégié des ressources disponibles aujourd’hui, associant souvent études de cas et réflexions holistiques sur l’archivage du web. Les trois axes majeurs de travail du consortium rejoignent ceux associés au circuit du document en bibliothèque : collecte, consultation et préservation (Illien 2011). Par ailleurs, certains médias, spécialisés ou non, soulignent peu à peu les enjeux de la sauvegarde de cette mémoire numérique et cherchent à sensibiliser des publics plus divers et moins avertis.
Au carrefour des enjeux d’accessibilité, de représentativité, de légitimité et de fiabilité des documents nés numériques, cet article[4] se propose de dégager les grandes approches méthodologiques et stratégies de collecte de l’archivage du web à l’œuvre aujourd’hui, mises en regard avec les programmes de la Bibliothèque nationale suisse (BN) et de la Bibliothèque nationale de France (BnF). Il analysera les attentes et les résistances du public des chercheurs face à ces nouvelles archives et enfin présentera des pistes d’innovation et des recommandations pour mieux appréhender l’archivage du web.
Cadre théorique
Il est possible d’identifier aujourd’hui de grandes approches et stratégies de collecte. Une typologie conceptualisée par Thomas Chaimbault (enseignant à l’ENSSIB) offre à voir un panorama des stratégies et modes de dépôt (voir tableau récapitulatif n°1, p. 5) développés par différents établissements nationaux et soutenus par des consortia (Chaimbault, 2008).
En rappelant que ces approches demeurent de purs cadres théoriques et qu’elles doivent être renouvelées – notamment en raison des mutations techniques extrêmement rapides du web – il est également à souligner que les réalités du terrain sont multiples et mêlent bien souvent plusieurs approches et stratégies pour répondre aux besoins spécifiques d’un seul et même programme d’archivage du web.
Les approches
L’approche dite « intégrale » consiste à collecter l’entier du web, sans distinction ni critère de sélection. Les questions liées à une valeur patrimoniale des documents sont évacuées au profit d’un projet de pure exhaustivité. Le projet « Internet Archive » en est aujourd’hui l’exemple unique et concentre la plus large audience des collections issues du web au travers de son interface d’accès aux documents d’archive, la « Wayback Machine »[5]. Avec près de 273 milliards de pages web collectées (Internet Archive, 2016) et au centre d’un partenariat qui la lie avec près de 440 organismes partenaires, la fondation s’inscrit dans un double mouvement, à la fois celui de la collecte autonome, mais également celui d’un échange continu avec d’autres organisations de collecte. (Leetaru, 2016)
L’approche « exhaustive », quant à elle, vise également une certaine idée de la complétude mais dans un périmètre circonscrit, celui d’un nom de domaine, d’un espace national particulier ou, moins souvent, d’un type de sites. Cette approche, relativement répandue, s’intègre facilement dans les missions d’une institution patrimoniale comme les bibliothèques nationales mais cristallise les ambiguïtés liées à la territorialité du web : des contenus web particulièrement signifiants peuvent être enregistrés sous un nom de domaine hors collecte, par exemple.
A l’inverse des deux précédentes approches, celle dite « sélective » consiste à se saisir de contenus prédéfinis au moyen de critères choisis extrêmement variés : thématiques, en lien avec la nature de la ressource, qualitatifs, etc. Cette approche rompt avec un certain souci d’exhaustivité et se propose de compiler régulièrement des instantanés de sites répondant aux critères de sélection choisis.
Enfin, l’approche « thématique » doit se comprendre comme un embranchement particulier de l’approche sélective : il s’agit d’archiver une collection de sites web en lien avec un événement spécifique. Les collectes des sites web et autres ressources liés aux élections présidentielles françaises menées par la BnF illustrent parfaitement cette approche. (Greffet, 2012) Sa logique renvoie directement à la notion de « collection », voire de « fonds d’archive » puisqu’il s’agit bien pour les bibliothécaires de sélectionner et d’éliminer en vue de former un corpus cohérent, pouvant ainsi former de véritables « produits d’appel » tournés vers un public encore aujourd’hui embryonnaire (Illien, 2008).
Les stratégies
Parallèlement aux différentes approches décrites, Thomas Chaimbault dégage également trois stratégies de collectes différentes. La stratégie « automatisée » qui engage la mise en place d’un logiciel-robot (moissonneur et collecteur du web) : un espace web circonscrit à un domaine choisi est ainsi collecté de façon automatique. Cette stratégie accompagne généralement des approches intégrales ou exhaustives de l’archivage du web. La stratégie « semi-automatisée » implique également l’usage d’un logiciel-robot mais ajoute à son utilisation des critères de sélection plus précis ; elle peut être mobilisée dans le cadre d’une approche sélective du web. Enfin, l’approche « manuelle », même si elle exige également des ressources techniques, replace l’humain au centre des processus de collecte ; les bibliothécaires sont amenés à sélectionner eux-mêmes les sites pertinents. Cette logique combinatoire est essentielle dans le contexte d’une approche thématique.
En assignant la typologie de Thomas Chaimbault au programme d’archivage de la BN, on peut aisément le qualifier de sélectif et thématique. En effet, dans la tradition des Helvetica, la collection « Archives Web Suisse » regroupe en grande majorité des sites web patrimoniaux et helvétiques, selon un périmètre et des critères décidés collégialement. En rejetant tout projet d’exhaustivité et en cartographiant les sites archivés au moyen d’un catalogue de grands principes de sélection et d’exclusion[6], la BN se distingue radicalement de la BnF. En effet, l’institution française combine trois approches : exhaustive, sélective et thématique qui renvoient à autant de modes de collecte. Exhaustive car la BnF procède à des collectes dites « larges » qui moissonnent l’entier du nom de domaine français, mais superficiellement en ce qui concerne la profondeur des sites. Sélective et thématique lorsque la BnF mène ses collectes dites « ciblées » qui visent à s’emparer des sites en profondeur et à une fréquence plus élevée, choisis pour leurs contenus signifiants. (BnF, 2015)
Table 1 : Récapitulatif des grandes approches et stratégies
Stratégie automatisée | Stratégie semi-automatisée | Stratégie manuelle | |
Approche intégrale |
|
Néant | Néant |
Approche exhaustive |
|
Néant | Néant |
Approche sélective | Néant |
|
Néant |
Approche thématique | Néant | Néant |
|
Un cadre légal différencié, des usages communs
Au cœur du régime différencié des programmes de la BN et de la BnF, réside le cadre légal sur lequel repose les approches mises en œuvre. En effet, ce dispositif structure largement les possibilités des deux institutions. Il est également le reflet d’une « accréditation culturelle de l’éphémère » (Merzeau, 2003). L’absence de dépôt légal suisse au niveau national implique pour la BN une approche sélective et thématique du web. A l’inverse, le dépôt légal du numérique permet à la BnF de s’emparer indifféremment de la quasi-totalité de la production éditoriale numérique française, tendant à une forme d’exhaustivité sans jugement de valeur documentaire. L’accessibilité des archives est une conséquence directe du cadre législatif différent de chacune des deux bibliothèques : la BnF est contrainte d’encadrer son accès pour protéger le droit d’auteur des contenus qu’elle moissonne, alors que la BN est plus souple puisque les accords des producteurs ont été obtenus préalablement.
Il est à noter que l’approche dite « thématique » est partagée par les deux institutions : dans les deux cas, des bibliothécaires sélectionnent en amont les sites signifiants et tentent de former des collections parfois thématiques ou gravitant autour d’événements majeurs. Certains outils informatiques et des préoccupations liées à la profondeur de l’archivage sont partagés par les deux bibliothèques. Le rapprochement s’opère également sur le plan international puisque la BN et la BnF sont membres du Consortium IIPC au travers duquel elles collaborent. Comité de pilotage et groupes de travail au sein de ce consortium sont autant de lieux d’échanges et de retours d’expérience, notamment concernant l’usage de divers logiciels développés par certains membres.
Besoins, attentes et résistances des chercheurs
Le public des nouvelles collections issues des différents programmes de l’archivage du web demeure une question centrale. Si des publics variés peuvent aujourd’hui consulter ces nouvelles archives, celui des chercheurs scientifiques semble être le plus important. (Chevallier, Illien, 2011) (Aubry et al. 2008) De nombreuses questions sont soulevées par ce public particulier : un site Internet peut-il réellement constituer une source fiable ? Quelle procédure existerait-il pour valider la qualité d’une telle source ? Comment justifier le choix de convoquer tel site plutôt qu’un autre dans une sitographie ?, etc. (Chevallier, Illien, 2011)
Malgré des attentes contradictoires et des réticences notamment méthodologiques et épistémologiques, la communauté scientifique semble s’accorder sur la nécessité de travailler avec le numérique, de s’interroger sur les conditions d’une meilleure appréhension du patrimoine numérique natif et sur la conservation de nouvelles formes d’expressions numériques. (Joutard, 2013) La conservation d’une mémoire du web nécessite une reconceptualisation des modèles traditionnels de l’archivage en les pensant spécifiquement pour les documents numériques natifs. Les pertes de certains contenus nés numériques et les liens morts inquiètent certains acteurs du monde académique, notamment les historiens, qui voient disparaître des ressources à durée de vie limitée. Les doutes et les interrogations se cristallisent majoritairement autour de la fiabilité de ces nouvelles archives dont les contours documentaires peinent à être scientifiquement définis ; en effet, même si certains chercheurs s’accordent autour du bien-fondé de l’archivage des sites institutionnels et des blogs, les actions ou traces individuelles laissées sur le web sont considérées avec davantage de circonspection. (Chevallier, Illien, 2011) C’est bien entendu la question irrésolue de la légitimation du statut de collection de ces archives qui se pose ici en filigrane. Ainsi, l’organisation, la hiérarchisation, voire la discrimination des contenus du web sont attendues de la part des chercheurs pour considérer plus sûrement les nouveaux corpus. La variété des contenus agrégés exige des efforts organisationnels majeurs pour un usage scientifique de ces données. (Leetaru, 2016) La bibliothèque peut endosser un rôle important dans ce processus de légitimation. (Illien, 2011)
Plus concrètement encore, ce sont les difficultés d’accès, autant physiques que techniques, qui préoccupent les chercheurs : le supposé déplacement au sein des bibliothèques dépositaires des fonds et les interfaces difficiles à prendre en main empêchent trop souvent le public de s’approprier ces nouvelles ressources. L’indexation plein texte constitue toujours la voie d’accès privilégiée aux volumes exceptionnels de ces collections, malgré les insatisfactions récurrentes liées aux technologies utilisées (Gomes, Miranda, Costa, 2011). Enfin, l’instabilité du média Internet, la volatilité des données et la difficulté à traiter de gros volumes de données souvent très hétérogènes constituent les principaux freins méthodologiques rencontrés par le monde de la recherche (Mussou 2012).
Recommandations techniques et innovations
En dehors des grandes initiatives nationales et des projets circonscrits à une institution donnée, l’IIPC peut être considéré comme un laboratoire d’innovations incontournable sur la scène internationale. Cet organisme a notamment pour but de sensibiliser aux enjeux liés à la conservation des ressources nées numériques. (Bonnel, Oury, 2014) De nombreuses sources sont accessibles par le biais de cet institut : articles, études de cas et conférences enrichissent des sources souvent disparates sur l’archivage du web. Le lieu des innovations en matière de conservation du web se situe ainsi surtout dans le cadre de collaborations internationales.
Quelques outils du « web vivant »
Il existe aujourd’hui de nombreux outils de pointe pour appréhender, étudier et investir le « web vivant », par opposition au web archivé. Mais comment valoriser, analyser et exploiter des collections issues du web ? Des chercheurs de l’« Oxford Internet Institute »[7] proposent de transposer certains de ces outils aux archives du web (Meyer, Thomas, Schroeder, 2011). Nous en retenons ici quelques-uns :
La visualisation peut constituer une fenêtre d’accès inédite aux archives. Dans l’esprit des infographies, elle permettrait de visualiser la façon dont les différentes archives sont reliées entre elles. Un fort développement de cet outil pour le web vivant existe déjà. La recherche profonde, quant à elle, permet d’interroger finement de gros ensembles de données. La prolifération des informations postées (puis archivées) exigerait ainsi de nouveaux moyens d’accès à de très gros volumes d’informations. Les outils d’analyse des réseaux sociaux (SNA) n’ont pas été adaptés aux archives. Ceux-ci pourraient permettre aux archivistes du web l’analyse des liens hypertextes comme révélateur de la structure des interactions des différents sites web composant leurs collections. Les liens et leur analyse expriment quelque chose de la nature du réseau, de ses jeux d’interactions. Enfin, cette analyse pourrait être complétée par l’archivage des liens et autres annotations qui pointent vers les sites archivés afin d’observer leurs évolutions dans le temps.
D’autres pistes d’innovation sont énoncées au sein de l’étude de Meyer, Thomas et Schroeder (2011) : la première est celle dite du « web cumulatif » : il s’agit de considérer le web archivé littéralement en parallèle du web vivant. Cette organisation en filigrane de couches d’archives viendrait combler la fragmentation et les trous du web (comme les liens morts qui désormais pointeraient vers la ressource archivée). Cette piste, relativement utopique, supposerait un changement structurel et profond du web.
S’il est aujourd’hui possible de comprendre l’organisation et les usages des sites présents sur le web et de consulter certains d’entre eux qui n’existent plus, il demeure impossible encore de comprendre l’usage passé des archives du web. Afin d’y parvenir, les chercheurs proposent d’archiver également les journaux des serveurs (« servers logs ») des sites d’archivage du web. De cette façon, il deviendrait possible de comprendre et d’étudier comment les archives du web ont été ou sont utilisées. En conservant le web d’hier, mais également les usages associés à ce web disparu, il serait possible de combler l’une des attentes exprimées par les chercheurs sur la nécessité d’interroger les pratiques scientifiques qui entourent ces nouvelles archives.
Un autre usage possible des archives du web est celui de ses images et de son fort potentiel visuel. Il s’agirait de saisir certains changements du monde au travers des images circulant sur la toile. En extrayant sur une certaine durée des images d’archives d’un même objet, cela permettrait de superposer les clichés et de proposer un rendu visuel de l’évolution de l’objet.
L’exploitation statistique des archives constitue également une opportunité majeure. Quels sont les outils d’analyse à mettre en place pour faire parler de très importantes collections d’archives du web ? Comment ces outils statistiques permettraient de mieux comprendre la structure des collections et conséquemment celle du web en général ? En s’intéressant, par exemple, aux langues des sites web ou à leur date de création, il serait possible de dégager de grandes tendances structurelles du web. Les travaux d’analyse menés par l’ « Observatoire du dépôt légal » de la BnF[8] sur ses collectes larges s’inscrivent dans cette logique statistique.
En lien avec une analyse structurelle du web, il serait possible de rendre compte de la prolifération d’une idée sur le web, de sa viralité et de ses déplacements. Pour repérer et comprendre où les idées surgissent et comment elles se propagent sur le web, il faut pouvoir remonter à l’origine de l’idée. Cette archéologie suppose une profondeur et une granularité des archives très importantes. Dans cette perspective, la temporalité du web, c’est à dire le tempo des publications et les hyperliens qui les relient, doit être archivée. Sans une profondeur suffisante de l’archivage, cette dimension est impossible à extraire des archives.
Enfin, la question du web illicite interroge les chercheurs sur la meilleure façon de rendre compte de ces matériaux circulant sur le web. Les contenus sexuels illicites, sur les drogues, sur les groupes prônant la haine raciale, le terrorisme, etc. sont nombreux. Quelle entité serait habilitée à prendre en charge leur archivage et dans quel cadre juridique ? Ce genre d’archive pourrait autant intéresser des chercheurs que certaines autorités, la justice ou encore les professionnels de la santé, par exemple. L’enjeu réside ici dans la mise en place d’un mécanisme juridique pour protéger et légitimer l’institution garante de ces documents au contenu illégal, et qui saurait mettre en valeur leur intérêt scientifique. (Meyer, Thomas, Schroeder, 2011)
Interfaces, accessibilité et contextualisation
Malgré de nouvelles perspectives pour l’exploitation de la mémoire du web, les chercheurs constatent une absence globale d’interfaces stables et conviviales pour construire et accéder à de solides archives du web[9]. Dans ces conditions, le déploiement des différentes initiatives demeure compliqué. Plusieurs études (Bonnel, Oury 2014 ; Leetaru, 2012) insistent sur l’opportunité de mettre en place des interfaces d’accès aux archives les plus efficaces possibles, qui sachent explorer de très gros volumes de données. Selon Leetaru (2012), l’interface de Twitter constituerait un modèle standardisé très simple d’utilisation. Ces interfaces doivent également être spécifiquement pensées pour les chercheurs qui formeront sans doute une communauté importante se saisissant de ces archives. Toujours dans la volonté d’offrir une voie d’accès améliorée aux archives, c’est bien une description fine des collections au travers de métadonnées variées qui constituera une mise en valeur des fonds. Cette pratique suppose que les administrateurs des programmes connaissent précisément le contenu de leurs archives, ce qui n’est pas toujours le cas, surtout dans le cadre d’approches exhaustives ou intégrales.
Si les chercheurs se saisissent petit à petit de ces nouveaux contenus et citent désormais des sources provenant de celles-ci, il s’agit donc de penser également à la normalisation de ces citations. Cette préoccupation participe au travail de leur légitimation, qui ne doit pas échapper aux usages actuels de référencement des sources traditionnelles. La mise en place d’un identifiant unique et permanent de chaque page web archivée participerait à un système de citation efficace dans les publications scientifiques. Comme pour la citation des pages du web vivant, certaines métadonnées comme la date de capture de la page sont essentielles pour la constitution de notices complètes. Certaines tentatives basées sur les standards MLA et impulsées par Internet Archive vont dans ce sens aujourd’hui[10].
Si les choix documentaires d’acquisition des bibliothécaires sont longtemps restés opaques pour le grand public, il serait envisageable de renverser cette tendance en documentant les biais, souvent algorithmiques, des crawlers et autres robots qui moissonnent le web pour l’archiver. De la même façon qu’une transparence des politiques documentaires, la mise en lumière de certains détails techniques propres à un programme peuvent contextualiser telle ou telle collection. (Leetaru 2016) Parfois, la date d’archivage d’un site peut ne pas correspondre à la date de capture du même site. Cette réalité peut constituer un biais majeur pour l’étude d’une chronologie exacte de l’évolution d’un site. Si l’on cherche à comparer, par exemple, le nombre de pages traitant de la candidature d’un politicien à une élection avec celui d’un concurrent, les résultats obtenus peuvent ne pas correspondre avec la réalité du web d’alors. Le nombre d’occurrences peut être influencé par certaines politiques d’archivage, par l’algorithme selon lequel le robot moissonne le web, etc. La documentation des archives du web doit éclairer ces potentiels biais techniques. Si on donne à un chercheur la possibilité d’accéder au «journal» du crawler, il pourrait connaître les lieux où le robot a peut-être buté contre tel ou tel contenu : les zones blanches des archives peuvent recéler un sens précieux pour ceux qui les étudient. Par ailleurs, si beaucoup de sites dits « dynamiques » adaptent leurs contenus en fonction de l’emplacement physique de l’internaute, la géographie du robot doit également être un élément de contexte documenté pour les utilisateurs des archives du web ; elle influe directement sur les contenus affichés (et donc collectés), l’ordre des pages, etc. En d’autres termes, un crawler installé en Russie ne collectera pas les mêmes contenus qu’un autre localisé en France.
En définitive, l’ensemble de ces préoccupations techniques renvoie à la question de l’archivage du contexte de l’archive. Les liens sortants d’un site archivés donnent à voir un écosystème global dans lequel le site en question se déploie. Les métadonnées associées ou la localisation du crawler s’inscrivent dans cette même logique. A titre d’exemple, l’archivage des documents audiovisuels du web pratiqué par l’INA suppose l’intégration de paratextes qui vont définir et aider à interpréter et s’approprier les documents d’archive. (Carou, 2007) C’est également une attente spécifique des chercheurs, qui souhaitent pouvoir accéder à toute une série de données contextuelles comme l’URL, la date de capture, la place de la page capturée dans le site, l’arborescence ou encore des statistiques de vue. (Chevallier, Illien, 2011) En conservant le contexte, l’archive fait sens et peut faire rayonner tout son pouvoir mémoriel et remplir sa fonction cardinale de témoignage.
Archives sociales, fonction d’authentification et pédagogie
Suite à l’avènement d’un web ultra collaboratif où les échanges et les commentaires constituent le régime privilégié des internautes, la dimension sociale représente aujourd’hui une part substantielle de l’écosystème global d’un site. Les interactions sociales qui entrent en résonnance avec les documents présents sur le site doivent également être archivées, en mesurant, bien entendu, le perpétuel enrichissement de ses espaces d’interaction. (Meyer, Thomas, Schroeder, 2011)
Les archives du web pourraient également constituer, à terme, un potentiel agent d’authentification. En effet, elles pourraient pointer, par exemple, les changements intervenus sur une page dans un jeu de comparaison entre une page « primaire » (archivée à un moment t) et une page consultée sur le web vivant. Ce travail comparatif prendrait tout son sens dans le contexte mouvant du web. Les pages des sites gouvernementaux ou médicaux et leurs évolutions pourraient ainsi être authentifiées par les archives qui, une fois de plus, rempliraient leur objectif de garantie d’authenticité du document. (Meyer, Thomas, Schroeder, 2011)
Enfin, afin de sensibiliser les plus jeunes aux enjeux de l’archivage du web, des programmes impliquant des élèves dans l’élaboration de collections d’archive du web ont été mis en place.[11] (Reynolds, 2013) Il s’agit de rendre attentives les futures générations à l’importance de ce patrimoine nouveau. Les « digital natives » doivent prendre conscience que les contenus produits sur le web ne sont pas éternels et qu’une importante partie de notre mémoire collective se crée, circule et meurt parfois sur la toile. Gageons que cette génération, si active sur le web et coutumière de la richesse de ses contenus, mesurera plus facilement les enjeux d’une sauvegarde de la mémoire numérique que ses aînés.
Conclusion
A ce jour, quatre grandes approches de l’archivage du web peuvent être identifiées : intégrale, exhaustive, sélective et thématique. Chacune d’entre-elles peut parfois être accompagnée d’une stratégie de collecte particulière : automatisée, semi-automatisée ou manuelle. Ces différentes approches constituent des cadres théoriques qui se combinent parfois sur le terrain et qui doivent se renouveler et s’adapter notamment à de nouvelles réalités de l’archivage des documents nés numériques.
Les chercheurs ont tout à la fois des attentes et des résistances : quoiqu’issus d’horizons disciplinaires différents, ils s’accordent sur la nécessité de conserver une mémoire du web, alors même que la disparition des documents nés numériques inquiète certains d’entre eux. C’est autour d’une politique documentaire pensée pour former des collections qui n’apparaissent pas toujours comme légitimes ou fiables aux yeux des chercheurs que la sélection des contenus doit s’articuler. La difficile prise en main des interfaces d’accès à ces archives doit être résolue pour faire rayonner toute la richesse de ses contenus. Un échange des usages et des compétences à l’international peut y répondre, comme on le constate au sein de l’IIPC.
Des outils d’analyse du web vivant comme la visualisation des contenus, la recherche au sein de gros ensembles de données ou l’analyse des réseaux sociaux, sont autant de leviers à activer et transposer pour exploiter et mettre en valeur les collections des archives du web. D’autres pistes d’innovations, comme l’archivage des journaux des serveurs pour comprendre l’usage passé des archives, l’exploitation statistique des archives ou encore l’observation de la prolifération d’une idée sur le web forment un avenir prometteur des archives du web. Les interfaces d’accès constituent à la fois les vitrines des collections et les portes d’accès principales aux contenus ; exploratrices de gros volumes de données, elles doivent être sans cesse repensées pour garantir un accès toujours plus facilité. Le travail de description des archives et des robots-crawler et l’inscription systématique de métadonnées sont des recommandations centrales et récurrentes dans les études. L’archivage du contexte de ces archives répond aux attentes des chercheurs et tend à inscrire ces nouveaux corpus dans une tradition théorique archivistique, notamment concernant leur fiabilité.
L’établissement d’une mémoire numérique apparaît sinon urgent, du moins légitime. Il demeure plus que jamais nécessaire de poursuivre les efforts de recherche autour des nombreuses questions posées par les programmes d’archivage du web : la complexité des processus à mettre en œuvre, les innovations technologiques associées, les politiques et les choix documentaires, mais également la place des professionnels de l’information dans les mécaniques d’archivage sont des enjeux majeurs.
En concentrant un maximum les actions du quotidien d’une société sur son réseau, Internet tend à devenir un lieu de notre histoire mondiale. La trace, le signe ou l’indice numérique nous invitent plus que jamais à considérer le web et son archivage comme une véritable archéologie des pratiques humaines.
[1] Pour davantage d’informations sur le projet et pour notamment accéder à la « Wayback machine », consulter : https://archive.org/index.php
[2] D’autres chercheurs présentent des chiffres moins alarmistes mais néanmoins préoccupants : 80% des pages sont mises à jour ou disparaissent après un an. (Gomes, Miranda, Costa, 2011)
[3] Pour davantage d’informations sur cet organisme international, consulter : http://netpreserve.org/about-us
[4] Il constitue une synthèse du travail de bachelor intitulé « L’archivage du web : stratégies, études de cas et recommandations », disponible dans son intégralité à l’adresse : https://doc.rero.ch/record/257793?ln=fr
[5] A noter que cette interface d’accès permet d’accéder uniquement à un nombre restreint de ressources. En effet, une grande partie des contenus reçus ou collectés par la fondation ne sont que partiellement accessibles en raison d’embargos, contrats de licence et autres politiques d’accès. (Leetaru, 2016)
[6] L’ensemble de ces grands principes de sélection et d’exclusion est disponible au sein du document consultable ici : https://www.nb.admin.ch/nb_professionnel/01693/01699/01873/01895/index.h...
[7] Pour davantage d’informations sur cet institut, consulter : http://www.oii.ox.ac.uk/
[8] Pour davantage d’information sur cet observatoire, notamment les rapports produits, consulter : http://www.bnf.fr/fr/professionnels/depot_legal_definition/s.depot_legal_observatoire.html?first_Art=non
[9] Il est à noter néanmoins que les interfaces ne cessent de s’améliorer pour mieux s’adapter à leurs utilisateurs, comme en témoigne la récente mise à jour de celle de la BnF en octobre 2016.
[10] Consulter à ce propos : http://www.writediteach.com/images/Citing%20from%20a%20Digital%20Archive%20like%20the%20Internet%20Archive.pdf
[11] C’est le cas, par exemple, de l’initiative « K-12 Web Archiving » : https://archive-it.org/k12/
AUBRY, Sara et al., 2008. Méthodes techniques et outils. Documentaliste-Sciences de l’Information [en ligne]. Avril 2008. Vol. 45. p.12-20. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.cairn.info/revue-documentaliste-sciences-de-linformation-2008-4-p-12.htm
BNF, 2015. Collectes ciblées de l’internet français. Bnf.fr [en ligne]. 26 mars 2015. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.bnf.fr/fr/collections_et_services/anx_pres/a.collectes_ciblee.... Html
BONNEL, Sylvie, OURY, Clément, 2014. La sélection de sites web dans une bibliothèque nationale encyclopédique : une politique documentaire partagée pour le dépôt légal de l’internet à la BnF. IFLA World Library and Information Congress 80th IFLA General Conference and Assembly, Lyon, 16-22 August 2014 [en ligne]. [Consulté le 01.11.2016]. Disponible à l’adresse : http://library.ifla.org/998/1/107-bonnel-fr.pdf
CAROU, Alain, 2007. Archiver la vidéo sur le web : des documents ? Quels documents ?. Bulletin des bibliothèques de France [en ligne]. 2007. N°2. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2007-02-0056- 012
CHAIMBAULT, Thomas, 2008. L’archivage du web [en ligne]. Dossier documentaire. Villeurbanne : enssib. 2008. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.enssib.fr/bibliotheque-numerique/documents/1730-l-archivage-du-web.pdf
CHEVALLIER, Philippe, ILLIEN, Gildas, 2011. Les Archives de l’Internet : une étude prospective sur les représentations et les attentes des utilisateurs potentiels [en ligne]. Bibliothèque nationale de France. 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.bnf.fr/documents/enquete_archives_web.pdf
GOMES, Daniel, MIRANDA, Joao, COSTA, Miguel, 2011. A survey on web archiving initiatives. In: International Conference on Theory and Practice of Digital Libraries [livre électronique]. Berlin, Springer, pp. 408-420. Lecture Notes in Computer Science, 6966. [Consulté le 01.11.2016]. Disponible à l’adresse: http://sobre.arquivo.pt/about-the-archive/publications-1/documents/a-survey-on-web-archiving-initiatives
GREFFET, Fabienne, 2012. Le web dans la recherche en science politique [en ligne]. Revue de la Bibliothèque nationale de France [en ligne], n°40. 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : www.cairn.info/load_pdf.php?ID_ARTICLE=RBNF_040_0078
ILLIEN, Gildas, 2011. Une histoire politique de l’archivage du web. Bulletin des bibliothèques de France [en ligne], n°2, 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2011-02-0060-012
ILLIEN, Gildas, 2008. Le dépôt légal de l'internet en pratique. Bulletin des bibliothèques de France [en ligne], n° 6, 2008. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2008-06-0020-004
INTERNET ARCHIVE, 2016. Archive.org [en ligne]. [Consulté le 01.11.2016]. Disponible à l’adresse : https://archive.org/web/
JOUTARD, Philippe, 2013. Révolution numérique et rapport au passé. Le Débat [en ligne], n°177, 2013. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.cairn.info/revue-le-debat-2013-5-page-145.htm
LAPORTE, Xavier, KAHLE, Brewster, 2011. Brewster Kahle, Internet Archive: “Le meilleur du web est déjà perdu”. Internet Actu [en ligne]. Mars 2011. [Consulté le 01.11.2016]. Disponible à l’adresse: http://www.internetactu.net/2011/06/28/brewster-kahle-internet-archive-le-meilleur-du-web-est-deja-perdu/
LEETARU, Kalev H., 2012. A vision of the role and future of web archives. IIPC 2012 General Assembly, [en ligne], 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/VisionRoles.pdf
LEETARU, Kalev H., 2016. The Internet Archive Turns 20 : A Behind The Scences Look At Archiving The Web. Forbes [en ligne]. 18 janvier 2016. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.forbes.com/sites/kalevleetaru/2016/01/18/the-internet-archive-turns-20-a-behind-the-scenes-look-at-archiving-the-web/#172e34fb7800
MERZEAU, Louise, 2003. Web en stock. Cahier de médiologie [en ligne]. 2003. P. 158-167. [Consulté le 01.11.2016]. Disponible à l’adresse : https://halshs.archives-ouvertes.fr/halshs-00487319
MEYER, Eric T., THOMAS, Arthur, SCHROEDER, Ralph, 2011. Web Archives : The Future(s). IIPC netpreserve.org [en ligne]. 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/2011_06_IIPC_WebArchivesTheFutures.pdf
MUSSOU, Claude. Et le web devint archive : enjeux et défis. Ina-expert.com [en ligne]. Juin 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.inaexpert.com/e-dossier-de-l-audiovisuel-sciences-humaines-et-sociales-et-patrimoinenumerique/et-le-web-devint-archive-enjeux-et-defis.html
PEYSSARD, Jean-Christophe, GINOUVES, Véronique, 2012. Internet Archive. Aldebaran.revues.org [en ligne]. 2 septembre 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://aldebaran.revues.org/6339
REYNOLDS, Emily, 2013. Web Archiving Use Cases. Library of Congress, UMSI, ASB13 [en ligne]. Mars 2013. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/UseCases_Final_1.pdf
- Vous devez vous connecter pour poster des commentaires
iPRES 2016 - International conference on digital preservation, Berne, Bibliothèque nationale suisse, 3-6 octobre 2016
Ressi — 31 décembre 2016
Hansueli Locher, Bibliothèque nationale suisse
iPRES 2016 - International conference on digital preservation
Berne, Bibliothèque nationale suisse, 3-6 octobre 2016
Toute personne active dans le domaine de la conservation d’informations numériques est amenée à s’intéresser à la conférence internationale annuelle iPRES. L’édition 2016 de cette conférence a été organisée par la Bibliothèque nationale suisse et s’est tenue à Berne. Du 3 au 6 octobre elle a proposé à plus de 300 participants un programme riche et varié, avec des présentations, des tables rondes, des ateliers de travail et des posters.
L’origine de iPRES
iPRES résulte d’une invitation en 2003 de l’Académie chinoise des sciences (ACS) et de l‘Electronic Information for Libraries (eIFL) pour une première conférence qui s’est tenue à Pékin en 2004 et à laquelle des experts européens de la conservation numérique participèrent. Après la clôture de ce colloque riche en échanges et enseignements, la Deutsche Forschungsgemeinschaft (DFG, Conseil allemand de la recherche) proposa de renouveler l’expérience. Ainsi vit le jour cette manifestation, qui se tient chaque année sur un continent différent.
Une large palette de thèmes
Les thèmes qui se rapportent à la conservation numérique sont le cœur de iPRES et chaque conférence, dans son programme, met l’accent sur un aspect particulier. Le spectre est donc large. La présentation de solutions concrètes, locales, régionales ou internationales, y trouve sa place, aussi bien que les discussions autour des stratégies à mettre en œuvre.
Les stratégies et les processus de conservation, ainsi que leurs répercussions sur les systèmes d’archivage à long terme, étaient au premier plan de la conférence de Berne. Les orateurs ont abordé des thèmes qui tournaient autour de l’infrastructure, des systèmes (en particulier des systèmes de stockage de données), des outils en relation avec l’archivage numérique. Les défis posés par la conservation dans différentes disciplines, en particulier pour les institutions chargées de transmettre le patrimoine culturel, ont été largement évoqués. Les études de cas, les échanges d’expériences et de « bonnes recettes » trouvées par les uns ou les autres étaient également présents dans ces journées. Une question très actuelle a retenu l’attention : de quelles compétences aura-t-on besoin pour assurer les différentes tâches dans le domaine de la conservation numérique ? Et par conséquent, quelles formations faut-il mettre sur pied et encourager pour avoir la garantie de disposer de personnel qualifié dans ces domaines ?
Je renonce dans cet article à présenter dans le détail les nombreuses contributions : ce serait difficile de le faire de façon à les refléter correctement. Je renvoie le lecteur intéressé à la page web de la conférence, www.ipres2016.ch ; sous le lien « Programme » il trouvera les actes de la conférence (Proceedings) sous forme de documents PDF. Je préfère me concentrer sur quelques points que j’ai trouvés particulièrement forts lors de ces journées.
J’ai observé avec intérêt la façon dont se sont reflétées les approches diverses entre la recherche et la pratique, ou comment les différences entre la théorie et la pratique ont été discutées. Presque à chaque fois elles s’enrichissent l’une l’autre et permettent à chacune de progresser.
Temps forts des discours d’orientation
Les discours d’orientation de la conférence sont restés dans ma mémoire comme des temps particulièrement forts et de haute qualité.
Robert Kahn, directeur général de la Corporation for National Research Initiatives in Reston (USA) nous a parlé le premier jour des défis et des possibilités de l’archivage numérique. Il a entre autre présenté aux participants l’idée d’un registre global d’identificateurs (Global Handle Registry). Il s’agit d’un système mondial de résolution d’identificateurs univoques d’objets numériques, basé sur l’attribution aux organisations d’un préfixe. Celles-ci définissent ensuite des préfixes subordonnés et enfin attribuent pour leur domaine de compétence des suffixes ou indicateurs uniques. Ce système hiérarchique de recensement aurait à son sommet le registre global qui permettrait une identification univoque et assurerait ainsi le référencement des objets numériques.
Le deuxième jour, Sabine Himmelsbach, directrice de la Maison des arts électroniques de Bâle nous présenta les problèmes liés à l’archivage de l’art numérique. Nous apprîmes que la durée de vie de ces œuvres est très dépendante des versions du hardware et du logiciel sur lesquelles elles ont été créées. Dans certains cas, des stratégies telles que des émulations peuvent être appliquées. Mais dès qu’une œuvre tire certains inputs directement de l’internet, il devient difficile de les perpétuer car les technologies du web changent constamment. Dans le meilleur des cas, l’artiste intervient lui-même, comme dans l’exemple que l’oratrice nous a présenté, où des flux provenant de différentes chaînes d’information en continu sont fusionnés et réarrangés pour créer une nouvelle présentation des contenus. Cela signifie aussi que l’artiste modifie son œuvre, qui ne se présente plus telle qu’elle était dans sa version précédente.
David Bosshard, directeur général du Gottlieb Duttweiler Institut für Wirtschaft und Gesellschaft (Institut Gottlieb Duttweiler pour l’économie et la société) examina la question du changement social par les technologies numériques et les potentialités qu’elles offrent. Les frontières de plus en plus floues entre la sphère privée et la sphère publique, ainsi que les attentes toujours plus hautes envers les technologies étaient au centre de son discours. Quels risques et quelles chances présentent les stocks toujours plus grands de données ? Comment se développe la relation entre l’homme et la machine ? Comment seront prises les décisions dans le futur ? Ces questions sont trois exemples parmi celles que l’orateur a discutées avec nous.
Des ateliers de travail intéressants
Des ateliers de travail qui pouvaient répondre à toutes les exigences ont été proposés aux participants. Les identifiants durables pour les objets numériques, des introductions à l’utilisation d’outils ou la discussion sur les stratégies de sorties des services basés sur le « cloud » en sont quelques exemples.
Faire un choix parmi cette offre si variée fut difficile : dans de tels moments, il faudrait pouvoir se cloner ! Comme j’ai plutôt une formation technique, je me suis finalement décidé pour une introduction à "Fedora Repository", logiciel développé par Duraspace pour gérer des collections d’objets numériques. J’ai reçu les instructions d’installation des logiciels nécessaires pour le workshop avant la conférence déjà, ainsi nous avons pu traiter des objets concrets dès le début de l’atelier. Quelques exemples pratiques ont permis de comprendre rapidement le fonctionnement du logiciel. J’ai ainsi découvert avec surprise qu’en plus d’un outil de gestion, je disposais de SOLR, un puissant outil de recherche qui me permettait de formuler des requêtes et d’avoir accès à des ensembles d’objets numériques.
Un deuxième atelier de très haute qualité, consacré aux exigences auxquelles doit répondre un système de stockage à long terme de données, m’a beaucoup intéressé. Dans ce cas aussi, une préparation de l’atelier a été faite avant la conférence, au moyen d’un questionnaire. Il s’agissait de définir, sur la base de nos propres expériences, quelles fonctions et quelles propriétés sont pour nous importantes pour un tel système. Les résultats de l’enquête ont servi de point de départ d’une discussion approfondie. Il était très intéressant de voir pour quelles raisons quelles institutions ont défini des priorités différentes des nôtres ou dans quels domaines nous nous écartons de la norme.
Cet atelier ne s’est pas terminé avec la conférence : ses responsables ont pris l’engagement de traiter et de synthétiser les contributions des participants afin de consolider une liste pondérée d’exigences et de fonctionnalités. Cette liste sera une excellente base pour les institutions qui doivent acquérir un système d’archivage à long terme de leurs données.
Plusieurs niveaux
L’expérience m’a montré que les conférences se déroulent toujours sur plusieurs niveaux. Il y a bien sûr le programme officiel qui sert d’accroche. Mais il y a aussi pour moi – et certainement pour la plupart des participants – un agenda caché. Une conférence est une occasion idéale de mener des discussions informelles, de partager avec les collègues d’autres institutions les questions que l’on se pose et les problèmes auxquels nous sommes confrontés. Les pauses, les repas de midi et les évènements sociaux sont des temps idéaux pour répondre à ce besoin.
La conférence de cette année proposait en plus un « networking wall », sur lequel les congressistes pouvaient faire connaître leurs domaines d’expertise ou les questions pour lesquelles ils cherchaient de l’aide. Un très bon moyen pour trouver un interlocuteur !
Twitter a joué, comme toujours dans les conférences internationales, un rôle important. Je dois avouer que je ne l’ai pas utilisé de façon active. Mais j’ai apprécié de pouvoir connaître par ce biais les impressions sur les présentations auxquelles je n’ai pas pu participer ou de revoir, une fois ces journées terminées, certaines informations qui m’intéressaient et que je n’avais pas eu le temps de creuser sur le moment.
iPRES 2017
La lecture de ce papier vous a-t-elle donné l’envie de participer à la prochaine conférence ?
iPRES 2017 se tiendra en 2017 à Kyoto (Japon), du 25 au 27 novembre.
Pour plus d‘informations:
Twitter: #ipres2016
Page web: www.ipres2016.ch
- Vous devez vous connecter pour poster des commentaires

La revue Ressi
- N° Spécial DLCM
- N°21 décembre 2020
- N°20 décembre 2019
- N°Spécial 100ans ID
- N°19 décembre 2018
- N°18 décembre 2017
- N°17 décembre 2016
- N°16 décembre 2015
- N°15 décembre 2014
- N°14 décembre 2013
- N°13 décembre 2012
- N°12 décembre 2011
- N°11 décembre 2010
- N°10 décembre 2009
- N°9 juillet 2009
- N°8 décembre 2008
- N°7 mai 2008
- N°6 octobre 2007
- N°5 mars 2007
- N°4 octobre 2006
- N°3 mars 2006
- N°2 juillet 2005
- N°1 janvier 2005