Ressi

  • n°21 décembre 2020
  • Demander un nouveau mot de passe

Publiée une fois par année, la Revue électronique suisse de science de l'information (RESSI) a pour but principal le développement scientifique de cette discipline en Suisse.

Accueil

Présentation de la revue

  • Objectifs
  • Instructions aux auteurs
  • Organisation de la revue

Contenu du site

  • Biblio

Se connecter

  • Demander un nouveau mot de passe

Publié par Ressi

S'applique aux numéros publiés et contenus disponibles au public.

Livres et presse numériques en bibliothèque de lecture publique : état de lieux de l’expérience menée par les bibliothèques de Carouge

Ressi — 20 décembre 2017

Yves Martina, directeur des bibliothèques de Carouge

Livres et presse numériques en bibliothèque de lecture publique : état de lieux de l’expérience menée par les bibliothèques de Carouge

Avec Lancy, Meyrin, Onex et Vernier, la Ville de Carouge (22'000 habitants) est l’une des cinq grandes communes suburbaines du canton, en périphérie de la Ville de Genève. Hormis Onex, ces communes possèdent toutes une ou plusieurs bibliothèques, indépendantes du réseau des Bibliothèques municipales de la Ville de Genève.

Ouverte en 1857, la Bibliothèque de Carouge s’est développée au fil des ans et des déménagements. Elle s’est informatisée en 1998 et fonctionne en réseau depuis 2009, date de l’ouverture de sa première « bibliothèque-relais ».

Les bibliothèques de Carouge [1] dépendent du SACC (Service des affaires culturelles et de la communication) et comptent 14,75 postes à plein temps pour 20 collaborateurs, dont 12 bibliothécaires et agents en information documentaire. Elles proposent à leurs usagers quelque 70'000 documents et génèrent plus de 215'000 prêts annuels.

Préambule

Les bibliothèques de Carouge ont introduit le multimédia dans leurs collections en 2009 et le numérique en 2012.

L’offre multimédia étant « tardive » (seul un petit fonds de CD musique existait avant 2009 et l’ère des cassettes VHS a été totalement ignorée), l’objectif était de ne pas manquer le virage du numérique. Au niveau politique, il a été plus facile de convaincre certains décideurs d’enrichir les collections des bibliothèques par des documents numériques que par des supports multimédias, soupçonnés de véhiculer des contenus trop axés sur le divertissement.

En 2012, l’offre numérique à l’intention des bibliothèques publiques est réduite. En Suisse romande, le Valais, qui fait ici office de pionnier, dispose d’un fonds alimenté par le fournisseur français Numilog [2]. Dans sa mise à disposition des documents, celui-ci présente l’inconvénient de demander un accès à l’intégralité du fichier des usagers de la bibliothèque et pas seulement à ceux intéressés par l’emprunt de livres numériques. La protection des données individuelles étant un problème sensible, les autorités politiques carougeoises ont renoncé à travailler avec Numilog (sans avoir préalablement testé la solution proposée par ce fournisseur) et ont souhaité la recherche d’une alternative. Une gageure sachant, qu’en 2012, Numilog est le seul fournisseur du marché francophone.

Les premiers pas

Pour sa première approche numérique, les bibliothèques de Carouge font l’acquisition de cinq liseuses (Sony et Kindle) et deux tablettes (iPad et Asus) dans lesquelles sont proposés des contenus différents, articulés autour d’un choix de documentaires et de romans (5 à 8 documentaires et 10 à 20 romans par support) à l’intention d’un public adulte.

Le choix a donc préalablement été fait par des bibliothécaires, sur la base d’ouvrages libres de droits proposés par des éditeurs qui, eux-mêmes, testaient une mise à disposition de titres issus de leur catalogue au format numérique. Les liseuses et les tablettes ont été mises gratuitement à disposition des usagers, mais une caution leur était demandée et restituée au retour du support. Ce qui était à la fois contraignant et inconfortable, tant du point administratif que pour l’usager. 

Cette expérience a été suivie par une cinquantaine d’usagers, entre juin 2012 et septembre 2013 :

  • 97% des usagers l’ont fait dans le but de découvrir le fonctionnement du support.
  • 3% des usagers possédaient déjà une liseuse et se sont intéressés aux contenus proposés.

Après chaque emprunt, les usagers ont été sondés et invités à faire part de leurs remarques et suggestions pour façonner l’avenir du numérique dans leurs bibliothèques. Il en est ressorti que :

  • 93% des usagers ont été séduit par le support et ont relevé les avantages suivants : capacité de stockage, faible encombrement et confort de lecture, notamment dans les transports publics.
  • 100% des usagers indiquent que la liseuse est pour eux une alternative (selon les opportunités de lecture) et non un remplacement du livre traditionnel.
  • 100% des usagers souhaitent avoir accès aux téléchargements de leur choix : ils ne reconduiraient pas l’expérience au travers de liseuses avec des contenus préétablis.
  • 98% des usagers préfèrent disposer de leur propre liseuse et ne jugent pas pertinent d’en emprunter une en bibliothèque.

En conséquence de qui précède, dès novembre 2013, les bibliothèques de Carouge retirent les liseuses de leur offre et les projets en lien avec le numérique sont gelés, faute de trouver une alternative au fournisseur Numilog.

Le projet PNB : les éditeurs français font (enfin !) un effort envers les bibliothèques

En France, une offre numérique destinée aux bibliothèques publiques s’élabore et le projet PNB (Prêt numérique en bibliothèque) est présenté lors du congrès de l’IFLA 2014 à Lyon. Il s’agit d’une avancée significative qui fait intervenir l’ensemble des acteurs concernés : éditeurs, libraires, auteurs et bibliothèques. En 2015, le fournisseur Dilicom [3] est en mesure de proposer un premier catalogue de titres, accessible bien sûr en France, mais aussi aux bibliothèques suisses. La plateforme d’achat est assurée par la librairie de livres numériques Feedbooks[4].

Certes, ce catalogue à l’intention des bibliothèques est nettement moins riche que celui destiné au volet commercial, donc à l’achat de titres par des particuliers. Néanmoins, les bibliothèques y trouvent un intérêt : les prêts peuvent être simultanés (généralement entre 5 et 10 prêts) et la durée de vie d’un livre numérique se situe en moyenne à 5 ans et/ou à 50 prêts. La durée de l’emprunt est, quant à elle, de 4 semaines.

Cette opportunité va permettre aux bibliothèques de Carouge de rouvrir leur dossier numérique et de lancer deux offres à l’automne 2015. Elles sont rendues possibles par les améliorations de leur portail documentaire[5], qui donne désormais accès à des ressources externes :

  • Livres numériques, via le fournisseur Dilicom : 1’020 titres sont proposés au catalogue [6] par téléchargement (750 romans « adultes », 150 documentaires « adultes » et 120 romans « jeunes »).  Nombre d’emprunts sur l’année (3 mois) : 375.
  • Presse numérique, via le fournisseur LeKiosk [7] : 750 titres sont proposés à la consultation en ligne [8] (720 titres « adultes » et 30 titres « jeunes »). Nombre de consultations sur l’année (3 mois) : 300.

En 2016, l’offre est enrichie et les fonds numériques portés à :

  • 1’595 livres numériques (1’165 romans « adultes », 265 documentaires « adultes » et 165 romans « jeunes »). Nombre d’emprunts sur l’année : 375.
  • 900 revues numériques (865 titres « adultes » et 35 titres « jeunes »). Nombre de consultations en ligne sur l’année : 390.

Il faut noter que, durant l’exercice 2016, de nombreux éditeurs modifient leurs conditions de prêt et abandonnent la simultanéité des emprunts : un seul prêt à la fois est moins intéressant et se rapproche trop du système en vigueur pour les livres traditionnels alors que le format numérique est justement intéressant s’il permet plus de souplesse à ce niveau.

En 2017, les bibliothèques de Carouge continuent à développer leur catalogue et la tendance suivante se dessine :

  • 1'850 à 1’900 livres numériques au catalogue (75% fiction « adultes », 12% documentaires « adultes », 9% fiction « jeunes » et 4% bandes dessinées « adultes ». 

Le nombre d’emprunts devrait approcher les 500 unités.

  • 1’000 revues numériques proposées à la consultation (94% de titres « adultes » et 6% de titres « jeunes »).

Le nombre de consultations ne sera connu qu’en fin d’année (ce nombre est calculé directement par le fournisseur au terme de l’exercice et il n’y a pas, à ce stade, de données intermédiaires).

S’agissant des livres numériques, ce sont quelque 150 usagers distincts qui profitent de l’offre mise en place par les bibliothèques de Carouge, ce qui représente à peine plus de 3% des usagers actifs. Force est donc de constater qu’on se situe très nettement dans la marge, s’agissant du succès de la prestation.

Du côté des adultes, c’est vers la fiction que se portent sans surprise 95% des emprunts. Du côté des jeunes, seule la fiction est proposée au téléchargement.

S’agissant des revues numériques, les données récapitulatives se limitent pour l’instant au nombre de magazines consultés. Quelques sondages ont toutefois permis de dégager des préférences : actualité, féminin, bien-être et développement personnel, décoration d’intérieur sont les sujets qui génèrent le plus de consultations.

Quelles perspectives pour les deux années à venir ?

S’agissant des livres numériques :

  • Disposer d’un fonds de 2'500 à 2’800 titres d’ici à 2020 (le fonds numérique représenterait alors 3% des collections).
  • Améliorer l’outil de recherche et de présentation des ouvrages en 2019. En effet, dans sa prestation, le fournisseur Dilicom propose une notice bibliographique et des critères de recherche qui sont limités. Par importation de données fournies par d’autres fournisseurs, il sera possible de disposer de descriptifs et d’éléments de recherche plus proche de ce qui se fait pour les livres traditionnels (par exemple : indexation matière plus riche et plus rigoureuse s’agissant des genres littéraires, rebonds vers des ouvrages et des thématiques apparentés).
  • En 2019, lancer une campagne de promotion des livres numériques et assurer leur visibilité en parallèle aux livres traditionnels, c’est-à-dire aussi dans le corps même des bibliothèques.

S’agissant des revues numériques :

  • Maintenir la prestation en 2019 et 2020 au niveau des années précédentes, sachant que la marge de manœuvre sur le choix des magazines proposés est réduite puisqu’elle appartient à 95% au fournisseur.
  • En 2019, adapter aux magazines numériques tout ou partie de la campagne de promotion qui sera mise en place pour les livres numériques.

Conclusion

Au moment d’adopter le projet PNB et de se lancer dans la mise en place d’une offre de livres numériques, les bibliothèques de Carouge disposaient de deux options :

  • Rejoindre la plateforme suisse proposée par Bibliomedia [9] et bénéficier de la prestation et de la collection élaborée par cette institution, à savoir le partage des titres entre plusieurs bibliothèques.
  • Disposer de son propre fonds et le gérer en propre, comme il est fait pour les livres traditionnels et le multimédia.

C’est cette deuxième option qui a été retenue parce qu’au moment du choix, l’offre e-Bibliomedia [10] n’était pas encore en place, bien que les deux organismes aient avancé en parallèle dès que Dilicom a ouvert son catalogue à la Suisse. D’autres critères sont certainement intervenus dans le choix du « cavalier seul », mais ils ne correspondaient pas une critique de la démarche proposée par Bibliomedia.

La « confidentialité » qui entoure la prestation numérique proposée par les bibliothèques de Carouge est-elle un point négatif ? On se permettra ici une réponse nuancée :

  • Oui, parce que l’effort d’acquisition, notamment sur le plan financier, devrait se traduire par un succès plus probant.
  • Non, parce qu’il faut se donner le temps nécessaire avant d’évaluer cette nouvelle prestation. Dès le début, il a été fixé un délai de 5 ans avant de tirer un bilan significatif. L’offre doit se faire connaître et les usagers l’apprivoiser, ce d’autant que la lecture sur un support électronique ne fait pas encore partie des mœurs usuelles des usagers des bibliothèques, notamment en Suisse. À noter aussi qu’aucune promotion du livre numérique n’a encore été faite de manière significative et que les usagers sont généralement amenés à découvrir par eux-mêmes (et parfois même par hasard) l’existence des documents numériques.

Le numérique n’est donc pas remis en cause et, à ce stade, l’objectif de base demeure : offrir aux usagers des bibliothèques de Carouge, par le biais du numérique, un complément et une alternative attractive aux supports traditionnels (livres et presse papier) ! Et, s’agissant des livres numériques, disposer d’un catalogue de 5'000 titres d’ici à 2025.


Notes

[1] bibliotheques-carouge.ch

[2] numilog.com

[3]dillicom.net

[4] fr.feedbooks.com (le volet dédié aux bibliothèques est accessible à l’adresse collectivites.feedbooks.com)

[5] Il s’agit de la solution nommée Syracuse, proposée par le fournisseur français Archimed (archimed.fr)

[6] Il s’agit bien ici du nombre des titres proposés par les bibliothèques de Carouge à leurs usagers et non de l’offre globale du fournisseur

[7]lekiosk.com ; le nombre de titres proposés par LeKiosk est variable (il dépend de l’offre éditoriale et des contrats passés avec les éditeurs) ; l’acheteur-bibliothèque peut façonner l’offre qu’il propose à ses usagers en biffant certains titres ou certains bouquets de titres

[8] Il s’agit bien ici du nombre des titres proposés par les bibliothèques de Carouge à leurs usagers et non de l’offre globale du fournisseur

[9] Fondation active dans le développement des bibliothèques de lecture publique et de la promotion de la lecture (bibliomedia.ch)

[10] e-Bibliomedia est une plateforme qui permet aux bibliothèques de lecture publique d’emprunter des ouvrages numériques, sans avoir elles-mêmes à en faire directement l’acquisition

  • Publié par Ressi
  • Bibliothèque
  • Vous devez vous connecter pour poster des commentaires

Un container mobile pour le sauvetage de collections sinistrées : la BERCE PBC Ville de Genève

Ressi — 20 décembre 2017

Nelly Cauliez, Conservatrice responsable Unité Régie, Bibliothèque de Genève

Résumé

Lorsqu’un incendie ou une inondation survient dans un musée, une bibliothèque ou un dépôt patrimonial, les collections subissent souvent aussi des dégâts après le sinistre. En effet, l’absence de plan d’intervention, le manque de préparation du personnel et l’utilisation de matériel inadéquat peuvent avoir des conséquences désastreuses lors de l’évacuation des biens culturels. C’est pourquoi, soucieux d’assurer la meilleure protection possible des biens culturels de la Ville de Genève, le Conseil administratif a chargé un comité de pilotage d’élaborer un concept de protection des biens culturels (PBC). Une des missions du comité a été l’acquisition d’un matériel adapté et la création d’un mode de stockage efficace et mobile permettant de ranger, acheminer et utiliser rapidement les équipements spécialisés. La Bibliothèque de Genève est coordinatrice de ce projet nommé BERCE PBC. 

Mots-Clés: 
Protection des biens culturels sinistres sauvetage collections matériels

Un container mobile pour le sauvetage de collections sinistrées : la berce pbc Ville de Genève

Les institutions patrimoniales ont pour mission première d’assurer la bonne conservation du patrimoine collectif. C’est là la condition sine qua non pour permettre aux institutions d’assurer leurs missions d’étude, de recherche et de diffusion des collections auprès de tous les publics. La collectivité a donc le devoir d’en assurer la pérennité pour les générations futures, ainsi que le Conseil international des musées (ICOM) le préconise : « Les musées sont responsables vis-à-vis du patrimoine naturel et culturel, matériel et immatériel. Les autorités de tutelle et tous ceux concernés par l’orientation stratégique et la supervision des musées ont pour obligation première de protéger et de promouvoir ce patrimoine, ainsi que les ressources humaines, physiques et financières rendues disponibles à cette fin [1]». Aussi, lorsqu’un bâtiment de conservation est soudain la proie  de phénomènes imprévus qui peuvent détruire des collections, des locaux, et menacer la vie du personnel et du public, l’urgence se mesure en minutes. Les responsables des institutions patrimoniales ont donc le devoir de réagir rapidement et efficacement. Cela implique d’être sérieusement préparé à la manière de faire face aux événements et de se doter des moyens matériels et humains nécessaires. C’est la Protection des Biens Culturels (PBC).

L’incendie historique de la Bibliothèque d’Alexandrie est entré dans la mémoire collective. Sur le plan helvétique les tragédies de Brigue (1993) ou de Gondo (2000) et les inondations en Suisse centrale (Brienz, Sarnen, Reichenbach et Lucerne en 2005) ont démontré la nécessité de mettre rapidement en place une organisation efficace pour la protection des personnes, mais aussi des biens culturels. Sur le plan genevois, les incendies du Grand Théâtre (1951), du Victoria Hall (1984), du Palais Wilson (1987), des combles du Palais Eynard (2001) ou encore de l’ancienne école de chimie au boulevard des Philosophes (2008) furent particulièrement marquants. C’est précisément ce dernier évènement où les flammes et l’eau touchèrent près de 70 000 livres qui a entrainé le triste constat que, sans planification des opérations, sans structure de décision opérationnelle mais aussi sans matériel adéquat et disponible immédiatement, la probabilité de sauver et de traiter en urgence une grande quantité d’objets culturels sinistrés était largement compromise.

L’idée de créer alors une réserve d’équipements uniquement dévolue aux collections sinistrées est née au sein du Comité de pilotage PBC de la Ville de Genève [2]. Soucieux d’assurer la meilleure protection possible des biens culturels de la Ville de Genève, ce Comité présidé par la direction du Département de la culture et du sport est constitué des directions des musées et institutions patrimoniales de la Ville et de leurs responsables en charge des bâtiments, de la sécurité, de la conservation des collections, mais aussi de membres du Service d’incendie et de secours (SIS) et de la Protection civile (PCi) de la Ville et du Canton. Depuis 2009, il développe une série de projets comme la rédaction d’outils de prévention (plan d’urgence), la mise en place de modules de formations interinstitutionnelles sur toutes les typologies de biens patrimoniaux et enfin l’organisation d’exercices grandeur nature.

En 2013, il a alors été confié à un groupe de travail du Comité PBC de faire l’acquisition de moyens d'intervention adéquats assurant à tous les partenaires un sauvetage efficace. Ce projet, nommé BERCE PBC de la Ville de Genève, alliait la recherche de matériels spécifiques aux traitements d’urgence sur les collections à la conception puis à la fabrication d’un mode de stockage mobile permettant de ranger, acheminer et utiliser rapidement ces équipements spécialisés. Largement inspirée d’une première BERCE PBC créée par le Service d’incendie et de secours de la Ville quelques années auparavant, ce container institutionnel a pu s’améliorer et compléter les équipements déjà existants. La BERCE PBC de la Ville de Genève est donc un container qui peut être mobilisé dès lors qu’il existe un risque hypothétique ou avéré de dommages sur des collections patrimoniales de la Ville de Genève résultant d’un sinistre en cours ou en prévision (mobilisation préventive) qu’il soit mineur ou majeur. Il peut s’agir de dégradations d’objets culturels liées à un dégât des eaux, un incendie, une crise sanitaire (microbiologique), un évènement géologique (tremblement de terre, effondrement), mais aussi dans le cas d’actes de vandalisme, de malveillance, de pillage, de terrorisme, ou toutes autres causes pouvant engendrer des dommages sur des biens patrimoniaux. Tout son intérêt réside dans sa mobilité assurée par le Service d’incendie et de Secours de la Ville de Genève qui, grâce à un véhicule d’intervention rapide peut la déplacer de sa zone de stationnement en plein Genève (donc à proximité de toutes les institutions) vers le sinistre. La BERCE est alors chargée sur une remorque en moins de trois minutes puis transportée.

Elle est affectée prioritairement aux institutions de la Ville (Bibliothèque de Genève, Musée d’art et d’Histoire, Musée d’ethnographie, Fonds municipal d’art contemporain, Conservatoire et jardin botaniques de Genève, Musée d’histoire naturelle, Musée de l’Ariana, Archives de la Ville). En cas de zones sinistrées multiples, il revient à la Direction du Département de la Culture et du Sport de la Ville de Genève de définir l’institution prioritaire en fonction de l’importance et le type de dommages et des moyens à disposition pour y remédier. Bien qu’elle soit d’abord réservée aux institutions de la Ville, des autorisations extraordinaires d'accès à son matériel peuvent être accordées dans le cas de demandes de dérogations exceptionnelles. La Direction du Département de la Culture et du Sport de la Ville de Genève peut alors décider de la mobiliser pour toutes autres institutions ou collectivités qu’elles jugeraient en difficulté et pour lesquelles elle accepte d’apporter une aide substantielle. Dans ce cas, il convient de définir en amont le cadre de l’octroi (durée de la mobilisation, transport, assurance, remplacement du matériel utilisé, etc.).

Pensée comme une boîte modulaire fabriquée par un sandwich de panneaux d’aluminium, la BERCE PBC de la Ville de Genève mesure 16m2 et est scindée en deux espaces distincts (stockage et bureau). On y trouve tout autant des équipements permettant de stabiliser une zone sinistrée limitant alors la propagation du sinistre et réduisant l’ampleur des dégâts (déshumidificateur de chantier, bâches, bacs de rétention, etc.) que du matériels pour l’évacuation, l’emballage et le transport de petites ou grandes pièces patrimoniales (caisses, chariots, diables, couvertures en feutre, polyester de protection, étiquettes de traçabilité, etc.). Ce container contient aussi de quoi dépoussiérer par exemple des pièces d’orfèvrerie, aspirer un tableau ou encore gommer un livre recouvert de suie ou de gravats (pinceaux doux en poils de chèvre, aspirateurs à filtre HEPA munis de variateurs, gommes smokesponge, etc.). Tout un équipement est dévolu à la préparation à la congélation des œuvres touchées. Ce procédé est un des traitements possibles lors d’une inondation de masse. La congélation n’a pas d’action curative ou réparatrice mais permet de figer, instantanément toutes les dégradations des documents, pour un temps qui peut être très long (10 ans sans effet nocif). La congélation doit être très rapide, donc effectuée à très basse température (-30°) afin que les cristaux de glace qui se forment à l’intérieur des objets culturels soient les plus petits possible et n’endommagent pas les fibres des matériaux ; ensuite, la température peut remonter vers -18° environ. Par la suite, les objets peuvent être décongelés progressivement, en petites quantités, et séchés manuellement, ou lyophilisés s’ils sont trop nombreux (toutes les typologies ne la supportent pas, il convient aux spécialistes du sauvetage de faire le tri). Enfin, les équipes d’intervention peuvent y trouver du matériel de protection pour les personnes puisqu’une zone sinistrée est généralement un espace aux variations thermohygrométriques importantes (froid ou chaleur, humidité ou assèchement), souvent sombre et hostile. Quant à son espace bureau, il est chauffé, ventilé à l’énergie solaire, et offre une zone de travail confortable où peuvent s’opérer des prises de décisions sur le mode opératoire du sauvetage ou encore pour assurer l’inventaire et le suivi des stocks (matériel extrait en urgence).

Parmi ses caractéristiques, il faut noter que l’ensemble des surfaces (murs, plafonds) est aimanté permettant ainsi la fixation de documentation de sécurité (plans, organigrammes, listes diverses). Ces surfaces peuvent également être utilisées comme un grand tableau blanc sur lequel il est possible d’écrire au feutre effaçable. Les revêtements au sol sont en linoleum lavable ou encore en aluminium cranté pour éviter toutes chutes dans l’empressement. Enfin, elle est munie d’un éclairage Led mais aussi de prises électriques pour y connecter par exemple un ordinateur portable.

Fort heureusement, depuis sa création, la BERCE PBC de la Ville de Genève n’a eu à être utilisée que dans le cas d’exercices grandeur nature ainsi que lors de modules de formation. Elle sera prochainement présentée lors des Journées européennes des Métiers d’art à la Bibliothèque de Genève (20 et 21 avril 2018).

Son caractère innovant et sa conception interinstitutionnelle fait d’elle un projet moteur pour la protection des biens culturels et unique au monde. Elle a d’ailleurs attiré plusieurs organisations internationales ou représentants de groupes de travail dévolus aux sauvetages de collections (Bouclier Bleu, ICOMOS, Groupe de travail pour la protection des biens culturels en Syrie et en Irak,  Fondation des monuments du monde en Afrique Sub-saharienne)  et sert aujourd’hui de modèles pour des projets similaires en étude en France ou au Japon.

Figure 1 : berce pbc 

Figure 2 : berce pbc

Figure 3 : intérieur berce pbc

Figure 4 : croquis de montage


Notes

[1] Le Code de déontologie de l’ICOM a été adopté à l’unanimité par la 15e Assemblée générale de l’ICOM, réunie à Buenos-Aires (Argentine) le 4 novembre 1986, modifié par la 20e Assemblée générale en Barcelone (Espagne) le 6 juillet 2001 sous le titre Code de déontologie de l’ICOM pour les musées et révisé par la 21e Assemblée générale à Séoul (République de Corée) le 8 octobre 2004.

[2] http://www.ville-geneve.ch/actualites/detail/article/1444638433-berce-proteger-oeuvres-objets-art/

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires

Les grandes bibliothèques à quatre voix

Ressi — 31 décembre 2016

Jonas Beausire, Haute Ecole de Gestion, Genève

 

Les grandes bibliothèques à quatre voix

Ce recueil, au titre programmatique, laisse distinguer quatre voix singulières et remarquables, celles d’anciens directeurs romands de grandes bibliothèques : Jacques Cordonier, Alain Jacquesson, Jean-Frédéric Jauslin et Hubert Villard[1]. Tous mandatés à la fin du 20e siècle, les quatre hommes ont accompagné leur établissement, qu’il soit cantonal, national et/ou universitaire, dans la transition numérique. Ils racontent, tout au long de ces entretiens[2], leurs années de formation, leur parcours, les innombrables défis et obstacles professionnels auxquels ils ont dû faire face, mais aussi leurs regrets. En apportant leur regard sur les grands enjeux et débats bibliothéconomiques, les quatre directeurs déploient plus largement une réflexion sur ceux de la société de l’information.

Omniprésence de l’informatique

Pédagogie, mathématiques, informatique, lettres et bibliothéconomie sont les disciplines qui ont formé les quatre intervenants. Cette pluralité disciplinaire trouve un dénominateur commun avec l’informatique et son rôle « […] révolutionnaire […] appliqué au traitement de la documentation. » (p. 29). En effet, les processus d’automatisation et d’informatisation sont au cœur d’une révolution documentaire dont témoignent les défis organisationnels de certains directeurs. Le passage d’un système informatique centralisé à la mise en place d’un réseau informatique[3], permettant d’accélérer les échanges et le partage des ressources, est l’occasion d’anecdotes qui renseignent sur une époque où les transferts de bandes magnétiques s’organisaient à coup de voyages en 2 CV et de relais nocturnes. Plus tard, ce seront les services de prêt et des acquisitions qui seront gérés informatiquement. Quel que soit le contexte spécifique de cet avènement de l’informatique documentaire, celle-ci mènera systématiquement vers un décloisonnement des connaissances et des services traditionnels de la bibliothèque et vers de nouvelles possibilités de collaboration entre les institutions.

Stratégies et politique

Ces années de direction sont également racontées au travers du prisme des grandes orientations stratégiques prises par les quatre directeurs. La collaboration internationale et les interdépendances avec les autorités de tutelle structurent les grandes décisions prises mais aussi les limites politiques auxquelles certains ont été confrontés. Ainsi, Jacques Cordonier rappelle comment il a souhaité positionner la Bibliothèque cantonale valaisanne « […] comme la tête d’un réseau fédérant l’ensemble des bibliothèques du Valais […] » (p. 14) ou J-F Jauslin de rappeler comment il a œuvré à placer la Bibliothèque nationale (BN) « […] au niveau international parmi les autres bibliothèques nationales […] » (p. 61). En invoquant le premier septennat de François Mitterrand et les grands travaux de son exceptionnelle politique culturelle[4], J-F Jauslin insiste sur la nécessité de faire dialoguer le monde de la culture avec celui de la politique afin de garantir soutiens, partenariats et financements des bibliothèques. Hubert Villard insiste quant à lui sur « le rôle citoyen prépondérant » (p. 102) des bibliothèques en évoquant la lutte contre l’illettrisme, par exemple.

Accessibilité et renouvellement des collections

L’informatisation, l’accélération des échanges, le développement de certaines technologies et les synergies politico-culturelles ont agi sur le développement des collections physiques et électroniques des différents établissements. Ces entretiens sont également l’occasion d’évoquer les enjeux liés aux nouvelles technologies et la façon dont elles ont permis de conceptualiser de nouveaux accès aux collections, à l’image du portail « Vallesiana »[5] qui fédère les ressources des fonds d’archives, de la médiathèque et des musées du Valais. Les portails e-rara.ch, e-codices.ch et e-periodica.ch[6] signalent la numérisation massive des contenus. Des technologies comme celle mise à disposition à la BN permettent même de « […] numériser un document et de l’imprimer en moins d’une heure à des coûts tout à fait performants. » (p. 72-73). L’association Memoriav[7] illustre également des préoccupations patrimoniales qui s’étendent jusqu’aux documents audiovisuels et leur difficile prise en charge. Certains auteurs rappellent que cette mise à disposition des ressources numérisées au plus grand nombre interroge aussi la capacité des institutions à préserver ces nouveaux contenus dont la durée de vie informatique ne dépasse pas cinq ans (Cordonier et al., p. 80). H. Villard, à la tête de la Bibliothèque cantonale et universitaire de Lausanne (BCU), relate comment son institution a contracté un partenariat avec Google afin de faire numériser ses ouvrages libres de droit. Les enjeux patrimoniaux et politiques que soulèvent ce genre de collaboration divisent les différents directeurs dont certains dénoncent le dévoiement des missions fondamentales des bibliothèques et de leur indépendance (p. 79).

Missions et défis de demain

Le spectre des GAFA[8] n’est de loin pas le seul enjeu de l’avenir des bibliothèques ; leur fréquentation et leur organisation interne sont au centre des réflexions des quatre directeurs. Parmi les différentes perspectives sur la façon d’engager une relation pérenne avec leurs publics, une approche centrée sur les besoins de l’utilisateur semble avoir guidé les initiatives de chacune des institutions, comme l’affirme A. Jacquesson : « […] il me semble toujours souhaitable de procéder à l’analyse des besoins des utilisateurs. » (p. 46). Ces attentes multiples convergent vers la finalité du métier de bibliothécaire : « […] satisfaire un besoin d’information du lecteur. » (p. 102). Ainsi, les espaces physiques de la bibliothèque sont tour à tout considérés comme ceux propices au travail, à la tranquillité, au refuge ou aux échanges et Jacques Cordonier de citer les propos rapportés d’un réfugié cubain en conclusion de son entretien : « Lorsque je suis arrivé à Sion, il y a deux endroits où j’ai pu aller librement, où l’on ne m’a pas demandé mes papiers et où l’on ne m’a pas fait payer : la cathédrale et la médiathèque. » (p. 28). Au-delà de ce souci commun des usagers, les quatre hommes expriment leur position quant à l’opportunité d’une loi fédérale spécifique aux bibliothèques, laissant entendre des voix circonspectes sur cet instrument, considéré au mieux comme un levier peu opportun, au pire comme un pari perdu d’avance. Ce sont davantage l’exploitation des big data et les humanités digitales qui constituent de nouveaux champs de recherche et des défis professionnels inhérents à notre société de l’information, comme le souligne A. Jacquesson : « […] de nouveaux professionnels nés avec le numérique vont être chargés de traquer l’information sur les réseaux ; ils auront la lourde tâche d’organiser les big data […] ». (p. 56). En rappelant les chiffres d’une étude qui souligne qu’Internet constitue le 80% des sources utilisées par les doctorants, J-F Jauslin insiste sur le rôle de guide privilégié que les bibliothécaires doivent plus que jamais endosser auprès des chercheurs, soumis à une masse informationnelle en perpétuel accroissement. Cette fonction prescriptrice et d’accompagnement est partagée notamment par H. Villard qui brosse le portrait du bibliothécaire académique « nouvelle mouture » en ces termes : « […] accompagnateur de la recherche, au plus près des chercheurs, professeurs et étudiants. Il leur apporte ses précieuses compétences en matière d’appui à la publication scientifique, de gestion des modalités d’open access, de sauvegarde des données primaires et secondaires de la recherche, de l’archivage à long terme, de l’emploi de métadonnées normalisées, d’analyse de grands ensembles de données, etc. » (p. 105). Le bibliothécaire de lecture publique, quant à lui, doit allier mise en valeur des collections, « compétences sociales » et médiation culturelle comme le souligne J. Cordonier : « […] une bibliothèque est un lieu riche de compétences, de personnes[9] qui osent faire des choix, monter des expositions, inviter des artistes, […] non pas prescrire […] mais proposer, attirer l’attention, sensibiliser. » (p.25). Un horizon d’attentes qui laisse poindre une kyrielle de défis pour inscrire durablement cette nouvelle silhouette professionnelle dans le paysage des bibliothèques.

Critique

La force de ce petit livre d’entretiens réside dans ses différentes strates de lecture ; le recueil peut ainsi se lire à la fois comme un retour d’expérience à l’usage des futurs cadres de grandes bibliothèques et comme un guide inspirant pour le futur des bibliothèques, mais également comme un segment de l’histoire culturelle de la Suisse. En effet, comme le souligne Alexis Rivier dans son préambule, les quatre institutions, sous l’impulsion de leur direction, « […] ont contribué à mettre en place ce qui est peu à peu devenu une norme dans les pratiques sociétales du 21e siècle. » (p. 8). Au fil des pages, le lecteur peut ainsi saisir en quoi les bibliothèques ont grandement participé à l’avènement d’une société de l’information comme nous la vivons aujourd’hui. L’opacité des activités d’une bibliothèque scientifique ou patrimoniale est ici levée pour éclairer avec intelligence la façon dont ces établissements ont façonné des pratiques aujourd’hui généralisées : informatisation des espaces, partage de gros volumes de données, accessibilité des ressources et des savoirs, etc. L’autre intérêt de l’ouvrage est de dessiner rapidement une histoire récente des bibliothèques, du milieu des années 1980 jusqu’aux portes des années 2010.

Le format de l’entretien, ici retranscrit à la première personne, puis découpé thématiquement, apporte une certaine fluidité à la lecture ; la parole est vive et engagée, jusque dans la thématisation de certaines déceptions vécues par les directeurs. On peut regretter parfois que certains sujets ne soient davantage approfondis, notamment concernant les enjeux politiques des bibliothèques. Mais le découpage garantit une variété des sujets abordés qu’il est agréable de comparer entre les prises de parole. Dans un souci de transparence, il aurait été souhaitable d’ajouter en fin de volume le questionnaire reçu par chacun des intervenants. 

Qu’il s’agisse d’un public de néophytes, de bibliothécaires ou encore d’historiens, chacun pourra déceler, au sein de ce recueil d’entretiens inédits, de quoi nourrir ses intérêts. Il est à souligner enfin que la postface d’Alexis Rivier offre un bel effort de synthèse et d’ouverture vers des perspectives futures. A l’heure où certains responsables issus de grandes bibliothèques de notre pays prédisent des scenarios catastrophiques pour l’avenir des bibliothèques, il est cardinal d’écouter ces quatre voix riches d’expériences et d’espérances.

Notes

[1] Respectivement directeurs de la Bibliothèque cantonale du Valais – Médiathèque Valais (1988-2008), Bibliothèque publique et universitaire de Genève (1993-2007), Bibliothèque nationale suisse (1990-2005) et Bibliothèque cantonale et universitaire de Lausanne (1986-2008).

[2] Les entretiens, basés sur un questionnaire unique, ont ensuite été retranscrits à la première personne et amendés par les auteurs.

[3] Jacques Cordonier et Hubert Villard notamment évoquent à maintes reprises la mise en place du « Réseau romand des bibliothèques de Suisse occidentale » (Rero).

[4] Nous pensons naturellement au projet de la bibliothèque nationale portant son nom.

[5] Consulter : www.vallesiana.ch

[6] Ces trois portails concernent respectivement les livres anciens, les manuscrits médiévaux et les revues suisses.

[7] Consulter : http://memoriav.ch

[8] Il s’agit de l’acronyme désignant les géants du web que sont Google, Apple, Facebook et Amazon.

[9] C’est moi qui souligne. 

Bibliographie

CORDONIER, Jacques, JACQUESSON, Alain, JAUSLIN, Jean-Frédéric, VILLARD, Hubert. Entretiens. Genève : L’esprit de la Lettre, 2016. (Collection Bibliothécos), 116 p.

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires

Anleitung und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension

Ressi — 31 décembre 2016

Karsten Schuldt, Schweizerisches Institut für Informationswissenschaft, HTW Chur

 

Anleitung und Vorschläge für Makerspaces in Bibliotheken: Sammelrezension

Makerspaces in Bibliotheken: Eine grundsätzlich etablierte Idee

Makerspaces, Fablabs oder ähnlich benannte Abteilungen in Bibliotheken einzurichten, ist auch in der Schweiz einigermassen normal geworden.[1] Viele Bibliotheken haben dies in den letzten Jahren in grösseren oder kleineren Projekten unternommen, einige haben Makerspaces als dauerhaftes Angebot eingerichtet, andere als Veranstaltungsreihen oder nur mit einigen, ausgewählten Technologien, z.B. 3D-Druckern, die in der Bibliothek betrieben werden. Diese Makerspaces können sich kaum mit denen in Millionenstädten messen, die oft in der Literatur besprochen werden, sie erfüllen auch viele der Versprechen, die sich in der Literatur zu Makerspaces gemacht werden (Anderson 2013; Hatch 2014), nicht. Gleichwohl sind sie eine Angebot, dass Bibliotheken nicht mehr grundsätzlich erläutert werden muss. Vielmehr stellen sich praxisorientierte Fragen: Welche Technologien eignen sich für welche Arten von Makerspaces in welchen Bibliotheken? Wie teuer sind sie, auch im längerfristigen Betrieb? Was kann mit ihnen im Rahmen der Bibliothek angeboten werden? Bislang scheinen Bibliotheken diese Fragen jeweils für sich selber zu beantworten, jeweils neu, teilweise, nachdem sie Angebote von anderen Bibliotheken in ihrem Umfeld angeschaut haben.

Es scheint die auch immer wieder einmal in Gesprächen am Rande von Konferenzen und Weiterbildungen  geäusserte Vorstellung vorzuherrschen, dass es bislang keine Literatur dazu gäbe, wie Makerspaces in Bibliotheken eingerichtet werden könnten. Teilweise wird dies als Desiderat geäussert, dass zu schliessen wäre. Das ist nicht korrekt. Vielmehr werden seit einigen Jahren immer wieder neue Anleitungen dazu, wie Makerspaces in Bibliotheken eingerichtet und was in ihnen unternommen werden kann, publiziert, vorrangig in englischer Sprache. Im Folgenden soll eine Anzahl dieser Anleitungen kurz besprochen zu werden.[2] Es scheint allerdings nicht so, als wären diese Publikationen die letzten dieser Art. Vielmehr ist zu vermuten, dass aktuell in den Bibliotheksverlagen viele weitere Manuskripte dieser Art bearbeitet und in den laufenden Monaten und Jahren publiziert werden. Insoweit kann hier nur eine vorläufige Auswahl vorgestellt werden. Grundsätzlich sind die hier besprochenen Publikationen alle in einem sehr einfachen Englisch abgefasst, so dass sie ohne Probleme auch für Bibliotheken in der Schweiz genutzt werden können.[3]

Makerspace Workbench (Kemp 2013)

Obwohl Makerspaces immer lokal gestaltet werden und manchmal der Eindruck vermittelt wird, dass sie alleine deshalb entstehen würden, weil sie sinnvoll sind – Haike Meinhard (Meinhard 2014) oder Megan Egbert (Egbert 2016) sprechen von Maker-Bewegung bzw. Maker-Movement und suggerieren ein ungesteuertes Wachstum –, ist es doch möglich, auf einen Verlag als Antriebskraft hinter dieser Idee zu verweisen, nämlich MakerMedia (http://makermedia.com), San Francisco, die sowohl das Magazin make: (http://makezine.com) herausgibt, als auch die verbreitete Veranstaltungsreihe Maker Faire (http://makerfaire.com) betreut und als Brand hält.[4] Entgegen mehrfach aufgestelltet Behauptungen (z.B. Meinhard 2014) ist die Idee der Makerspace oder Fablab eben nicht in der Zivilgesellschaft, der Hackercommunity, den Schulen oder Bibliotheken entstanden, sondern von MakerMedia – auf der Basis von anderen Einrichtungen – vorangetrieben und auch als Brand etabliert worden. Das heisst nicht, dass diese Firma alle Maker-Aktivitäten kontrolliert oder von ihnen profitiert; aber es ist doch bedenkenswert. Die Firma hat die Darstellung und das Verständnis von Makerspaces (also: Was „kann“ in ihnen gemacht werden? Was nicht?) geprägt, viele positive Darstellungen, gerade der Zeit bis 2014, und Begründungen, warum Makerspaces etwas gutes sind, stammen direkt von ihr und wirken bis heute nach.

Neben dem Magazin make: und der Veranstaltungsreihe Maker Fair gibt die Firma in unregelmässigen Abständen auch Bücher heraus. Diese sind immer wieder ähnlich aufgebaut. Sie richten sich an Personen, die Makerspaces betreiben wollen und präsentieren vor allem Beispiele für Dinge, die hergestellt – also „ge-makt“ – werden können. Dies gilt unter anderem für The Makerspace Workbench von Adam Kemp (Kemp 2013), das hier als ein Beispiel der Produktionen des Verlages besprochen wird. Das Buch startet, wie viele Bücher aus diesem Verlag, mit einem fast schon missionarischem Einstieg in das „Making“ an sich, inklusive einer Kurzversion des „Makerspace Manifesto“. (Vgl. auch die ein Buch lange Ausarbeitung des „Manifesto“: Hatch (2015)) Anschliessend wird in einem Kapitel dargestellt, in welchen Räumen, mit welchen Sicherheitsmassnahmen und Ausstattungen ein Makerspace eingerichtet werden kann. Obgleich das Buch betont, dass es eine grosse Anzahl von Möglichkeiten gibt, arbeitet es doch beständig mit konkreten Beispielen, bis hin zu konkreten Geräten, die genannt, gezeigt und mit denen gerechnet (z.B. die für sie benötigte Elektrizität) wird. Die Beispiele beziehen sich immer auf US-amerikanische Geräte, Sicherheitsvorschriften etc., müssen also bei der Umsetzung in der Schweiz mit „übersetzt“ werden.

Bei all diesen, zum Teil sehr konkreten, Vorstellungen behält das Buch einen missionarischen Charakter bei. So werden z.B. kurz unterschiedliche Makerspaces besprochen (in der Bibliothek, der Schule, dem Klassenraum, in der privaten Garage), aber gleichzeitig bei jedem dieser möglichen Makerspaces noch einmal betont, wie gut sich diese jeweils eignen würden und wie zukunftsgerichtet sie wären. Man würde erwarten, dass dies nicht mehr nötig ist, da ein solches Buch vor allem von Menschen gelesen wird, die schon von Makerspaces überzeugt sind. Weitere Kapitelen besprechen eins zu eins einzelne Werkzeuge, Hilfsmittel und Materialien, die in einem Makerspace vorhanden sein können, inklusive Abbildungen aller dieser Produkte. In den weiteren Kapiteln werden Projekte für Makerspaces, auf der Basis der vorgestellten Materialien etc., vorgestellt, immer als konkrete Anleitungen gefasst, in einfachen Schritten, so wie in Kochbüchern Rezepte vorgestellt werden. Das ist alles sehr feingliedrig, inklusive unzähligen Bildern und Sicherheitstipps. Auffällig ist jedoch, dass sich die Darstellung immer auf das jeweilige Projekt selber bezieht, nicht auf Gruppeaktivitäten im Makerspace, nicht auf pädagogische oder andere Fragen. Zwar gibt es ein Kapitel mit dem Titel „Learning in a Makerspace“, aber auch dieses geht nicht ein auf pädagogische oder didiaktische Fragen, sondern präsentiert Projekte, die sich inhaltlich in das (US-amerikanische) Schulcurriculum eingliedern lassen, ohne z.B. auf mögliche Lernziele dieser Projekte einzugehen.  Es ist ein reines Projektehandbuch, welches allerdings den Grossteil der Publikationen des Verlages MakerMedia widerspiegelt. Dazu zählt das unhandliche A4-Layout, dass dem Buch ein wenig den Anschein einer Kopie aus dem Copyshop verleiht. Dieses Layout findet sich aber auch bei weiter unten besprochenen Publikationen (Preddy 2013, Wall & Pawloski 2014, Hamilton & Hanke Schmidt 2015).

Makerspaces in Schulbibliotheken (Preddy 2013)

Gerade in den USA scheint es, folgt man der Literatur, in zahllosen Schulbibliotheken Makerspaces zu geben. Leslie B. Preddy (Preddy 2013) legte – zumindest für die Schulklassen 6 bis 12, für die anderen gibt es keine vergleichbare Publikation – eine Anleitung für solche Einrichtungen vor. Auch diese Autorin formuliert in einer missionarischen Stimme, dass solche Einrichtungen die Bibliotheken verändern würden, z.B.: „A makerspace is an exciting oppurtunity for school libraries to take that next evolutionary step toward making the library a destination, instead of a fly-by stop.“ (Preddy 2013:1)

In einem ersten Kapitel versucht das Buch, die Arbeit eines Makerspaces in den Kontext US-amerikanischen Schulbibliotheken zu stellen. So postuliert die Autorin, dass Makerspaces in die Standards für Schulbibliotheken (AASL Standards for the 21st-Century Learner) passen würde und gleichzeitig in die Anforderungen, die das die Bundesstaaten übergreifende Schulcurriculum Common Core stellt. Ansonsten ermuntert die Autorin dazu, sich bei der Gestaltung des Makerspaces von der jeweiligen Schule leiten zu lassen.

Anschliessend stellt die Autorin auf über 140 Seiten nacheinander mögliche Projekte vor, zu grossen Teilen auch solche, die keine Technologie erfordern, sondern eher dem Basteln und Werken zuzuordnen sind. Die Projekte sind jeweils kurz beschrieben, mit Bildern angereichert und oft mit weiterführenden Links versehen. Die Beispiele sind durch die ausführliche Darstellung gut nachvollziehbar, aber gleichzeitig in dieser Masse auch ermüdend. Auffällig ist, dass die Beispiele ebenso, wie bei Kemp (Kemp 2014), quasi ohne weitere Hinweise auf pädagogische oder andere Fragen auskommen. Hilfreich ist die listenhafte Aufzählung von Technologien für Makerspaces im Anhang des Buches.

Makerspaces für Kinder und Teens (Wall & Pawloski 2014)

Ähnlich, wie Peddy (Peddy 2014) für Schulbibliotheken gehen Cindy R. Wall und Lyyn M. Pawloski (Wall & Pawloski 2014) in ihrem Buch zu Makerspaces in Bibliotheken für Kinder und Teens vor. Im unhandlichen A4-Format wird in einer kurzen Einleitung wieder mit sehr grossen Versprechen gearbeitet, wenn begründet wird, warum Bibliotheken Makerspaces haben sollten:

The Maker philosophy empowers people with the knowledge that they can create the things that they want and need. In the ideal Maker world, when people have a need, they do not wait for a corporation to acknowledge that need and create a product; instead they make the product themselves. Therefore, library Maker programming should empower participants to believe in their ability to create something through experimentation and trial and error. The Maker Movement allows individuals to free and shift their thinking; it allows everyone to think in terms of unlimited possibilities. (Wall & Pawloski 2014:1)

Diese Aufzählung enthält regelmässig verbreitete Behauptungen über Makerspaces, z.B. das in ihnen durch „Trail and Error“ gelernt werden würde, ohne das dies weiter begründet wird. Diesen grossen Ankündigungen folgen allerdings wieder nur 160 Seiten mit einzelnen Projekten. Diese Projekte sind übersichtlicher dargestellt, als in den bislang besprochenen Büchern und folgen immer der gleichen Struktur (Vorstellung, Kosten, Zeit, Vorteile, „Zielgruppen“, benötigtes Personal, „Zutaten“, Vorbereitung, Durchführung, Varianten, mögliche Zusätze, übrigbleibender Müll und weiterführende Literatur). Der Einsatz von Bildern ist zurückhaltender, ansonsten wird ein gewiss lustig gemeinter Stil durchgehalten, bei dem die Projekte als Kochrezepte (Durchführung heisst z.B. „Bake“) präsentiert werden. Teilweise sind die nötigen Schritte auch sehr differenziert dargestellt. Die Anhänge verorten die Beispiele eher in der Schule, z.B. gibt es Diskussionsfragen für Gruppen, die im Anschluss an bestimmte Projekten gemeinsam diskutiert werden können und auch einige Arbeitsblätter.

Konkrete Beispiele (Bagley 2014; Willingham & de Boer 2015)

Während die bislang besprochen Bücher vor allem konkrete Projekte darstellten, die in Makerspaces umgesetzt werden könnten, versammelt Caitlin A. Bagley (Bagley 2014) konkrete Makerspaces in US-amerikanischen Bibliotheken. Dieser Sammlung stellt sie Überlegungen zu Makerspace voran, die sich vor allem mit der Begründung für diese (Warum sollten sie in einer Bibliothek vorhanden sein?) und Finanzierungsmöglichkeiten beschäftigt. Anschliessend werden neun Einrichtungen in Öffentlichen, Hochschul- und Schulbibliotheken vorgestellt. Diese Vorstellungen folgen grundsätzlich dem immer gleichen Muster (Gründung, Finanzierung, Beschreibung des Ortes selber, Beschreibung der Technologien oder Werkzeuge, die erfolgreich eingesetzt wurden, Veranstaltungen und Betrieb, Marketing, Personal und Betreuung, Gruppen, die den Makerspace nutzen, sowie eine Zusammenfassung). Die Beschreibungen sind als reiner Text gefasst, also ohne Bilder aus den Makerspaces, aber auch ohne Tabellen etc. Die Sprache ist, verglichen mit den andern Büchern, die einen missionarischen Eifer an den Tag legen, sehr konkret an den jeweiligen Beispielen orientiert. Es werden vor allem Erfolge gezeigt, aber auch gesagt, was nicht funktioniert hat oder wo es Schwierigkeiten gab.

Das Buch scheint vor allem zu zeigen, dass es möglich ist, langfristig und erfolgreich Makerspaces in Bibliotheken zu betreiben. Zudem erinnert die Autorin daran, dass es notwendig ist, im Vorfeld zu klären, was für einen Makerspace, mit welchen Zielen und vor allem mit welchen Möglichkeiten eine Bibliotheken haben möchte, bevor sie daran geht, ihn zu planen.

Theresa Willingham und Jeroen de Boer (Willingham & de Boer 2015) verbinden in ihrem in der Reihe Library Technology Essentials – und damit neben anderen Titeln zu technischen Themen – erschienenen Band die Darstellung von Beispielen mit der Darstellung konkreter Veranstaltungen in Makerspaces. Auch dieser Band ist in einer übermässig positiven Sprache verfasst, bei der schnell der Eindruck entsteht, dass über tatsächliche Schwierigkeiten einfach hinweggegangen wird. Sie wagen sich, einen schnellen Überblick zur Geschichte von Makerspaces in Bibliotheken und eine Begründung für solche Räume vorzustellen, der aber sehr strittig ist. Gleichzeitig stellt diese Darstellung nicht den Fokus des Buches dar.

Vielmehr versucht das Buch, auf der Basis von konkreten Erfahrungen in Bibliotheken, alle Themen anzusprechen, die für die Entscheidungen rund um einen Makerspace notwendig sind. Letztlich bleibt vieles der lokalen Interpretation überlassen (Z.B.: „Make the lab an essential part of business operations and try to find as much support as possible within the organization.“, Willingham & de Boer 2015:26), gleichzeitig werden Vorschläge für die Anschaffung von Hardware und Software gemacht (wobei die Software zumeist Open Source Produkte sind), die wohl schon mit der Drucklegung überholt gewesen sein dürften. Das Buch gibt eher Richtungen und zu beachtenden Themen vor. Mehr kann es vielleicht nicht leisten.

Daran an schliessen Vorstellungen von 14 Bibliotheken mit Makerspaces, FabLabs oder ähnlichen Initiativen. Auch diese haben einen starken Fokus auf die USA (ein Beispiel kommt aus Italien, ist aber in Zusammenarbeit mit der dortigen U.S. Embassy realisiert), eine Anzahl stammt aber aus Skandinavien und den Niederlanden. Die Vorstellungen sind jeweils relativ kurz gefasst, je rund zwei bis vier Seiten. Was sie von den Darstellungen bei Bagley (2014) unterscheidet ist, dass sie sich nicht auf stationäre Makerspaces in Bibliotheken beschränken, sondern auch mobile Makerspaces von Bibliotheken (FryskLab, betreut vom Herausgeber des Buches Jeroen de Boer) und Initiativen, die mit Bibliotheken zusammen (temporäre) Makerspaces durchführen, vorstellen. Diese Beispiele zeigen, dass auch solche kurzfristigen Veranstaltungen möglich sind, dann allerdings – was nicht besprochen wird – bestimmte Ansprüche (Community-Bildung, pädagogische Konzepte), die sonst mit Makerspaces verbunden werden, aufgegeben werden, weil sie in temporären Veranstaltungen gar nicht umgesetzt werden können.

Im letzten Drittel des Buches werden, wieder auf der Basis von schon durchgeführten Programmen in Bibliotheken, einzelne Projekte vorgestellt und so beschrieben, dass sie prinzipiell auch anderswo durchgeführt werden können. Diese Projekte unterscheiden sich von denen, die bei Kemp (Kemp 2013), Preddy (Preddy 2013) oder Wall und Pawloski (Wall & Pawloski 2014) beschrieben werden, dadurch, dass sie mehr auf den Kontext Bibliothek eingehen (z.B. Einsatz des Personals) und weniger genau auf das Projekt (z.B. was genau mit dem 3D-Drucker produziert wird).

Grundsätzlich hat auch dieses Buch seine Schwächen, insbesondere sind die Herleitungen und Begründungen für Makerspaces nicht nachvollziehbar. Von allen hier besprochenen Büchern ist es aber das zugänglichste und für Bibliotheken auch motivierenste.

Arbeitsblätter für Makerspaces (Hamilton & Hanke Schmidt 2015)

Auf den ersten Blick kaum von den anderen Anleitungen für Projekte in Makerspaces wie Preddy (Preddy 2013) oder Kemp (Kemp 2013) zu unterscheiden – bis hin zum A4 Format – geht das Buch von Matthew Hamilton und Dara Hanke Schmidt (Hamilton & Hanke Schmidt 2015) doch weiter. Es geht nicht um konkrete Veranstaltungen, die durchgeführt werden, sondern um einen möglichst einfachen Zugang für Bibliotheken, um Makerspaces zu machen. Dafür werden, immer auf der Basis von Erfahrungen von Makerspaces, die in US-amerikanischen Bibliotheken existieren, Angaben zu Projekten gemacht und Vorlagen geliefert, z.B. Vereinbarungen für die Nutzung eines Makerspaces, die quasi direkt kopiert und dann anderswo zu Unterschrift vorgelegt werden können, Sicherheitsreglements oder Schreiben an Lehrpersonen und Eltern. Es werden Angaben über Kosten etc. gemacht und immer wieder in kurzen Interviews Makerspaces vorgestellt. Es wird besprochen, wie Makerspaces geplant und wie sie ausgestattet werden können sowie das sie auch als Medialabs gestaltbar sind. Das alles auf einer sehr anwendungsbezogenen Ebene, teilweise mit Hinweisen zu Technologien, Preisen etc., die schon überholt sein werden. Sichtbar ist an diesem Buch, dass in ihm die Bibliothekarinnen und Bibliothekare, die einen Makerspaces planen sollen, im Fokus stehen.

Die Welt retten mit Makerspaces? (Egbert 2016)

Megan Egbert (Egbert 2016) geht es in ihrem Buch hingegen vor allem darum, zu begründen, wie Makerspaces in Bibliotheken pädagogisch und gesellschaftlich sinnvoll genutzt werden können. Sie bietet keine Anleitung für Veranstaltungen etc., sondern vielmehr ein Begründung für verschiedene Arten des Making. Das Buch ist, fast noch mehr als das von Kemp (Kemp 2013), eine missionarische Schrift, die im Making einen Weg sehen will, der aus den angeblich überholten Bibliotheken (und Schulen) hypermoderne Einrichtungen machen soll. In weiten Teilen ist das kaum lesbar, in einer Marketing-Sprache geschrieben, die keinen Widerspruch und kein kritisches Hinterfragen zuzulassen scheint. So wird oft von überzeugten Vertreterinnen und Vertretern der Makerspaces geschrieben, insoweit ist das Buch als Beispiel für deren Argumentationen interessant. Es ist ein Diskurs, der ohne auf Geschichte und Entwicklung von Einrichtung sowie ohne wirklich die Gesellschaft, in der die Einrichtungen wie Bibliotheken existieren, wahrzunehmen, die Überlegenheit von „Making“ behauptet, weil es neu sei. Selbstverständlich ist es nicht neu, sondern die Wiederkehr älterer pädagogischer Ideen (z.B. wiederholen sich viele Behauptungen, Erwartungen und Ungenauigkeiten aus der Reformpädagogik), nur sehr gereinigt von allen gesellschaftlichen Fragen (und auch der Frage: Wozu? Was sollen Menschen damit lernen?). Ein sicherlich gut gemeinter, aber inhaltlich dürftiger Diskurs, der Grundprinzipien des neoliberalen Denkens (z.B. alles, was vorher war, sei schlecht und übersteuert, es müssen „disruptiv“ geändert werden, ohne zu fragen, wohin und wozu) fortschreibt; offenbar ohne sich dessen bewusst zu sein. In diesem Rahmen werden auch ehemals kritische Anfragen an die pädagogische Realität (z.B. die Frage, wieso Mädchen anderes lernen als Jungen oder die Vorstellung des Konstruktivismus, dass die Menschen ihr eigenes Wissen „konstruieren“ und nicht das, was sie gelehrt bekommen) möglichst in den Diskurs integriert, aber so, dass sie dabei ihrer kritischen Funktion entledigt werden.

Egbert lässt in ihrem Buch immer wieder persönliche Geschichten einfliessen, berichtet z.B. immer wieder von ihren Erfahrungen in ihren Bibliotheken (Meridian Library District, Idaho) und mit ihrer Familie. Das Buch selber ist also in der Realität der Autorin verankert, aber es scheint immer wieder durch, dass Idaho nicht so weit von den Zentren des missionarischen Sprechens über Making, Disruption etc. im Silicon Valley entfernt liegt.

Ansonsten geht das Buch die gleichen Themen durch, wie es auch Willingham und de Boer (Willingham & de Boer 2015) oder Bagley (Bagley 2014) taten: Gründe für Makerspaces, unterschiedliche Makerspaces, Finanzierung, Personal. Egbert geht, ganz in missionarischer Absicht, davon aus, dass es sinnvoll wäre, wenn Personen zu „Makern“ werden und dann auch in anderen Orten eine „Maker-Kultur“ verbreiten würden. Sie denkt dabei vorrangig an Bibliothekarinnen und Bibliothekare.

Die von ihr im Untertitel versprochen „Teaching Revolution“ beschränkt sich darauf, zu behaupten, dass mit Makerspaces konstruktivistische Pädagogik in der Bibliothek etabliert würde. Der Konstruktivismus geht als Lerntheorie davon aus, dass Menschen das, was sie lernen, selber konstruieren und die gesamte Umgebung, z.B. der Lernraum, die Planung einer Bildungsveranstaltung, die Arbeit der Lehrenden, bei diesem Prozess nur unterstützen können. Grundsätzlich kritisiert der Konstruktivismus andere Lerntheorien und stellt die Lernenden selber in den Mittelpunkt. Es ist im Rahmen der „Maker-Bewegung“ zum Allgemeinplatz geworden, zu behaupten, Makerspaces seien quasi die Umsetzung dieser konstruktivistischen Theorien. Das lässt sich bestreiten, schon da der Konstruktivismus weit länger diskutiert wird als Makerspaces. Bestreiten lässt sich auch die in der „Maker-Bewegung“ verbreitet Gegenüberstellung von „altem Lernen“ und „neuem, im Makerspace“. Vielmehr ist der Konstruktivismus schon länger in anderen pädagogischen Projekten ausprobiert worden und Grundlage vieler Veränderungen, die in den letzten Jahrzehnten in Schulen stattfanden. Ebenso kritisch zu sehen ist die in solchen Texten immer wieder als angebliche Neuerung hervorgehobene Partizipation der Lernenden. Auch diese wird seit Jahrzehnten in anderen pädagogischen Zusammenhängen angestrebt und umgesetzt. Egbert hingegen übernimmt die Behauptung der „Maker-Bewegung“ und reduziert sie auf eine sehr banale Ebene, bei der behauptet wird, dass, wenn Menschen in Makerspace „maken“ – also mit den eigenen Händen arbeiten, selber ausprobieren, in eher offenen Situationen agieren und auch, reflektiert, scheitern dürfen – sie besser lernen würden, als z.B. in Schulen.[5] Für die Planung von Makerspaces ist dieses Buch eher ungeeignet, es ist eher eine „Missionsschrift“.

Fazit: Viel Missionierungsanspruch, viele kleinteilige Anleitungen

Es ist in dieser Sammelrezension ersichtlich geworden, dass es grundsätzlich nicht an Literatur zu Makerspaces in Bibliotheken mangelt. Sie ist in grossen Teilen vom US-amerikanischen Denken geprägt, was bei der Nutzung in der Schweiz (oder anderswo) mit beachtet werden müsste. Insbesondere der missionarische Anspruch, möglichst viele Menschen in „Maker“ zu verwandeln, irritiert – zu Recht – immer wieder. Keines der hier referierten Bücher liefert eine nachvollziehbare und vor allem belastbare Begründung  dafür, wozu das gut sein soll. Gerade bei Kemp (Kemp 2013) und Egbert (2016) scheint eine Mentalität durch, wie sie sonst mit den „Start-Up Zentren“ wie dem Silicon Valley verbunden wird: ungesellschaftlich, immer ohne jeden Grund übermässig positiv und vor allem mit der Behauptung auftretend, die Welt vom Grunde auf zu verändern. Das stimmt bei Start-Ups nicht und es wird auch durch Makerspaces in Bibliotheken nicht eintreten.

Gleichzeitig zeigen die Bücher auch, dass es neben diesen Versprechen auch eine funktionierende Praxis von Makerspaces in Bibliotheken gibt. Sie werden die Welt nicht verändern, aber sie bereiten offenbar vielen Menschen – sowohl Nutzenden von Bibliotheken als auch dem Personal selber – Vergnügen und bilden eine sinnvolle Ergänzung anderer bibliothekarischer Angebote. Akzeptiert man diese Einschränkung, dann eignen sich mehrere hier besprochene Bücher für die konkrete Planung von Makerspaces (Willingham & de Boer 2015) oder Veranstaltungen in Makerspaces (Fleming 2015; Preddy 2013). Letztlich werden aber auch in diesen Büchern Bibliotheken immer wieder darauf zurückverwiesen, dass sie die Entscheidungen darüber, welche Angebote sie machen wollen, ob Sie Makerspaces einrichten wollen, und wenn ja, wie und wie sie diese nutzen wollen, immer selber treffen müssen. Es gibt keine überall funktionierenden Konzepte, es gibt keinen überall geltenden Grund, einen Makerspace einzurichten oder nicht einzurichten. Es ist einfach so, dass sie als Einrichtungen Spass machen können, aber auch Arbeit bedeuten. An Literatur, die dabei Unterstützung liefert, die jeweils notwendigen Entscheidungen zu treffen, mangelt es nicht.

Erwähnt werden muss zudem, dass in diesem Artikel, mit einer Ausnahme, nur Bücher besprochen wurden, die sich explizit mit Makerspaces in Bibliotheken beschäftigten. Es gibt weit mehr, erstens für andere Bereichen, z.B. für Schulen und für Makerspaces allgemein. Zweitens existieren neben gedruckten Büchern auch zahlreiche digitale Dokumente, z.B. zahlreiche Studienabschlussarbeiten (z.B. Blanpain, 2014) Handreichungen (z.B. Makerspace Resources Task Force 2014) und Webprojekte (z.B. http://www.makerspace.com). Zahlreiche grössere Makerspace stellen sich selber online dar (z.B. „The Edge“ der State Library of Queensland, Australien http://edgeqld.org.au oder, ausserhalb von Bibliotheken, der Makerspace der New York Hall of Science, http://makerspace.nysci.org). Sicherlich bedarf es immer wieder „Übersetzungsleistungen“ in die jeweiligen lokalen Kontexte, sicherlich muss man die jeweiligen Texte kontextualisieren und ihnen gerade nicht alles glauben. Aber am Ende ist, wer sich dafür interessiert, wie ein Makerspace in Bibliotheken funktionieren kann, heutzutage gut mit Materialien bedient.

Conclusion : beaucoup de revendications prosélytiques, une multitude de petits guides

Il s’est avéré, lors de ces recensions, qu’il ne manque pas de littérature sur les fablabs en bibliothèque. Il faut noter que cette littérature est souvent imprégnée d’une pensée américaine (des Etats-Unis), ce qui est à prendre en considération si on souhaite l’utiliser en Suisse ou ailleurs. En particulier cette approche de prosélyte, qui incite à transformer le plus possible de personnes en « makers », peut, à juste titre, irriter. Aucun des livres recensés ici ne donne de justification solide et compréhensible qui expliquerait pourquoi ce serait bien.

Chez Kemp (2013) et Egbert (2016) justement apparait une mentalité que l’on retrouve habituellement dans les pépinières de start-up ou à la silicon valley : non-sociale, ultra-positive sans aucune raison, et convaincue de changer le monde. Cela n’est pas plus juste pour les start-ups que pour les bibliothèques.

Cependant, ces ouvrages montrent également qu’à côté des promesses tous azimuts, il existe aussi une pratique des fablabs en bibliothèque. Ces fablabs ne changeront pas le monde, mais ils plaisent visiblement aussi bien aux usagers qu’aux personnels des bibliothèques, et représentent un complément intéressant aux autres services de la bibliothèque.

Cette limite étant posée, plusieurs ouvrages se prêtent à une planification concrète de fablabs (Willingham & De Boer, 2015), ou d’évenements dans des fablabs (Fleming, 2015 ; Preddy, 2013). Finalement ces ouvrages insistent sur le fait que c’est aux bibliothèques elles-mêmes de décider quelle offre elles souhaitent, si elles souhaitent mettre sur pied des fablabs, et si oui comment elles veulent les utiliser. Il n’y a pas de concept universel, il n’y a pas de raison valable pour tous, pemettant de mettre en place ou non un fablab.

Simplement ce sont des structures qui peuvent procurer du plaisir mais impliquent aussi du travail. Ce n’est en tout cas pas la littérature qui manque pour aider les bibliothèques à prendre les décisions nécessaires.

Il faut signaler que tous les ouvrages recensés dans cet article, à une exception près, parlent explicitement des fablabs en bibliothèque. Il y en a bien davantage, soit qui concernent les fablabs dans d’autres domaines comme les écoles par exemple, soit sur les fablabs en général. Ensuite il y a non seulement de la littérature imprimée mais aussi de nombreux documents numériques, par exemple des travaux de diplôme (Blancpain, 2014), des boîtes à outils (par ex. Makerspace Resources Task Force 2014) et des projets Web  (par ex. www.makerspace.com). De nombreux fablabs se présentent eux-mêmes en ligne (par ex., « the Edge », de la bibliothèque de l’Etat du Queensland en Australie, http://edgeqld.org.au, ou en dehors des bibliothèques, le fablab du New York Hall of Science, http://makerspace.nysci.org).

Il est certain que les nombreux textes sur le sujet nécessitent toujours un effort de transposition dans chaque contexte local et on ne doit pas tout croire. Mais finalement, celui qui s’intéresse à la manière dont un fablab peut fonctionner en bibliothèque a aujourd’hui tout le matériau qui convient.

Notes

[1]In der Deutschschweiz scheint vor allem von Makerspaces gesprochen zu werden, in der Romandie von Fablabs. Beide Namen meinen ausserhalb der Bibliotheken eigentlich ähnliche, aber nicht gleiche Einrichtungen. In Bibliotheken scheinen sie aber quasi-synonym verstanden zu werden. Im weiteren wird der Begriff „Makerspace“ verwendet.

[2]Die Besprechung entsteht im Zusammenhang mit dem Projekt LLgomo (Library Lab goes mobile) der HTW Chur, bei dem getestet wird, welche Formen und Ideen von Makerspaces sich in kleineren Gemeindebibliotheken umsetzen lassen.

[3]Zumal neben diesen Publikationen noch zahlreiche Anleitungen für Makerspaces / Fablabs in Schulen existieren, die hier nicht besprochen werden, aber für Bibliotheken ebenso interessant sein können.

[4]Das Magazin erscheint neben der englischen Ausgabe in Deutsch als beigeordnetes Heft der c't als Make: (https://shop.heise.de/zeitschriften/hardware-hacks/make-magazin), Maker Faires gibt es auch in der Schweiz (für die Deutschschweiz „betreut“ aus Deutschland, http://maker-faire.de) und im umliegenden Ausland, d.h. Frankreich (http://makerfaire.fr), Deutschland und Österreich (http://maker-faire.de) oder Rom, Italien (http://www.makerfairerome.eu/en/).

[5]Bücher dieser Art liegen auch für andere Bereiche vor. Laura Fleming (Fleming 2015) argumentiert ähnlich oberflächlich, wenn auch mit weniger Text, für Makerspaces in Schulen (und Schulbibliotheken), obwohl sie es als Lehrerin besser wissen müsste. Es ist also keine Besonderheit von Bibliotheken.

Literatur

Anderson, Chris (2013). Makers : the new industrial revolution. New York: Crown Business, 2013

Bagley, Caitlin A. (2014). Makerspaces: Top Trailblazing Projects (A LITA Guide). Chicago: ALA TechSource, 2014

Blanpain, Coline (2014). Un lab en bibliothèque, à quoi ça sert ?.  Villeurbanne Cedex France: enssib, http://www.enssib.fr/bibliotheque-numerique/documents/64259-un-lab-en-bi...

Egbert, Megan (2016). Creating Makers: How to Start a Learning Revolution at Your Library. Santa Barbara ; Denver : Libraries Unlimited, 2016

Fleming, Laura (2015). World of Making: Best Practices for Establishing a Makerspace for Your School. Thousand Oaks: Corwin, 2015

Hamilton, Matthew ; Hanke Schmidt, Dara (2015). Make It Here: Inciting Creativity and Innovation in Your Library. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2015

Hatch, Mark (2014). The Maker Movement Manifesto: Rules for Innovation in the New World of Crafters, Hackers, and Tinkerers. New York et al.: McGraw-Hill, 2014

Kemp, Adam (2013). The Makerspace Workbench: Tools, Technologies, and Techniques for Making. Sebastopol: MakerMedia, 2013

Makerspace Resources Task Force (2015) Making in the Library Toolkit, Young Adult Library Services Association, 2015, http://www.ala.org/yalsa/sites/ala.org.yalsa/files/content/MakingintheLi...

Meinhard, Haike (2014). Das Zeitalter des kreativen Endnutzers: Die LernLab-, Creatorspace- und Makerspace-Bewegung und die Bibliotheken. In: BuB 66 (2014) 479-487

Preddy, Leslie B. (2013). School Library Makerspaces, Grades 6-12. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2013

Wall, Cindy R. ; Pawloski, Lynn M. (2014). The Maker Cookbook: Recipies for Children's and 'Twenn Library Programs. Santa Barbara ; Denver ; Oxford: Libraries Unlimited, 2014

Willingham, Theresa ; de Boer, Jeroen (2015). Makerspaces in Libraries (Library Technology Essentials, 4). Lanham ; Boulder ; New York ; London: Rowman & Littlefield, 2015

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires

Gilbert Coutaz, Archives en Suisse. Conserver la mémoire à l’ère numérique, Lausanne, Presses polytechniques et universitaires suisses, 2016 (Le savoir suisse, 113), 131 p.

Ressi — 31 décembre 2016

Alain Dubois, Archives de l'Etat du Valais

 

Gilbert Coutaz, Archives en Suisse. Conserver la mémoire à l’ère numérique, Lausanne, Presses polytechniques et universitaires suisses, 2016 (Le savoir suisse, 113), 131 p.

La collection « Le savoir suisse », qui a notamment pour ambition de porter à la connaissance d’un large public les résultats de la recherche en langue française, consacre l’un de ses derniers numéros à la question des archives en Suisse. Qui mieux que Gilbert Coutaz, directeur des Archives cantonales vaudoises depuis plus de 20 ans, ancien président de l’Association des archivistes suisses, excellent connaisseur du paysage archivistique suisse et de la communauté professionnelle qui s’y rattache, pouvait s’atteler à cette tâche ? Au final, l’auteur nous livre une analyse fine, érudite et sans concession de la question, d’une lecture très agréable, qui se distingue certes de la vaste synthèse Archivpraxis in der Schweiz. Pratiques archivistiques en Suisse parue en 2007, quand bien même elle en reprend certains éléments.  

Archives en Suisse n’est pas une introduction à l’archivistique. Il ambitionne plutôt de donner la parole aux archivistes et de rappeler au grand public le rôle crucial, mais souvent incompris qu’ils exercent à une époque où l’explosion du volume d’information et le développement rapide des technologies de l’information et de la communication bousculent les repères et transforment les archives en réalités virtuelles qu’il s’agit de gérer au quotidien, de collecter, de conserver, de communiquer et de mettre en valeur. L’ouvrage de Gilbert Coutaz explore ainsi en sept chapitres un domaine peu connu, celui des archives en Suisse, en raconte l’histoire et en présente les objectifs, le rôle et les défis actuels.

Le premier chapitre, intitulé « Les archives aujourd’hui », donne rapidement le ton de l’ensemble du livre. L’archivistique et la communauté des archivistes sont souvent méjugées et incomprises, car considérées comme poussiéreuses (p. 9), alors que dans le même temps les archives exercent un rôle social et sociétal essentiel. Le métier d’archiviste a de fait connu ces dernières années de profondes mutations, que la société en général ignore, puisqu’il nécessite désormais l’acquisition de vastes compétences non seulement pour gérer des fonds d’archives historiques, mais également pour apporter une réponse adaptée aux exigences et aux défis nés des nouvelles technologies de l’information et de la communication et de la société de l’information et de la connaissance. L’archiviste est ainsi sans cesse tiraillé entre ces deux exigences parfois difficiles à atteindre de concert (p. 21). Gilbert Coutaz cherche ensuite à définir dans le second chapitre ce que sont les archives. Il rend tout d’abord attentif le lecteur à la polysémie du terme « archives » en français, explique ensuite précisément le sens des termes « informations », « données », « documents » et « records », utilisés parfois indifféremment, présente les quatre objectifs que poursuivent les archives (prouver, se souvenir, comprendre et s’identifier), avant de s’intéresser à la constitution des fonds et aux modes d’entrée des archives. Il termine son chapitre par l’évocation d’un aspect fondamental du métier : l’évaluation. Et lève à ce propos un cliché tenace : l’archiviste n’est pas un adepte de la conservation effrénée, puisqu’il ne conserve définitivement que 3 à 10% des documents produits ou reçus par une organisation dans le cadre de ses activités (p. 29).

Le troisième chapitre permet à Gilbert Coutaz de montrer ses vases connaissances de l’histoire des archives en Suisse et de dresser un panorama magistral de l’évolution de ces dernières de l’avènement des chancelleries au Moyen Age à la récente professionnalisation du métier, en passant par le développement de la Registratur au début du XVIIIe siècle, l’apparition des outils archivistiques modernes au XIXe siècle (plan de classement et principe de provenance, entre autres) ou la définition de nouveaux champs d’intervention. Succède à cette rapide fresque historique un chapitre consacré à l’archivistique helvétique, qui oscille entre fédéralisme et universalité. Gilbert Coutaz dépeint tout d’abord la mosaïque des dépôts d’archives publiques en Suisse, qui reproduit l’étagement des pouvoirs politiques (confédération, cantons et communes), et démontre que l’organisation archivistique suisse repose finalement sur les Archives cantonales ou les Archives d’Etat (p. 58). Il consacre également quelques pages à l’Association des archivistes suisses, créée en 1922, qui a tout d’abord contribué à l’affirmation progressive d’une véritable communauté professionnelle et garantit désormais aujourd’hui l’expression des droits, des devoirs et des pratiques de ses membres et la qualité des prestations (p. 66). Gilbert Coutaz dresse enfin le panorama de la formation professionnelle, qui s’est mise en place très tardivement par rapport aux pays voisins et se fonde sur les trois piliers suivants : l’apprentissage, la formation HES et les études postgrades. La communauté des archivistes s’est ainsi peu à peu constituée au cours des dernières années une identité professionnelle.

Le cinquième chapitre s’intéresse, pour sa part, aux pratiques archivistiques en Suisse. Celles-ci ont résolument évolué ces dernières années vers l’amont de la chaîne documentaire ; le cycle de vie des documents forme désormais un tout à maîtriser de l’élaboration des documents et la constitution des dossiers à leur versement dans un service d’archives ou à leur élimination contrôlée. Fort de ce constat, Gilbert Coutaz propose avec beaucoup de pertinence de substituer à la théorie des trois âges des archives, théorisée par Theodore Schellenberg en 1956, la « théorie des trois statuts de l’information » (statut de production, statut de trace et statut de source de connaissance) (p. 77-79). Il s’agit d’un apport original d’Archives en Suisse, qui ouvre de stimulantes pistes de réflexion et offre un complément intéressant au principe du records continuum qui tend actuellement à devenir la norme. La maîtrise de l’information nécessite du reste de pouvoir mobiliser différents outils tout au long de son cycle de vie. Gilbert Coutaz présente ainsi en détail les outils et les méthodes de travail qui fondent la pratique professionnelle : plan de classement et calendrier de conservation, qui permettent de gérer l’information au quotidien, évaluation des dossiers au terme de leur durée d’utilité légale ou administrative, ou encore description des archives selon les normes définies par le Conseil international des archives.

Faisant écho au premier chapitre, le sixième chapitre interroge l’identité professionnelle des archivistes, qui a fortement évolué ces dernières années pour embrasser de vastes champs de connaissances liés à l’ensemble du cycle de vie des documents. Les qualifications traditionnelles en paléographie ou en diplomatique ne suffisent en effet plus et doivent désormais être complétées par des formations poussées dans les domaines de la gestion des documents et des technologies de l’information et de la communication, auxquels il convient par ailleurs d’ajouter des compétences sociales avérées que ne mentionnent pas Gilbert Coutaz, mais qui sont pourtant essentielles dans l’exercice du métier au quotidien. Le profil de qualification rapidement brossé est certes exigeant, mais il correspond aux attentes placées dans les archivistes, qui doivent pouvoir exercer un rôle absolument central dans leur propre organisation en tant qu’expert de l’information. Comme l’énonce le septième et dernier chapitre, en guise de conclusion, « les archivistes doivent être actifs, coopératifs et vindicatifs, convaincants et visionnaires. Ils doivent exprimer leurs préoccupations, défendre leurs compétences et souligner leur niveau d’expertise, rechercher partout où cela est possible des collaborations et des alliances pour combler leurs lacunes, dénoncer les dérives, les manipulations et les négligences en matière de gestion d’archivage » (p. 124).

Archives en Suisse est ainsi une contribution majeure sur le rôle et la place des archives et de l’archiviste dans la société actuelle. Destiné à un large public, l’ouvrage explique de manière didactique et érudite, dans un langage simple, les enjeux qui sous-tendent actuellement la profession et qui permettent à la fois de garantir une gouvernance transparente et responsable, et de constituer, conserver et transmettre aux générations à venir la mémoire individuelle et collective de notre temps. Destiné aux historiens, l’ouvrage tend à montrer qu’un fonds d’archives dépend fortement des conditions qui ont présidé à son élaboration et à sa prise en charge, et qu’il convient par conséquent de tenir davantage compte du contexte d’origine des sources sous peine de mal les interpréter. Destiné aux archivistes, l’ouvrage explique parfaitement l’évolution du métier à travers le temps, à travers ses lignes de permanence et de fracture, et permet ainsi d’ancrer la profession dans un long terme qui gagnerait à être mieux connu. Destiné aux décideurs, enfin, l’ouvrage montre la plus-value que peut apporter aujourd’hui un archiviste au sein de la société de l’information et de la connaissance, par ses nombreux champs d’expertise, ou au sein d’une organisation, qu’elle soit publique ou privée, en termes de gestion de l’information. Il s’agit d’une évidence : un service d’archives est un véritable centre de compétences en matière de gestion de l’information, qui dispose des connaissances nécessaires pour apporter des réponses crédibles, pragmatiques et durables aux besoins exprimés dans ce domaine par une organisation et ses collaborateurs. C’est ce message qui fait de l’archiviste un acteur central et recherché qu’il convient de retenir en priorité de l’ouvrage de Gilbert Coutaz.

 Archives en Suisse dresse le portrait d’un archiviste qui travaille en étroite collaboration avec différentes professions pour maîtriser l’information tout au long de son cycle de vie. L’ouvrage évoque ainsi régulièrement la nécessaire coopération avec les informaticiens et les « administratifs » dans le cadre des projets de gestion des documents (p. 93). Dans ce contexte, le contenu du chapitre consacré aux collaborations entre archives, musées et bibliothèques, intitulé « Evitons l’amalgame », est difficilement compréhensible. S’il convient bien évidemment de relever les différences de métier fondamentales qui existent entre ces trois domaines, il me paraît tout aussi important de souligner les collaborations fructueuses qui ont pu être instaurées ces dernières années entre archives, musées et bibliothèques et qui ont débouché sur la mise en œuvre de solutions novatrices et durables, où le rôle des archives a du reste été réaffirmé, voire même renforcé. Quant à la question du rattachement institutionnel, elle me semble mal posée. C’est en effet la figure de l’archiviste, capable d’apporter des réponses crédibles aux besoins de son organisation en termes de gestion des documents et des archives, qui doit être davantage mise en avant que la structure organisationnelle en tant que telle. Si l’on fait aujourd’hui appel à un archiviste au sein d’une organisation, c’est avant tout pour son savoir-faire et non pas en raison de son rattachement hiérarchique à telle ou telle entité. Du moins j’ose l’espérer. Qu’il me soit du reste permis de préciser ici qu’Archives en Suisse se place dans la série « Opinion » de la collection « Le savoir suisse », qui permet aux auteurs invités d’exprimer des vues personnelles sur certaines thématiques. Gilbert Coutaz émet ainsi une position personnelle sur les relations entre archives, musées et bibliothèques, qui n’est pas forcément partagée par l’ensemble de la communauté archivistique.

Finalement, il reste à espérer qu’Archives en Suisse soit diffusé au-delà de la seule communauté des archivistes, qu’il suscite le débat d’idées sur la place de l’archiviste dans la société de l’information et de la connaissance et qu’il nourrisse les réflexions sur le rôle social et sociétal des archives en Suisse et dans le monde.

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires

La conservation numérique: un enjeu de taille! Retour sur la 3e École d’été internationale francophone en sciences de l’information et des bibliothèques

Ressi — 31 décembre 2016

Eunsu Ahn, ENSSIB

Camille Delaune, ENSSIB

Hésione Guémard, ENSSIB

Colin Harkat, ENSSIB

La conservation numérique: un enjeu de taille!

Retour sur la 3e École d’été internationale francophone en sciences de l’information et des bibliothèques

Entre le 27 juin et le 9 juillet 2016, s’est tenue la 3e édition de l'École d’été internationale francophone en sciences de l’information et des bibliothèques. L’École des Bibliothécaires, Archivistes et Documentalistes (EBAD)[1] de l’Université Cheikh Anta Diop (UCAD) (Dakar, Sénégal) a, à cette occasion[2], accueilli chaleureusement pendant deux semaines des étudiants, des professionnels de bibliothèques, de centres de documentation et d’archives, afin de réfléchir ensemble sur les enjeux de la « conservation numérique ». L’école a été l’occasion de suivre des cours et des ateliers, dispensés principalement par Tristan Müller, directeur du service numérisation de la Bibliothèque et Archives Nationales du Québec (BAnQ, Montréal, Canada), d’écouter des retours d’expériences[3], moments forts d’échanges et de débats, et de faire des visites ciblées. Cet article résume l’essentiel des cours et des retours d’expériences, et livre également nos réflexions sur l’espace et la numérisation, la diffusion et la préservation, nous qui avons été des participants à cette 3ème édition de l’école d’été (et qui sommes étudiants en master professionnel à l’ENSSIB).

Espace et numérisation

Cette école d’été a apporté des connaissances sur la gestion de l’espace, car un des atouts indéniable de la numérisation est le gain qu’elle permet d’envisager de ce point de vue dans les structures de conservation. Papa Cheikh Thiéfaye DIOUF, archiviste au service des archives et de la documentation de la Faculté des lettres et sciences humaines de l’UCAD, explique que « la gestion de l’espace est l’une des priorités largement partagée par les spécialistes de l’information documentaire. En effet, les archivistes, les bibliothécaires et les documentalistes, après élimination pour les uns ou désherbage pour les autres, gagnent un minimum d’espace destiné à de nouvelles acquisitions ou à de nouveaux versements ».Nous notons que cette « gestion de l’espace » possible grâce aux projets de numérisation est parfois directement une réponse à des situations d’urgence. Julie Mbarga, de la Bibliothèque Universitaire de l’Université de Douala au Cameroun, illustre ce type de situations avec cet exemple : «des seaux par-ci, par-là sur le sol d’une mezzanine de 300m2 environ qui sert de salle de lecture à cent usagers par jour (chercheurs et étudiants) et de bureau à quinze membres du personnels, du fait d’une étanchéité délabrée. Tel est le spectacle peu reluisant qu’offre cette bibliothèque en saison de pluie».  Mais il faut noter que la situation critique n’est qu’un facteur dans la décision de mettre en place le processus de numérisation. La volonté de diffuser largement, et parfois même au delà de nos frontières, est également un argument de mise en place d’un projet de numérisation.

Diffuser auprès du public: une priorité!

La numérisation des fonds répond souvent à une forte demande de consultation des lecteurs. Le flux permanent des arrivées de documents rend d’autant plus indispensable le suivi des projets. L’école d’été n’a fait que rappeler ces deux aspects essentiels dans l’esprit des participants. En effet, Julie MBARGA témoigne « les cours, les ateliers, les échanges, les visites en entreprises dont nous avons bénéficié, grâce à une bourse de l’AIFBD (Association internationale francophone des bibliothécaires et documentalistes), nous ont montré l’urgence de sauvegarder sous forme numérique, et de mettre en ligne le fonds documentaire de la Bibliothèque universitaire (BU), particulièrement les thèses, les mémoires, les rapports de stage, les actes de décrets présidentiels, contenus dans le quotidien national bilingue du Cameroun : « Cameroun Tribune » que la BU reçoit chaque jour depuis 2003, du fait de la demande forte de notre public ». El Hadji Birame DIOUF, Conservateur des bibliothèques au centre de documentation de l’Institut Fondamental d’Afrique Noire (IFAN, Dakar, Sénégal) ajoute que l’Ecole d’été «a permis de prendre conscience que la conservation numérique de l’information ne signifie pas uniquement éviter l’effacement ou la perte des données ou les conserver intacts et intègres. Mais, cela signifie aussi conserver leur intelligibilité, leur lisibilité et la possibilité de les réutiliser pour satisfaire le besoin informationnel des usagers». Cette réflexion nourrie durant l’école d’été a donc amené les professionnels en poste à concrétiser dans un avenir proche des projets, comme c’est le cas avec Armand N’DA KOUADIO, bibliothécaire stagiaire à l’Institut de Géographie Tropicale (IGT) en Côte d’Ivoire  : « à travers cette formation [à l’école d’été], je souhaiterais mettre en place un dépôt numérique à l’IGT. La mission primordiale de ce dépôt est de préserver et diffuser les documents aux étudiants et aux enseignants chercheurs. Pour réussir cette mission, nous allons mettre en place une politique de numérisation. Cette politique n’est pas limitée à l’action de convertir un document analogue dans une forme numérique, mais comprend également toutes les activités pouvant amener la mise en ligne d’une copie numérique accessible. Alors, plusieurs professionnels en sciences de l’information documentaire et informaticiens peuvent être appelés à participer à ces activités, qui incluent notamment, la sélection des documents originaux, la création des métadonnées, la conversion numérique, les opérations de post-numérisation et la mise en ligne des documents numérisés ».

La bibliothèque de l’Institut de Géographie Tropicale après la crise post-électorale de 2010.

À gauche:  Documents en attente de traitement. À droite: Documents traités et rangés dans les rayons : Source des images : Armand N’DA KOUADIO juillet 2014.  

Par ailleurs, nous avons eu la chance d’assister au retour d’expérience de Sophie MADIBA sur le Centre de Recherche et de Documentation sur les Traditions et Langues Africaines Cerdotola (Yaoundé, Cameroun) qui s’est interrogée sur comment organiser la conservation d’une collection orale ? En effet, comment collecter et diffuser un patrimoine oral afin de le conserver et de le transmettre au grand public, dans l’optique de ne pas l’oublier ? 

Et maintenant ? Se préparer et persévérer

Tristan MÜLLER a voulu attirer l’attention des étudiants sur la préservation à long terme : sur l’importance de connaître la technologie, comme par exemple la rétrocompatibilité, un concept notable. En effet, même si les documents numériques sont conservés, le matériel informatique et les logiciels actuels, les formats de fichier, ne sont pas forcément adaptés à leur lecture. Travailler sur la compatibilité implique de préserver les technologies, les ordinateurs comme les logiciels, ou alors émuler ces derniers, c’est-à-dire chercher à imiter un comportement physique d’un matériel sur un environnement informatique actuel.

De plus, cette démarche de numérisation implique des enjeux financiers et humains que dorénavant personne ne peut ignorer. Par exemple, la question de savoir comment réutiliser les « métadonnées issues des fichiers numériques » est apparue. Par ailleurs, comment « prioriser la conservation d’une collection » ? De nombreuses interrogations ont été soulevées sur cette thématique. En effet, qu’est-ce qui permet de sélectionner un fonds plus qu’un autre ? Prioriser la numérisation d’un fonds est souvent le témoin de la sauvegarde d’un patrimoine déjà en péril. Par exemple, Aminata CISSE, et Nathalie ALOU (respectivement conservateur et assistante conservateur au Ministère de l’Economie et des Finances à Abidjan, Côte d’Ivoire) vont mener un projet de numérisation d’une publication en série[4] en mauvais état afin de la préserver. Pour illustrer ces interrogations et prolonger les échanges, les ateliers, et plus particulièrement le deuxième[5], ont permis de se questionner sur les lois et règles en vigueur (nationales et internationales) relatives à la préservation, la conservation et à la communication des documents.

 Papa Cheikh Thiéfaye DIOUF rappelle qu’ « en tant que professionnel dans le domaine de l’information documentaire et étant averti, l’ambition d’être à la hauteur du temps (l’ère du numérique) ne doit en aucun cas nous pousser à ne pas prendre en compte les exigences très subtiles de la numérisation. N’eût été la nouvelle conception que l’on a aujourd’hui de la numérisation après avoir suivi les ateliers de l’école d’été, on serait aisément « séduit » par les avantages qu’elle offre (dématérialisation, gain d’espace physique, visibilité) sans pour autant s’arrêter un instant sur les préalables que requiert un projet de numérisation ». En effet, les apprenants se sont totalement appropriés, tant d’un point de vue théorique que pratique, les enseignements afin de les intégrer dans leurs milieux professionnels prochainement. Aujourd’hui, Adjovi Essenam FUMEY, étudiante en Master à l’EBAD affirme : « je me sens donc plus opérationnelle dans le cadre de mon emploi actuel pendant lequel nous sommes appelés à muter les documents audiovisuels et audio sur des supports en vu de leur diffusion et de leur conservation ».

Enfin pour conclure, les étudiants de l’Enssib recommandent une participation aux futures écoles d’été. En effet, « en tant que futurs professionnels nous sommes ravis d’avoir participé car au delà de tous ces apprentissages, cette école d’été a été l’occasion pour nous d’échanger culturellement et professionnellement ». La quatrième édition de l’école d’été se déroulera à l’EBSI, l’Ecole de bibliothéconomie et des sciences de l’information à Montréal, (Québec, Canada), et nous espérons vous y voir nombreux !

Eunsu Ahn, Camille Delaune, Hésione Guémard, Colin Harkat

(étudiants en master professionnel à l’Enssib et ayant participé à la troisième édition de l’école d’été internationale francophone en sciences de l’information et des bibliothèques). 

Notes

  • Complément d’informations sur le programme : http://www.ebad.ucad.sn/sygea/Ecole_ete_2016.html
  • Le site web (https://2eifsib.wordpress.com/) met à disposition toutes les informations complémentaires.

[1]Les représentants de chaque école sont intervenus durant la cérémonie d’ouverture le lundi 27 juin 2016. Une video est disponible sur la chaîne télévisée RTS (Radiodiffusion Télévision Sénégalaise).

[2]Après une première édition à l’École de bibliothéconomie et des sciences de l’information (EBSI, Montréal, Canada) sur la thématique « marketing et médiation numérique en bibliothèques » et une deuxième à l’École nationale supérieure des sciences de l’information et des bibliothèques (Enssib, Villeurbanne, France) sur « patrimoine, public, numérique », en 2016 le partenariat se renforce puisque la Haute École de Gestion (HEG, Genève, Suisse) a rejoint l’organisation.

[3]Sophie MADIBA sur le Centre de Recherche et de Documentation sur les Traditions et Langues Africaines (Cerdotola) (Yaoundé, Cameroun); Yvonne Berthe CISSE NOUDOFININ sur la Bibliothèque Centrale de l'Université Cheikh Anta Diop de Dakar (Sénégal); Christian CHABRIER de la société privée de numérisation de fonds anciens Arkhênum (Bordeaux, France); Mor DIEYE de la section Archives de l’EBAD (Dakar, Sénégal).

[4]Elles déclarent : « En effet, notre production REF [Revue Économique et Financière] qui retrace la mémoire économique de la CI [Côte d’Ivoire] est en danger. Un inventaire effectué en 2015, nous révèle que les premiers numéros de cette publication sont en voie de disparition. Nous souhaitons conduire des numérisations des dix premiers numéros de la revue économique et financière ivoirienne. Ce projet permettra la sauvegarde de ce patrimoine et sa diffusion auprès de larges publics ».

[5]Le deuxième atelier portait sur le cas précis des Archives de la construction de la Grande Mosquée de Dakar. L’exercice consistait à estimer les risques, leurs impacts, et ensuite d’imaginer les moyens de prévention pour limiter ces incidents.

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires

Quelle gouvernance informationnelle pour une PME High Tech ?

Ressi — 31 décembre 2016

Aurèle Nicolet, Haute Ecole de Gestion, Genève

Résumé

Le présent article résume et condense un travail réalisé dans le cadre du Master en sciences de l’Information durant la première partie de l’année 2016.

Alpes Lasers, petite entreprise neuchâteloise, fait appel à la Haute école de gestion pour l'aider à mettre en place une gouvernance de l'information. Une enquête est menée sous la forme d'un état des lieux des documents et des pratiques documentaires. Deux instruments de collecte sont utilisés : un inventaire typologique et des entretiens semi-structurés avec les responsables des différentes unités. L'enquête pointe plusieurs lacunes que l'on peut résumer en un manque de vision d'ensemble de la gestion de l'information au sein de l'entreprise et une absence de maîtrise du cycle de vie documentaire. Suite à ces résultats, plusieurs recommandations sont formulées : définition d’une politique, nomination d’une personne responsable et mise en place d’outils méthodologiques (plan de classement, calendrier de conservation, politique de nommage, plan de gestion des données et plan de protection des documents essentiels).

Quelle gouvernance informationnelle pour une PME High Tech ?

Introduction

Fondée en 1998, Alpes Lasers est une jeune société anonyme spécialisée dans la recherche et le développement de laser à cascade quantique, une technologie relativement nouvelle, puisque les premiers essais concluants ont été menés au début des années 90 et les premières commercialisations ont commencé à l’orée des années 2000 (Quantum cascade laser 2016).

Constatant des difficultés à gérer efficacement son information, l’entreprise contacte la Haute école de gestion et lui demande de l’accompagner dans une démarche de gouvernance informationnelle, sous la forme d’un mandat. Deux principaux objectifs sont établis : cartographier les ressources informationnelles et formuler des recommandations.

Méthodologie

Afin de réaliser notre premier objectif, nous avons mené une enquête qui visait à dresser deux états des lieux, celui des ressources documentaires de l’entreprise et celui de ses pratiques de gestion de l’information.

Pour le premier point, nous avons choisi d’établir un inventaire typologique. Pour le second, nous avons opté pour des entretiens semi-directifs. En plus de ces deux états des lieux, nous avons également procédé à une analyse des exigences légales et réglementaires auxquelles est soumise l’entreprise.

Inventaire typologique

Pour réaliser notre inventaire, nous nous sommes inspirés de travaux préexistants, comme celui qu’a réalisé Mme Conus dans le cadre de son travail de Bachelor (Conus 2013, p.77). Nous avons aussi fait le choix de ne concevoir qu’une seul grille, prévue aussi bien pour les documents papiers que pour les documents numériques, car, pour Jean-Pascal Perrein, la non-différenciation du format est l’un des cinq piliers de la gouvernance informationnelle (Perrein 2014a). Notre grille comporte dix entrées :

  • Numéro de référence
  • Lieu de conservation
  • Titre du dossier : Il s’agit du titre inscrit sur le classeur ou la boîte d’archive ; pour les documents numériques, le nom du dossier ou du sous-dossier.
  • Description : le détail du contenu lorsque le titre n’est pas assez explicite ou inexistant.
  • Dates extrêmes
  • Unité productrice : cela désigne l’unité créatrice des documents ou de leur enregistrement.
  • Nature du support
  • Volume : il est donné en mètres linéaires pour les documents papier et en kilo-octet pour les documents numériques afin de faciliter la conversion en giga-octet.
  • État : Pour l’état de conservation, nous avons créé une échelle de trois degrés : bon, moyen et mauvais. Le niveau « mauvais » correspond à un état critique, tels que des moisissures, de l’urine ou d’autres éléments affectant l’intégrité des documents. Le niveau « moyen » est utilisé pour des documents présentant des pliures ou des déchirures, mais qui ne nuisent pas à son intégrité. Enfin, le niveau « bon » correspond à des documents ne présentant pas de dégâts ou extrêmement minimes. Comme l’échelle peut difficilement être reportée pour les documents numériques, nous avons utilisé l’entrée pour noter d’éventuels problèmes de lecture des fichiers.
  • Remarques : elles ont été utilisées pour des notes comme des indications données lors des entretiens ou des constatations au moment de l’inventaire.

Pour commencer notre inventaire, nous sommes partis de la liste de classeurs et de boîtes fournie par l’assistante administrative. Très vite, nous avons constaté que cette liste ne reflétait plus la réalité du terrain. En raison d’un récent déménagement, les lieux de stockage indiqués ne correspondaient plus et les classeurs/boîtes ne respectaient plus un ordre logique. Ainsi, différents éléments d’une même série se retrouvaient dispersés sur plusieurs étagères. De plus, des cartons contenant des classeurs de la filiale allemande n’avaient pas été ouverts.

Tous ces éléments ont engendré un retard sur le planning prévu et nous ont amené à continuer l’inventaire en parallèle des entretiens. Cependant, ce délai supplémentaire n’a pas été uniquement négatif, puisque les entretiens nous ont permis d’affiner notre compréhension sur certains dossiers et de découvrir l’existence de séries de documents que nous n’aurions pas soupçonnée.

Une fois terminé l’inventaire de documents papier, nous nous sommes attaqués aux documents numériques et avons exploré l’espace partagé « Common », le principal lieu de stockage en dehors des bases de données. Nous nous sommes heurtés à deux difficultés : le degré de détail de l’inventaire et l’identification du producteur. En effet, pour des documents physiques, le niveau de description est assez facile. Il s’agit généralement du classeur ou de la boîte d’archives. Dans le cas d’un dossier numérique, la séparation est plus difficile. Nous avons finalement opté pour une description au niveau du sous-dossier, nous réservant néanmoins le droit d’adapter ce niveau de description selon les cas rencontrés. Ainsi, l’organisation labyrinthique du dossier « Admin » nous a amené à affiner le degré de détail, alors que le dossier « Measurement », dont le type de contenu est extrêmement répétitif et standardisé, a été décrit au niveau du dossier.

Pour le deuxième problème, celui de l’identification claire d’un producteur, deux cas se présentaient. Dans l’un, le créateur du fichier ou du dossier n’était pas humain. On peut prendre comme exemple les programmes de mesure qui créent automatiquement des fichiers dans le dossier « Measurement ». Dans l’autre cas, le producteur est humain, mais nous ne possédons aucune indication de son nom ou de sa fonction. Or, au sein de l’entreprise, des personnes peuvent cumuler plusieurs responsabilités et les dossiers peuvent contenir des fichiers appartenant à des services différents.

Ces éléments problématiques ont rendu difficile l’établissement d’une comparaison claire entre les dossiers numériques et les dossiers papier.

Entretiens

Sur la base de l’organigramme, nous avons sélectionné huit personnes à interviewer : les différents de chefs de service/unité, l’assistante administrative et le CEO. Puis, nous avons préparé un guide d’entretien, basé sur un exemple fourni par notre directrice de mémoire (Makhlouf Shabou [ca. 2016]) et sur l’article de Crockett et Foster qui propose plusieurs questions à poser aux producteurs d’archives (Crockett et Foster, 2004, p. 51). Nous avons choisi d’orienter la discussion autour de trois éléments : les fonctions et activités du collaborateur, les problèmes d’accès à l’information et ses pratiques de gestion et d’archivage des documents. Une dernière partie permettait à l’interviewé d’exprimer ses attentes vis-à-vis du projet.

Une fois le guide terminé, nous avons contacté les collaborateurs afin de préciser le but de notre rencontre et fixer une date de rendez-vous. Les entretiens ont duré environ quarante-cinq minutes. Pour une meilleure flexibilité et afin que nos interlocuteurs soient plus à l’aise pour présenter leurs pratiques et problèmes, nous avons fait le choix de ne pas enregistrer les entretiens. Une fois les notes mises au propre, nous en avons envoyé une copie afin de les faire valider par le participant.

Résultats

Volumétrie

Commençons par la volumétrie. Alpes Lasers compte environ 50 mètres linéaires et 360 Go de données numériques. Pour des raisons de calcul, nous avons séparé les documents numériques des documents papier, car il est difficile d’établir une comparaison entre le poids d’un fichier et un métrage linéaire (Chabin 2013).

Figure 1 : Volumétrie des documents papier par service

Trois unités se partagent un peu plus de 90% de la masse documentaire papier. Il s’agit de l’assistante administrative (53%), de la filiale allemande AL-Technologie (23%) et de l’unité Back-End (17%) qui s’occupe du montage, de l’analyse des mesures et de la sélection des lasers. Leur prédominance s’explique assez bien. L’assistante administrative a la charge de la comptabilité, des ressources humaines, des relations avec les fournisseurs ou encore des dossiers des clients. Pareillement, nous retrouvons pour AL-Technologie les dossiers comptables, ceux du personnel et les différentes commandes passées. Or, malgré le développement du numérique, tous ces éléments restent encore très souvent sous format papier. Pour l’unité Back-end, la majorité de ses documents sont des feuilles de mesure et des ordres de fabrication, qui jusqu’à présent étaient systématiquement imprimés.

Concernant la volumétrie de l’espace partagé « common », en raison du problème d’identification claire des producteurs évoqué plus haut, il nous était impossible de la présenter par service. Nous avons donc fait le choix de garder la structure de l’espace.

Figure 2 : Volumétrie des dossiers de l’espace partagé « common »

Quatorze dossiers composent l’espace partagé, mais n’ont pas tous la même importance. Nous pouvons tout de suite remarquer le poids important du dossier « Measurement » et celui dérisoire (<1%) de six dossiers. Pour quatre d’entre eux (« Attic », « Exe », « Lost and founds » et « Test set perms »), la raison est simple. Il s’agit de dossiers utilisés par l’unité IT comme débarras, zone de test ou d’aide à l’installation de programme. Concernant les deux derniers, l’explication est différente. « Produits » est un dossier récemment créé, dont une grande majorité de ses sous-dossiers sont vides, car la documentation pour les produits n’est pas encore rédigée. Enfin, la légèreté du dossier « Documentation » tient à la nature de ses documents : modèles, manuels et autres fichiers de texte.

Besoins et environnement d’Alpes Lasers

En parallèle de l’enquête menée via l’inventaire et les entretiens, nous nous sommes intéressés aux besoins et à l’environnement d’Alpes Lasers afin de les prendre en compte dans notre projet de gouvernance. Trois points sont ressortis : les objectifs stratégiques, les exigences réglementaires et normatives, ainsi que les besoins du secteur.

Puisqu’il n’existe pas de document présentant explicitement les objectifs stratégiques de l’entreprise, nous avons demandé au CEO de nous en dresser une liste. Trois objectifs sont ressortis, qui s’avèrent davantage opérationnels que stratégiques : la réduction du risque de développement, l’optimisation de la prévisibilité de la production et la maximisation des opportunités de comprendre les mécanismes sous-jacents. Ce sont trois éléments que nous pouvons relier à ceux de tout programme de gouvernance informationnelle (GlassIG 2016) : minimiser les risques, minimiser les coûts et optimiser la valeur.

Concernant la législation et dans le domaine qui nous intéresse, Alpes Lasers est principalement soumise, comme toute société anonyme, au Code des Obligations et à l’Ordonnance concernant la tenue et la conservation des livres de comptes (Olico). À ces deux textes, nous pouvons ajouter l’article 70 de la loi sur la TVA qui précise certains délais de conservation dans le cas des créances fiscales. De plus, comme la société a pris en charge les documents de sa filiale située en Allemagne en cours de fermeture, elle est également soumise à la législation allemande.

Pour les entreprises, la recherche et le développement jouent un rôle important, particulièrement dans un domaine novateur comme les lasers à cascade quantique. Deux éléments sont à prendre en compte : les brevets et les données de la recherche.

La quantité de brevets détenus par une société est un élément fondamental dans la course à l’innovation (Seuillot 2015). Ainsi, l’un des fondateurs d’Alpes Lasers, Jérôme Faist a presque dû réinventer le laser à cascade quantique, car les brevets de son invention « appartenaient aux Laboratoires Bell et étaient bloqués » (Fonds national suisse 2007, p. 2).

Depuis plusieurs années, les milieux universitaires et les organismes de financement s’intéressent à la gestion des données de la recherche et surtout à leur réutilisation possible. Ainsi, dans le cadre du programme Horizon 2020, l’Union européenne a lancé un projet pilote qui demande à chaque groupe de chercheurs un plan de gestion des données ou data management plan (DMP). Ce document planifie la gestion des données durant toute la durée d’un projet et au-delà, s’intéressant aux questions de conservation et de diffusion de données. Pour le moment, en Suisse, la rédaction d’un DMP n’est pas encore obligatoire, mais fait partie des mesures du programme pluriannuel 2017-2020 du Fonds national suisse de la recherche scientifique.

On pourrait être tenté de croire que l’adoption d’un DMP ne concerne que la recherche publique, car il a trait à l’ouverture des données, un élément qui coïncide peu avec des intérêts commerciaux. Cependant, il faut bien prendre garde à ne pas assimiler la gestion des données de la recherche à leur partage systématique (Donnelly 2015, p.11). En fait, les entreprises peuvent tirer plusieurs bénéfices d’un DMP, comme une amélioration du flux de données, une plus grande efficacité dans l’enregistrement ou encore la réutilisation des données au sein de l’entreprise (Beagrie, Pink 2012, p. 3).

Problèmes constatés

Notre enquête nous a permis de relever plusieurs éléments problématiques que nous avons ensuite apprécié selon les principes d’ARMA, car « [ils] forment les bases à partir desquelles tout programme efficace de gouvernance de l’information est élaboré, évalué et – que l’organisation ou son personnel les connaisse ou non – un jour ou l’autre jugé. » (ARMA International 2015, p. 2).

Commençons par l’absence d’une direction de l’information qui touche au principe de responsabilité. Cela entraine un manque de vision d’ensemble permettant de coordonner les efforts de chacun. Ainsi, chaque collaborateur développe sa propre méthode sans avoir connaissance de celle des autres ou de retour sur la sienne, un manque qui a plusieurs fois été exprimé lors des entretiens.

Le second élément problématique est celui de la disponibilité. Il est difficile d’accéder à l’information, en dehors des dossiers connus et utilisés régulièrement. Plusieurs facteurs peuvent l’expliquer. Tout d’abord, chaque unité a sa propre méthode de classement. Ensuite, il n’y a pas de processus d’élimination des éléments obsolètes ou redondants, ce qui engendre du bruit. Enfin, l’environnement informatique hétérogène rend l’accès difficile à certains programmes.

Lors de l’inventaire, nous avons relevé la difficulté d’identifier clairement le producteur. Cette absence d’information sur le contexte de création, comme l’identité de l’auteur, rend problématique la vérification de l’authenticité et de la fiabilité d’un document et donc au principe d’intégrité.

D’une manière générale, Alpes Lasers veille à la protection de ses données et à leur confidentialité. Cependant, lors de nos entretiens, nous avons appris que plusieurs collaborateurs utilisaient des services comme Dropbox ou Google Drive pour le travail à distance ou le partage de documents avec des personnes externes à l’entreprise, comme des fournisseurs ou des clients. Cela pose des problèmes de perte de maitrise de l’information, car les conditions exactes de stockage et de protection de ces fournisseurs sont peu transparentes.

En ce qui concerne les principes de conservation et de disposition de l’information, nous relevons l’absence d’un sort final pour les documents. Une fois créés, ils sont conservés, quelle que soit leur valeur. Ceci engendre plusieurs problèmes. Tout d’abord, la présence de documents redondants ou obsolètes entraine un bruit lors des recherches. Ensuite, tôt ou tard, se posera la question de la place.

Enfin, le dernier point problématique touche au principe de transparence. Alpes Lasers documente peu ses processus ou sa production. Cette absence de documentation est caractéristique des PME, « car la proximité permet les échanges oraux sans formalisation écrite » (Hassanaly 2013, p.47). À ce titre, le choix adopté par l’unité IT de proposer une aide ponctuelle plutôt que de concevoir des manuels d’utilisateur est particulièrement illustratif. Consciente de cette lacune, l’entreprise a entrepris des efforts dans ce sens, mais la démarche est récente et apparaît peu dans les entretiens, ce qui tend à penser que cela n’a pas encore été bien intégré par les collaborateurs.

Recommandations

À partir des résultats de l’enquête et des lacunes constatées, nous avons exprimé une série de recommandations qui s’articule autour de trois points : définition d’une politique, engagement d’une personne responsable de l’information et adoption d’outils méthodologiques.

Définir une politique de gouvernance informationnelle

Document qui traduit l’engagement de la direction dans la gestion de l’information, la politique de gouvernance informationnelle cadre et légitime « un ensemble d’exigences et de règles, formalisées et rendues applicables dans un référentiel ». (Perrein 2013). Elle possède quatre objectifs (Makhlouf Shabou 2015, p. 8) :

  • Consigner la stratégie et les décisions prises concernant la gouvernance ;
  • Communiquer cette stratégie et les décisions prises à l’ensemble de l’organisation ;
  • Impliquer la direction ;
  • Uniformiser les pratiques.

Comme il s’agit d’une pratique encore peu répandue, il n’existe, pour le moment, pas de modèle canonique. Cependant, différents éléments tendent à se retrouver dans les politiques que nous avons analysées. On trouve souvent un exposé des bénéfices et des objectifs, une définition des rôles et responsabilités, et enfin une liste des normes et des standards auxquels se référer.

Pour réaliser une première version de notre politique de gouvernance, nous nous sommes inspirés de celle de l’Université de Lausanne (UNIRIS 2014a). Deux éléments ont présidé ce choix. D’une part, son cadre légal est, en partie, similaire à celui d’Alpes Lasers : les deux organisations sont suisses. D’autre part, la forme claire et didactique nous semblait parfaitement convenir pour une entreprise qui n’est pas familiarisée avec les questions de gouvernance. Il faut toutefois noter que la politique proposée dans notre travail, l’est à titre d’illustration. Mettre en place une politique nécessiterait plus de temps que ce que nous avions à disposition.

Nommer une personne responsable

Tous (ARMA International 2015, p. 2 ; Perrein 2015) s’accordent sur l’importance de nommer une personne ou une entité dédiée à la gouvernance de l’information. Dans notre travail, nous avons envisagé de confier cette responsabilité à une seule personne, mais, suite aux remarques de notre expert, il nous semble plus intéressant d’établir un comité en charge de la gouvernance et d’avoir une personne spécialiste de l’information pour sa mise en application. Concernant cette personne, trois scénarios sont possibles : l’engagement d’un ou d’une professionnelle à 40%, l’appel à une entreprise spécialisée ou un partenariat avec la Haute école de gestion.

L’engagement d’un professionnel offre plusieurs avantages. La personne est intégrée dans la société et a une bonne connaissance de ses processus et de ses ressources, ce qui facilite la coordination entre les différents acteurs, comme l’IT, la direction et les producteurs d’information. De plus, elle peut plus facilement s’engager dans des projets à long terme comme la valorisation des archives définitives. Seul inconvénient, l’engagement est une charge fixe, difficile à moduler selon les ressources financières de l’entreprise.

L’appel à une société spécialisée, par rapport à l’engagement d’une personne fixe, offre un avantage d’ordre budgétaire, puisqu’il est plus facile d’ajuster la dépense selon la situation financière ; mais en raison de son externalité, elle risque de ne pas avoir une vision d’ensemble et de coordination entre les services et donc de ne pas conduire à une véritable gouvernance de l’information.

Enfin, le troisième scénario, un partenariat avec la Haute école de gestion, dispose des mêmes avantages et inconvénients que le deuxième. Nous retrouvons une dépense moindre, puisqu’il s’agit d’étudiants en formation, mais le problème d’externalité est augmenté. En effet, il est difficile de disposer d’une vision d’ensemble, lorsque chaque étudiant doit s’approprier le contexte de l’organisation. Le troisième scénario pourrait davantage prendre la forme de mandats ponctuels portant sur des éléments précis, tels que la mise en place d’un plan de classement ou d’un calendrier de conservation.

Mettre en place des outils méthodologiques

Plan de classement

Selon la norme ISO 15489, le plan de classement a trois usages (ISO 15489-2, p. 9). D’une part, il permet d’organiser, décrire et articuler les documents. Il sert également à relier et à partager les documents communs à plusieurs entités, en interne comme à l'extérieur de l'organisme. Enfin, il offre la possibilité d’améliorer l'accès, la recherche, l'utilisation et la diffusion des documents de la manière la plus appropriée.

Une fois le plan de classement validé, se pose la question de sa mise en place. La commission « Records Management » de l’association des archivistes français considère trois stratégies : la renaissance, la reprise partielle ou la reprise totale (Groupe interassociation AAF-ADBS "Records Management" 2011, p. 29).

La stratégie de la renaissance consiste à arrêter une date à laquelle l’ancienne arborescence ne peut plus être modifiée. Seule la lecture est autorisée et les documents ne sont pas repris dans le nouveau classement. L’avantage de cette méthode tient à sa simplicité et à la possibilité de repartir à zéro. Cependant, le constant va-et-vient entre les deux structures risque d’entretenir la confusion plutôt que la dissiper.

La stratégie de la reprise partielle laisse les documents non essentiels et inactifs dans l’ancienne structure et rapatrie les autres dans la nouvelle. Cette option offre un bon compromis. La dépense en temps est moindre que pour la reprise totale. Son principal point noir est le risque de prolonger la transition entre les deux systèmes, mais le problème est moins important que pour la stratégie de renaissance.

La stratégie de la reprise totale fait le choix d’abandonner complètement l’ancienne arborescence et de transférer l’ensemble des documents sur la nouvelle. Cela a le mérite d’assurer une cohérence et une unité à l’ensemble, mais le coût en temps et en moyen est énorme. De plus, il existe un risque, faible mais réel, que certains documents ne puissent être repris dans la nouvelle structure, si certaines activités de l’entreprise ont changé, par exemple.

Pour notre part, nous recommandons cette dernière stratégie. Certes, l’investissement en temps est important, mais ce délai peut être mis à profit en éliminant les éléments obsolètes parallèlement au transfert des documents.

Calendrier de conservation

Présenté généralement sous la forme d’un tableau, le calendrier de conservation répertorie les différents types de documents d’une organisation et définit plusieurs éléments : le responsable de l’exemplaire principal et ceux des exemplaires secondaires pour chaque type de document ; la durée de conservation du document lorsqu’il n’est plus actif et enfin le sort final du document (élimination ou archivage définitif). Cela permettra à Alpes Lasers de maitriser le cycle de vie de ses documents.

Politique de nommage

Un nommage clair et précis rend facile l’identification et la classification des documents. Il peut en outre pallier à une absence de métadonnées (UNIRIS 2014b). Il convient cependant de ne pas imposer une politique artificielle, mais d'harmoniser les pratiques déjà existantes, car le succès dépend de plusieurs éléments, comme la consultation et l'adhésion des utilisateurs (Scaglione 2016, p. 4).

Plan de gestion des données de la recherche

En raison de la part importante de la recherche et du développement au sein d’Alpes Lasers, il nous semble important de mettre en place un DMP pour chaque projet, aussi bien interne qu’externe. Il n’est cependant pas nécessaire d’en créer un de toutes pièces. C’est pourquoi nous proposons d’adopter celui conçu pour le programme d’Horizon 2020 (Commission européenne 2016, p. 5).

Plan de protection

Alpes Lasers a déjà pris certaines mesures, comme la conservation de documents sensibles dans un coffre d’une banque. L’adoption d’un plan de protection des documents essentiels permettra de systématiser et d’unifier la pratique.

Conclusion

L’enquête menée nous a permis de relever plusieurs éléments problématiques, tels qu’une organisation des dossiers propres à chaque unité, voire à chaque collaborateur, ou encore une absence d’élimination des informations obsolètes ou redondantes. Ceci pointe un manque de gouvernance claire chez Alpes Lasers, d’une vue d’ensemble du fonds documentaire et du cycle de vie. Le problème n’est pas propre à notre mandant et touche de nombreux organismes.

Pour pallier ce problème, nous avons proposé une série de recommandations qui relèvent finalement davantage du records management que véritablement de la gouvernance informationnelle. Cela n’est pas étonnant, puisqu’on peut considérer le records management comme le socle de la gouvernance de l’information (Pagnamenta 2014, p. 11). Enfin, nous tenons à rappeler que les recommandations proposées ne constituent pas une fin en soi, mais ne sont qu'une première étape. En effet, la gouvernance de l'information n'est pas un projet à court terme, mais doit être envisagée sur le long terme (Smallwood 2014, chap.1 ; GlassIG 2016).

Bibliographie

ARMA INTERNATIONAL, 2015. Principes de tenue des enregistrements (Generally Accepted Recordkeeping Principles). ARMA International [en ligne]. 2015. [Consulté le 2 août 2016]. Disponible à l’adresse : http://www.arma.org/r2/generally-accepted-br-recordkeeping-principles

BEAGRIE, Neil and PINK, Catherine, 2012. Benefits from Research Data Management in Universities for Industry and Not-for-Profit Research Partners [en ligne]. Charles Beagrie Ltd and University of Bath, novembre 2012. [Consulté le 01 juillet 2016]. Disponible à l’adresse : http://opus.bath.ac.uk/32509/

CHABIN, Marie-Anne, 2013. Le mètre linéaire, unité de mesure des archives. Transarchivistique [en ligne]. 26 mai 2013. [Consulté le 5 août 2016]. Disponible à l’adresse : http://transarchivistique.fr/le-metre-lineaire-unite-de-mesure-des-archives/

COMMISSION EUROPÉENNE, 2016. Lignes directrices pour la gestion des données dans Horizon 2020. openaccess.inist.fr [en ligne]. 15 février 2016. [Consulté le 22 juin 2016]. Disponible à l’adresse : http://openaccess.inist.fr/IMG/pdf/lignes_directrices_gestion_des_donnees_horizon_2020_version2._1_tr_fr.pdf

CONUS, Lina-Luz, 2013. Analyse des pratiques d'archivage au sein de la Mairie de Chêne-Bourg en vue de la mise en place d'un système de gestion des archives [en ligne]. Genève : Haute école de gestion de Genève. [Consulté le 17 avril 2016]. Disponible à l’adresse : https://doc.rero.ch/record/233050

CROCKETT, Margaret, FOSTER, Janet, 2004. Using ISO 15489 as an Audit Tool. The Information Management Journal [en ligne]. July/August 2004. Vol. 38, pp.46-53. [Consulté le 1er août 2016]. Disponible à l’adresse : http://www.arma.org/bookstore/files/CrockettFoster.pdf

DONNELLY, Martin, 2015. Research Data Management & the H2020 Open Data Pilot. In : UNIVERSITÉ DE CHYPRE. Open Access to research publications and data. Nicosie, 22-23 octobre 2015 [en ligne]. FOSTER, 2015. [Consulté le 5 juillet 2016]. Disponible à l’adresse : https://www.fosteropenscience.eu/content/research-data-management-h2020-open-data-pilot

FONDS NATIONAL SUISSE, 2007. Mission sur Mars, avec le Fonds national suisse. snf.ch [en ligne]. Février 2007. [Consulté le 8 août 2016]. Disponible à l’adresse : http://www.snf.ch/SiteCollectionDocuments/Dossiers/dos_Grundlagen_Mars_f.pdf

GLASSIG, 2016. What have we learned about Information Governance?. GlassIG [en ligne]. 24 février 2016. [Consulté le 23 juillet 2016]. Disponible à l’adresse : http://www.glassig.com/2016/02/24/learned-information-governance-1-3/

GROUPE INTERASSOCIATION AAF-ADBS « RECORDS MANAGEMENT », 2011. Le plan de classement des documents dans un environnement électronique : concepts et repères [en ligne]. Site de l’Association des archivistes français (AAF), 17 juin 2011. [Consulté le 6 juillet 2016]. Disponible à l’adresse : http://www.archivistes.org/Groupes-de-travail-et-commissions

HASSANALY, Parina, 2013. Management de l'information : quelle réalité pour les TPE/PME ?. Documentaliste-Sciences de l'Information [en ligne]. 2013/1 (Vol. 50), pp.46-47. ISSN 0012-4508. [Consulté le 15 juillet 2016]. Disponible à l’adresse : http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2013-1-page-38.htm#s1n6

MAKHLOUF SHABOU, Basma, 2015. Politique de Gouvernance de l’Information. [document PDF]. 1er octobre 2015. Support de cours: Module 10 « Gouvernance de l'Information (GI) », Haute école de gestion de Genève, filière Information documentaire, année académique 2015-2016

MAKHLOUF SHABOU, Basma, [ca. 2016]. Guide d'entretien destiné au personnel du Système de Management Environnemental de l’Etat [document Word].

ORGANISATION INTERNATIONALE DE NORMALISATION, 2001. Information et documentation : "records management". 1ère éd. 2 vol. Genève : ISO, 15 septembre 2001. ISO/IEC, 15489.

PAGNAMENTA, Roxane, 2014. Gouvernance de l’information : définition, enjeux et perspectives en Ville de Genève [en ligne]. Genève : Haute école de gestion de Genève. Travail de master. [Consulté le 01 juillet 2016]. Disponible à l’adresse : http://doc.rero.ch/record/232841

PERREIN, Jean-Pascal, 2013. Définition de la gouvernance de l’information par des mots : Extrait du livre GouvInfo “Océan bleu”. 3org – Points de vue sur le flux Information [en ligne]. 2 avril 2013. [Consulté le 21 juillet 2016]. Disponible à l’adresse : http://www.3org.com/news/gouvernance_de_linformation/definition-de-la-gouvernance-de-linformation-par-des-mots-extrait-du-livre-gouvinfo-ocean-bleu/

PERREIN, Jean-Pascal, 2014. Les 5 piliers de la gouvernance de l’information. 3org – Points de vue sur le flux Information [en ligne]. 26 juin 2014. [Consulté le 23 juillet 2016]. Disponible à l’adresse : http://www.3org.com/news/gouvernance_de_linformation/les-5-piliers-de-la-gouvernance-de-linformation/

PERREIN, Jean-Pascal, 2015. L’instance de gouvernance de l’information trouve sa légitimité. 3org – Points de vue sur le flux Information [en ligne]. 13 janvier 2015. [Consulté le 2 août 2016]. Disponible à l’adresse : http://www.3org.com/news/flux_information/instance-de-gouvernance-de-linformation-trouve-sa-legitimite/

SCAGLIONE, Marc, 2016. Synthèse du questionnaire « Politique de nommage » [document PDF]. 17 mai 2016. Diffusé sur Swiss-lib Digest, Vol 85, Issue 10

SEUILLOT, Guillain, 2015. Retranscription de l’interview de Nicolas Grandjean sur les lasers. PodcastSciences.fm [en ligne]. 8 avril 2015. [Consulté le 28 juillet 2016]. Disponible à l’adresse : http://www.podcastscience.fm/dossiers/2015/04/08/retranscription-de-linterview-de-nicolas-grandjean-sur-les-lasers/

SMALLWOOD, Robert F., 2014. Information governance: concepts, strategies and best practices. Hoboken : Wiley, 2014. Wiley CIO series. ISBN 978-1-118218-30-3

UNIRIS, 2014a. Politique de records management et d’archivage pour une gouvernance informationnelle [en ligne]. Université de Lausanne, 30 juin 2014. [Consulté le 16 juillet 2016] Disponible à l’adresse : http://www.unil.ch/uniris/home/menuguid/a-telecharger/documents-de-reference.html

UNIRIS, 2014b. Politique de records management : Règles de nommage des documents électroniques [en ligne]. Université de Lausanne, 18 mars 2014. 7 novembre 2014. [Consulté le 16 juillet 2016] Disponible à l’adresse : http://www.unil.ch/uniris/home/menuguid/a-telecharger/pour-les-unites.html

 

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires

Big Data et intelligence économique : rendre le futur moins incertain : compte-rendu de la 13eme journée franco-suisse sur la veille stratégique et l’intelligence économique, 9 juin 2016, Genève

Ressi — 31 décembre 2016

Angélique Broye, Haute Ecole de Gestion, Genève

Big Data et intelligence économique : rendre le futur moins incertain : compte-rendu de la 13eme journée franco-suisse sur la veille stratégique et l’intelligence économique, 9 juin 2016, Genève 

Cette 13ème journée franco-suisse sur la veille et l’intelligence économique avait pour but de montrer l’enjeu stratégique des Big Data aujourd’hui dans divers domaines tels le marketing, la santé, les transports publics, la gestion des risques et bien d’autres encore. En matière d’intelligence économique, les enjeux liés à l’exploitation des données du Big Data sont considérables. Ces données transforment les attentes des entreprises qui visent encore plus la performance et l’innovation.

C’est donc sur ce thème que la directrice de la Haute Ecole de Gestion de Genève, Madame Claire Baribaud, a ouvert cette journée de conférences devant la septantaine de personnes présentes dans l’aula du nouveau bâtiment de la HEG-Genève.

S’en est suivi le discours de bienvenue de Monsieur Nicolas Walder, maire de la ville de Carouge, se réjouissant de la continuation des liens franco-suisses par le biais du comité Jveille et invitant les participants à débuter l’écoute des conférences.

Big Data et prospective, par Thomas Gauthier

Monsieur Gauthier cherche à savoir quel est le rôle de l’anticipation pour une entreprise. Il explique qu’actuellement notre monde est devenu complexe. Ainsi, pour qu’une entreprise puisse garder ses clients, il faut qu’elle intègre dans ses produits et services des technologies informatiques qui évoluent vite. Mais il lui faut également des atouts qu’il lui faut chercher internationalement. Le plus important pour elle est donc d’élargir son intelligence et de construire des réseaux de coopération. De ce fait, il faut maintenant qu’une entreprise soit sans frontières.

En parallèle de cela, l’entreprise doit mettre en place une démarche de prospective. Cette dernière s’intéresse au présent et non au futur et doit permettre de mieux agir dans le présent en préparant l’avenir. Thomas Gauthier le démontre par l’exemple de l’entreprise Shell qui, dès les années 70, motive ses équipes à penser « l’impensable » en matière de scénarios catastrophes. Cette culture de la prospective permettra à la compagnie de faire face de manière efficace aux divers problèmes qu’elle a pu rencontrer et ainsi lui permettre une résilience plus aisée.  

Cependant, cette démarche de l’entreprise doit concorder avec la complexité de notre monde actuel et pour cela, plusieurs outils d’appréhension de cette complexité ont été mis en place tels des analyses de tendances et signaux faibles, des analyses de jeux d’acteurs ou encore des diagnostics stratégiques et prospectifs de l’entreprise. Grâce à eux, les entreprises et les sociétés peuvent se faire une idée de leur pérennité et de leur situation future.

Pour développer cette prospective, il faut donc des données et notre monde en dispose toujours plus. Il y a donc là un nouveau gisement à exploiter et qui est de plus en plus facile à stocker. Cependant, il faut savoir exploiter ces données et ne pas tomber dans le piège des biais cognitifs et d’une attitude scientiste. La prospective interroge donc nos modèles mentaux. D’après Peter Drucker, pour prendre des décisions efficaces, il ne faut pas commencer avec des faits mais avec des opinions. Par la suite, nous obtenons des faits grâce aux critères de pertinence qui sont indispensables à cette tâche.

L’intelligence artificielle et le cognitive computing sont-ils réservés aux sociétés multinationales ? par Pierre Kauffmann

Pierre Kaufmann explique l’intelligence artificielle (IA) et le cognitive computing grâce à l’exemple de Watson, IA sur ordinateur créée par l’entreprise IBM. Cette intelligence a été testée lors d’un jeu télévisé de réponses à des questions, Jeopardy, qui l’opposait à deux concurrents humains. Le but pour la machine était de se battre sur la compréhension du langage humain. Elle devait donc comprendre le langage naturel. Pour cela, elle devait passer par une première phase d’analyse du texte de la question. Dans la deuxième phase, Watson tentait de comprendre ce que l’on cherchait. Lors de la troisième phase, il a recherché les informations qui répondaient à la question dans toutes les informations qu’il a intégrées dans son système. Finalement, il a dû décider entre toutes les réponses qu’il a obtenues laquelle était la meilleure pour répondre à la question. Et il a gagné le jeu.

Suite à cela, Watson a été considéré tellement performant qu’il a été commercialisé en 2015 dans le monde de la recherche et notamment de la médecine. En effet, dans ce domaine la machine peut se montrer d’une grande aide pour le professionnel de la santé. Elle lit toutes les publications disponibles sur un sujet donné, elle met les informations en relation et intègre toutes ces données. Le but de cela étant de pouvoir soigner le mieux possible un patient. De ce fait, elle met en relation les informations acquises avec celles concernant la personne devant être soignée afin de proposer le meilleur diagnostic possible. Enfin, elle conseille le médecin qui sera le seul à prendre la décision finale concernant le traitement du patient. La machine est donc là pour montrer les liens entre les données, pour guider et conseiller mais elle ne prend jamais la décision finale.

En 2016, l’IA passe au cognitive computing qui est une solution qui comprend, raisonne et apprend en interaction avec les humains. Elle est également capable de lire et de voir. Tout cela est possible grâce au grand nombre de données intégrées par la machine. Avec le cognitive computing, nous ne sommes plus dans le monde des machines ou des systèmes que l’on programme mais dans un monde où la machine s’adapte à l’environnement qui l’entoure grâce à l’interaction avec l’être humain.

Pour que le cognitive computing puisse prendre vie, il lui faut trois éléments : les données, les algorithmes et la puissance de calcul. Grâce à cela, il est en évolution permanente et peut traiter les données de manière toujours plus performante. De ce fait, le cognitive computing peut donc servir dans diverses situations comme dans les helpdesks afin de répondre aux questions du public et détecter ce qui peut être anormal dans une situation donnée. Il peut aussi servir dans le domaine de la santé grâce à la détection sur photo de potentiels mélanomes sur un corps humain. Une autre utilisation est possible avec le discovery advisor qui permet de travailler sur des modèles prédictifs afin de permettre aux entreprises de faire des économies.

La machine dispose donc de nombreux avantages car elle n’est pas fatiguée, elle peut répondre aux diverses interrogations en tout temps et elle gère une très grande quantité d’informations. Cependant, ces avantages s’arrêtent après un certain niveau de précision au-delà duquel elle a besoin de l’homme. C’est notamment le cas pour les questions d’opinion. Ce n’est donc pas encore aujourd’hui que la machine prendra le pas sur l’humain.

Le Big Data au service des tpg : amélioration de la performance et de la satisfaction client, et outil de prospective, par Antoine Stroh et Mickaël Chopard

Antoine Stroh et Mickaël Chopard expliquent qu’actuellement les transports publics genevois (tpg) observent une montée de la concurrence avec entre autres les CFF, Uber, le CEVA et Google Car. Ils ont donc décidé de se servir des données recueillies par leurs véhicules afin de maintenir leur position.

Avec le transport de près de 500'000 personnes par jour, la quantité de données obtenues est intéressante. En effet, chaque bus peut recueillir des informations par le biais du Wifi, du  GPS, du  ticketing, de la priorité au feu, de la radio et du  système informatique. Le but premier de cette récolte de données était d’assurer la sécurité des voyageurs et de mieux communiquer avec eux. Mais s’est présentée pour les tpg, la question de l’exploitation de ces informations qu’il leur faut donc traiter, analyser afin d’améliorer leurs performances et éventuellement diffuser.

Les tpg sont déjà doués dans le métier du transport. La donnée doit donc leur apporter de la valeur et une vision complémentaire. Elle permet d’améliorer les connaissances et de trouver des solutions aux problèmes de ponctualité, de confort des voyageurs, de charge du véhicule mais aussi des conditions de travail des conducteurs, de leur temps de parcours et de battement.

Messieurs Stroh et Chopard mettent en avant le fait qu’aujourd’hui, avec internet et les smartphones, notre population est habituée à tout avoir rapidement. Les transports misent donc tout sur la ponctualité de leurs véhicules. De ce fait, un retard de bus peut provoquer une série de plaintes sur les réseaux sociaux et cela nuit à la réputation des tpg. Les données sont donc primordiales pour améliorer les services et donc par-là, la satisfaction et la relation client.

Les tpg pratiquent également l’open data. Le citoyen devient ainsi co-créateur et cette démarche permet à l’entreprise d’améliorer sa proximité avec le public, d’être transparente et d’induire une démarche d’innovation.

La valorisation des données permet donc d’aider les personnes à faire leur travail et à s’améliorer.

Le Big Data va-t-il changer les règles de l’intelligence économique ? par Loïc Gourgand

Loïc Gourgand explique que la société Spallian, pour laquelle il travaille, a accès à des bases de données non-exploitées jusqu’à aujourd’hui, qu’elle possède des fonds de cartographie et met en place des stratégies de smart data permettant d’extraire toutes les données utiles à l’entreprise. Par ailleurs, Spallian fait des études de géomarketing et pratique la smart gouvernance. Le but étant d’utiliser la prospective pour avoir un avantage concurrentiel dans le futur. Spallian obtient également ses données en temps réel qu’elle peut exploiter afin de conseiller et d’aider les entreprises qui la mandatent.

Pour tous ces services, Spallian crée des dashboards sur mesure pour ses clients qui intègrent des données en temps réel.

Afin d’obtenir toutes ces informations, elle dispose de plusieurs outils qu’elle a créé. Le premier est un outil Stat’ permettant l’extraction de données et leur traitement en masse. Cela permet à l’entreprise de traiter toutes les données dans un même endroit.

Ensuite, vient Corto qui permet de pratiquer la cartographie analytique. L’exemple d’utilisation de cet outil donné par Monsieur Gourgand concerne un projet d’implantation d’un groupe immobilier dans un parc. Un des buts de ce groupe était de savoir si l’endroit était rentable et sécurisé. Pour vérifier cette dernière donnée, Corto a pu fournir à Spallian une cartographie des données enregistrées par la police concernant des actes malveillants perpétués dans et aux alentours de cette zone.

L’outil a aussi permis de prendre des décisions à court terme notamment dans l’exemple de sécurisation des agences d’une banque lors de l’Euro 2016. Pour ce faire, Corto a répertorié les fanzones, a géolocalisé les réseaux de transports et a finalement couplé les localisations des agences de la banque afin de savoir lesquelles se trouvaient en zone de danger. Cela a permis à la banque de pouvoir prendre des mesures de protection pour les sites concernés.

En plus de cela, Spallian développe des produits permettant l’utilisation de données mobiles. Notamment lors de l’épidémie d’Ebola, un système d’alerte a pu être mis en place afin de géolocaliser des personnes travaillant pour une certaine entreprise dans les zones à risques.

Pour mener à bien ses projets, Spallian dispose d’un département de data scientists qui vérifient les données récoltées. En effet, les outils doivent toujours être mis à jour. De plus, l’entreprise dispose également de personnel formé dans le marketing ou la gestion afin de répondre au mieux aux attentes des clients et aux exigences marketing de l’entreprise.

Par ces exemples, nous pouvons voir dans quelles mesures l’exploitation de Big Data permet de gérer au mieux la sécurité d’une entreprise ou d’une personne mais également d’aider des sociétés et des entreprises à prendre des bonnes décisions, ce qui est aussi une des finalités de l’intelligence économique.

Détection systématique de communautés à l’échelle de Twitter, par Clément Levallois

Clément Levallois explique que Twitter dispose aujourd’hui de 117 millions d’utilisateurs actifs. Ce réseau est très riche en métadonnées grâce aux tweets et aux profils des utilisateurs. Ces éléments permettent aux chercheurs des universités de mener à bien diverses recherches concernant les perceptions d’une marque par les utilisateurs à travers leurs tweets. Il est possible de savoir si une marque est perçue comme écologique en suivant par exemple tous les comptes twitter concernant la marque et tous ceux propres à Greenpeace. En les comparants, c’est-à-dire en regardant si les personnes qui suivent les activités de l’une suivent aussi celles de l’autre, il est possible de répondre à cette question. Notamment en utilisant divers outils présents sur le marché tels Tweetdeck, Bluenod et Visibrain qui permettent de visualiser les communautés de Twitter.

Monsieur Levallois a mené un projet à l’EM-Lyon Business School visant à combler le vide que laissent ces outils. En effet, ces derniers répondent aux demandes faites mais sans vraiment résoudre le problème de la visualisation des communautés. Le but de ce projet était donc d’obtenir, via une carte, une visualisation complète de Twitter pour ensuite détecter les communautés du réseau à une échelle globale. Cela devrait permettre de savoir quels types de communautés parlent de quelle marque mais aussi de comprendre comment une publicité ou un buzz se propage dans le monde. Les réponses à ces questions devraient être disponibles prochainement.

Cependant, les données relationnelles entre utilisateurs de Twitter sont, à l’heure actuelle, difficiles à acquérir. Des substituts ont été imaginés mais sans succès car toute la difficulté est de réussir à suivre les relations entre utilisateurs et de détecter les biais. On estime que les données relationnelles sont pertinentes lorsque les utilisateurs partagent trois listes en commun.

Avec ce projet, Clément Levallois souhaite mettre à disposition du public une carte réseau via un site web ou une API. Cette carte sera remplie au fur et à mesure grâce à la collaboration d’entreprises au projet.

Par cet exemple, nous pouvons observer à quel point le Big Data peut aider des marques à développer leur marketing, cibler leur public et diffuser leur publicité d’une façon plus précise.

Conclusion

Grâce aux exemples des conférences données lors de cette 13ème journée franco-suisse sur l’intelligence économique, nous avons pu constater que la multiplication des données ces dernières années est une nouvelle source d’information permettant aux entreprises de mieux s’armer aujourd’hui pour le monde de demain. La prospective est d’ailleurs un élément non négligeable que cette accumulation de données permet de préciser.

Ces Big Data permettent d’améliorer les services et les performances, mais aussi de trouver les problèmes à résoudre. Par le biais de l’intelligence artificielle et du cognitive computing, elles peuvent faire gagner du temps aux professionnels de divers métiers tout en renforçant leurs compétences décisionnelles. En étant utilisées comme dans l’exemple des tpg, elles permettent d’améliorer les performances d’une entreprise et lui permettent de se maintenir en position de concurrence. Les Big Data sont également très utiles pour une marque souhaitant se démarquer sur les réseaux sociaux et cibler au mieux ses différents publics.

Finalement, quand on sait exploiter ces informations convenablement, elles servent également dans le domaine de choix d’implantation et de sécurité comme l’a démontré l’entreprise Spallian avec ses nombreux exemples.

Nous pouvons donc conclure que les Big Data bien exploitées permettent d’avoir une meilleure prise sur l’avenir et donc, de « rendre le futur moins incertain ». 

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires

L’archivage du web : présentation des méthodes de collecte et recommandations pour l’accès aux contenus –et leur structuration-

Ressi — 31 décembre 2016

Jonas Beausire, Haute Ecole de Gestion, Genève

Résumé

Cet article – synthèse d’un travail de bachelor – consiste en l’établissement d’un panorama des grandes approches méthodologiques et stratégies de collecte de l’archivage du web, une analyse des attentes et des résistances du public des chercheurs face à ces nouvelles archives et la présentation de pistes d’innovations et de recommandations pour mieux appréhender l’archivage du web.

Les approches de l’archivage du web sont exposées : intégrale, exhaustive, sélective et thématique. Elles se combinent souvent sur le terrain mais doivent être repensées pour être renouvelées. Chacune d’entre elles peut être accompagnée d’une stratégie de collecte : automatisée, semi-automatisée ou manuelle.

Les attentes des chercheurs, leurs besoins et résistances sont mis en lumière par des résultats d’enquêtes. Si la communauté scientifique s’accorde sur la nécessité de constituer une mémoire du web, la fiabilité et la légitimité des collections issues du web cristallisent les résistances exprimées par les chercheurs. Globalement, les questions épistémologiques et méthodologiques pour inscrire ces archives dans un usage scientifique établi ne sont pas encore résolues.

Enfin, des recommandations techniques et conceptuelles sont abordées : elles mettent notamment l’accent sur la construction d’interfaces d’accès et la description des archives et de leur contexte grâce, en particulier, aux métadonnées. Une variété d’outils d’analyse du web constitue également des leviers privilégiés pour exploiter et mettre en valeur les futures archives du web.

Mots-Clés: 
Archivage/archive du web patrimoine mémoire chercheur numérique Web archiving/archive heritage memory researcher digital

L’archivage du web : présentation des méthodes de collecte et recommandations pour l’accès aux contenus –et leur structuration-

Introduction

Les questions soulevées par l’archivage du web préoccupent les acteurs du monde de l’information depuis presque vingt ans maintenant. Il est aisé de situer dans le temps les prémices des réflexions qui entourent les questions d’une mémoire du web. En effet, des initiatives comme celle, bien connue et la plus ancienne de toute, de la fondation « Internet Archive »[1] ont pris naissance dès 1996 dans un climat d’urgence à se saisir des nouvelles traces qui faisaient déjà la mémoire de la fin du XXe siècle (Peyssard 2012). La multiplication des ordinateurs connectés durant la bulle Internet jusqu’en 2000 confirmera la nécessité de sauvegarder les contenus désormais « nés numériques » du prochain millénaire.

L’établissement, durant la première décennie du XXIe siècle, de programmes d’archivage du web institutionnalisés (le plus souvent au sein de bibliothèques nationales) va peu à peu voir opérer un changement de paradigme essentiel : de la numérisation généralisée du patrimoine, il s’est agi de patrimonialiser le (né) numérique. Ce passage, symptôme de la légitimation de ces nouvelles archives, n’est pas sans poser un catalogue de questions : Comment préserver ces nouveaux documents ? Selon quelles logiques documentaires ? Comment les conserver de façon pérenne ? De quelles façons les rendre accessibles et à qui ? Au fond, comment prendre en charge une masse documentaire exponentielle, qui a valeur de patrimoine, et qui ne cesse de disparaître de plus en plus rapidement ?

Si désormais les contenus nés numériques préoccupent les institutions patrimoniales et constituent un segment de notre mémoire collective, les différents acteurs concernés par leur archivage pointent également une autre réalité : la disparition du web d’hier est toujours plus importante. En effet, les documents et données issus du web sont aujourd’hui trop souvent inaccessibles, hantés par le spectre de l’erreur http 404 (fichier introuvable) ; la durée de vie moyenne d’une page web avant modification ou suppression est d’environ cent jours (Laporte, Kahle, 2011)[2]. La dimension fragile, fuyante et nomade de ces documents exhorte les archivistes, les bibliothécaires et les chercheurs à penser de nouveaux modèles de collecte et plus largement à assimiler de nouveaux lieux de notre mémoire collective. 

Les sources mobilisées pour la réalisation de ce travail proviennent majoritairement du web et étonnent souvent par leur complexité lorsqu’elles sont destinées au public de l’ingénierie informatique, par exemple. Le caractère fondamentalement transdisciplinaire des entreprises d’archivage du web se traduit dans la pluralité des publics auxquels s’adressent les ressources scientifiques disponibles sur le sujet. Les publications liées aux activités de l’International Internet Preservation Consortium (IIPC)[3] demeurent le réservoir privilégié des ressources disponibles aujourd’hui, associant souvent études de cas et réflexions holistiques sur l’archivage du web. Les trois axes majeurs de travail du consortium rejoignent ceux associés au circuit du document en bibliothèque : collecte, consultation et préservation (Illien 2011). Par ailleurs, certains médias, spécialisés ou non, soulignent peu à peu les enjeux de la sauvegarde de cette mémoire numérique et cherchent à sensibiliser des publics plus divers et moins avertis.

Au carrefour des enjeux d’accessibilité, de représentativité, de légitimité et de fiabilité des documents nés numériques, cet article[4] se propose de dégager les grandes approches méthodologiques et stratégies de collecte de l’archivage du web à l’œuvre aujourd’hui, mises en regard avec les programmes de la Bibliothèque nationale suisse (BN) et de la Bibliothèque nationale de France (BnF). Il analysera les attentes et les résistances du public des chercheurs face à ces nouvelles archives et enfin présentera des pistes d’innovation et des recommandations pour mieux appréhender l’archivage du web.

Cadre théorique

Il est possible d’identifier aujourd’hui de grandes approches et stratégies de collecte. Une typologie conceptualisée par Thomas Chaimbault (enseignant à l’ENSSIB) offre à voir un panorama des stratégies et modes de dépôt (voir tableau récapitulatif n°1, p. 5) développés par différents établissements nationaux et soutenus par des consortia (Chaimbault, 2008).

En rappelant que ces approches demeurent de purs cadres théoriques et qu’elles doivent être renouvelées – notamment en raison des mutations techniques extrêmement rapides du web – il est également à souligner que les réalités du terrain sont multiples et mêlent bien souvent plusieurs approches et stratégies pour répondre aux besoins spécifiques d’un seul et même programme d’archivage du web.

Les approches

L’approche dite « intégrale » consiste à collecter l’entier du web, sans distinction ni critère de sélection. Les questions liées à une valeur patrimoniale des documents sont évacuées au profit d’un projet de pure exhaustivité. Le projet « Internet Archive » en est aujourd’hui l’exemple unique et concentre la plus large audience des collections issues du web au travers de son interface d’accès aux documents d’archive, la « Wayback Machine »[5]. Avec près de 273 milliards de pages web collectées (Internet Archive, 2016) et au centre d’un partenariat qui la lie avec près de 440 organismes partenaires, la fondation s’inscrit dans un double mouvement, à la fois celui de la collecte autonome, mais également celui d’un échange continu avec d’autres organisations de collecte. (Leetaru, 2016)

L’approche « exhaustive », quant à elle, vise également une certaine idée de la complétude mais dans un périmètre circonscrit, celui d’un nom de domaine, d’un espace national particulier ou, moins souvent, d’un type de sites. Cette approche, relativement répandue, s’intègre facilement dans les missions d’une institution patrimoniale comme les bibliothèques nationales mais cristallise les ambiguïtés liées à la territorialité du web : des contenus web particulièrement signifiants peuvent être enregistrés sous un nom de domaine hors collecte, par exemple.

A l’inverse des deux précédentes approches, celle dite « sélective » consiste à se saisir de contenus prédéfinis au moyen de critères choisis extrêmement variés : thématiques, en lien avec la nature de la ressource, qualitatifs, etc. Cette approche rompt avec un certain souci d’exhaustivité et se propose de compiler régulièrement des instantanés de sites répondant aux critères de sélection choisis.

Enfin, l’approche « thématique » doit se comprendre comme un embranchement particulier de l’approche sélective : il s’agit d’archiver une collection de sites web en lien avec un événement spécifique. Les collectes des sites web et autres ressources liés aux élections présidentielles françaises menées par la BnF illustrent parfaitement cette approche. (Greffet, 2012) Sa logique renvoie directement à la notion de « collection », voire de « fonds d’archive » puisqu’il s’agit bien pour les bibliothécaires de sélectionner et d’éliminer en vue de former un corpus cohérent, pouvant ainsi former de véritables « produits d’appel » tournés vers un public encore aujourd’hui embryonnaire (Illien, 2008).

Les stratégies

Parallèlement aux différentes approches décrites, Thomas Chaimbault dégage également trois stratégies de collectes différentes. La stratégie « automatisée » qui engage la mise en place d’un logiciel-robot (moissonneur et collecteur du web) : un espace web circonscrit à un domaine choisi est ainsi collecté de façon automatique. Cette stratégie accompagne généralement des approches intégrales ou exhaustives de l’archivage du web. La stratégie « semi-automatisée » implique également l’usage d’un logiciel-robot mais ajoute à son utilisation des critères de sélection plus précis ; elle peut être mobilisée dans le cadre d’une approche sélective du web. Enfin, l’approche « manuelle », même si elle exige également des ressources techniques, replace l’humain au centre des processus de collecte ; les bibliothécaires sont amenés à sélectionner eux-mêmes les sites pertinents. Cette logique combinatoire est essentielle dans le contexte d’une approche thématique.

En assignant la typologie de Thomas Chaimbault au programme d’archivage de la BN, on peut aisément le qualifier de sélectif et thématique. En effet, dans la tradition des Helvetica, la collection « Archives Web Suisse » regroupe en grande majorité des sites web patrimoniaux et helvétiques, selon un périmètre et des critères décidés collégialement. En rejetant tout projet d’exhaustivité et en cartographiant les sites archivés au moyen d’un catalogue de grands principes de sélection et d’exclusion[6], la BN se distingue radicalement de la BnF. En effet, l’institution française combine trois approches : exhaustive, sélective et thématique qui renvoient à autant de modes de collecte. Exhaustive car la BnF procède à des collectes dites « larges » qui moissonnent l’entier du nom de domaine français, mais superficiellement en ce qui concerne la profondeur des sites. Sélective et thématique lorsque la BnF mène ses collectes dites « ciblées » qui visent à s’emparer des sites en profondeur et à une fréquence plus élevée, choisis pour leurs contenus signifiants. (BnF, 2015)

Table 1 : Récapitulatif des grandes approches et stratégies

  Stratégie automatisée Stratégie semi-automatisée Stratégie manuelle

Approche

intégrale

  • Entier du web
  • Pas de critère de sélection
  • Logiciel-robot
Néant Néant
Approche exhaustive
  • Entier du web, mais périmètre précis
  • Nom de domaine ou espace national
  • Logiciel-robot
Néant Néant
Approche sélective Néant
  • Critères de sélection précis
  • Ressources humaines
  • Logiciel-robot
Néant
Approche thématique Néant Néant
  • Critères de la sélection précis
  • Collecte événementielle/thématique
  • Ressources humaines

 

Un cadre légal différencié, des usages communs

Au cœur du régime différencié des programmes de la BN et de la BnF, réside le cadre légal sur lequel repose les approches mises en œuvre. En effet, ce dispositif structure largement les possibilités des deux institutions. Il est également le reflet d’une « accréditation culturelle de l’éphémère » (Merzeau, 2003). L’absence de dépôt légal suisse au niveau national implique pour la BN une approche sélective et thématique du web. A l’inverse, le dépôt légal du numérique permet à la BnF de s’emparer indifféremment de la quasi-totalité de la production éditoriale numérique française, tendant à une forme d’exhaustivité sans jugement de valeur documentaire. L’accessibilité des archives est une conséquence directe du cadre législatif différent de chacune des deux bibliothèques : la BnF est contrainte d’encadrer son accès pour protéger le droit d’auteur des contenus qu’elle moissonne, alors que la BN est plus souple puisque les accords des producteurs ont été obtenus préalablement.

Il est à noter que l’approche dite « thématique » est partagée par les deux institutions : dans les deux cas, des bibliothécaires sélectionnent en amont les sites signifiants et tentent de former des collections parfois thématiques ou gravitant autour d’événements majeurs. Certains outils informatiques et des préoccupations liées à la profondeur de l’archivage sont partagés par les deux bibliothèques. Le rapprochement s’opère également sur le plan international puisque la BN et la BnF sont membres du Consortium IIPC au travers duquel elles collaborent. Comité de pilotage et groupes de travail au sein de ce consortium sont autant de lieux d’échanges et de retours d’expérience, notamment concernant l’usage de divers logiciels développés par certains membres.

Besoins, attentes et résistances des chercheurs

Le public des nouvelles collections issues des différents programmes de l’archivage du web demeure une question centrale. Si des publics variés peuvent aujourd’hui consulter ces nouvelles archives, celui des chercheurs scientifiques semble être le plus important. (Chevallier, Illien, 2011) (Aubry et al. 2008) De nombreuses questions sont soulevées par ce public particulier : un site Internet peut-il réellement constituer une source fiable ? Quelle procédure existerait-il pour valider la qualité d’une telle source ? Comment justifier le choix de convoquer tel site plutôt qu’un autre dans une sitographie ?, etc. (Chevallier, Illien, 2011)

Malgré des attentes contradictoires et des réticences notamment méthodologiques et épistémologiques, la communauté scientifique semble s’accorder sur la nécessité de travailler avec le numérique, de s’interroger sur les conditions d’une meilleure appréhension du patrimoine numérique natif et sur la conservation de nouvelles formes d’expressions numériques. (Joutard, 2013) La conservation d’une mémoire du web nécessite une reconceptualisation des modèles traditionnels de l’archivage en les pensant spécifiquement pour les documents numériques natifs. Les pertes de certains contenus nés numériques et les liens morts inquiètent certains acteurs du monde académique, notamment les historiens, qui voient disparaître des ressources à durée de vie limitée. Les doutes et les interrogations se cristallisent majoritairement autour de la fiabilité de ces nouvelles archives dont les contours documentaires peinent à être scientifiquement définis ; en effet, même si certains chercheurs s’accordent autour du bien-fondé de l’archivage des sites institutionnels et des blogs, les actions ou traces individuelles laissées sur le web sont considérées avec davantage de circonspection. (Chevallier, Illien, 2011) C’est bien entendu la question irrésolue de la légitimation du statut de collection de ces archives qui se pose ici en filigrane. Ainsi, l’organisation, la hiérarchisation, voire la discrimination des contenus du web sont attendues de la part des chercheurs pour considérer plus sûrement les nouveaux corpus. La variété des contenus agrégés exige des efforts organisationnels majeurs pour un usage scientifique de ces données. (Leetaru, 2016) La bibliothèque peut endosser un rôle important dans ce processus de légitimation. (Illien, 2011)

Plus concrètement encore, ce sont les difficultés d’accès, autant physiques que techniques, qui préoccupent les chercheurs : le supposé déplacement au sein des bibliothèques dépositaires des fonds et les interfaces difficiles à prendre en main empêchent trop souvent le public de s’approprier ces nouvelles ressources. L’indexation plein texte constitue toujours la voie d’accès privilégiée aux volumes exceptionnels de ces collections, malgré les insatisfactions récurrentes liées aux technologies utilisées (Gomes, Miranda, Costa, 2011). Enfin, l’instabilité du média Internet, la volatilité des données et la difficulté à traiter de gros volumes de données souvent très hétérogènes constituent les principaux freins méthodologiques rencontrés par le monde de la recherche (Mussou 2012).

Recommandations techniques et innovations

En dehors des grandes initiatives nationales et des projets circonscrits à une institution donnée, l’IIPC peut être considéré comme un laboratoire d’innovations incontournable sur la scène internationale. Cet organisme a notamment pour but de sensibiliser aux enjeux liés à la conservation des ressources nées numériques. (Bonnel, Oury, 2014) De nombreuses sources sont accessibles par le biais de cet institut : articles, études de cas et conférences enrichissent des sources souvent disparates sur l’archivage du web. Le lieu des innovations en matière de conservation du web se situe ainsi surtout dans le cadre de collaborations internationales.

Quelques outils du « web vivant »

Il existe aujourd’hui de nombreux outils de pointe pour appréhender, étudier et investir le « web vivant », par opposition au web archivé. Mais comment valoriser, analyser et exploiter des collections issues du web ? Des chercheurs de l’« Oxford Internet Institute »[7] proposent de transposer certains de ces outils aux archives du web (Meyer, Thomas, Schroeder, 2011). Nous en retenons ici quelques-uns :

La visualisation peut constituer une fenêtre d’accès inédite aux archives. Dans l’esprit des infographies, elle permettrait de visualiser la façon dont les différentes archives sont reliées entre elles. Un fort développement de cet outil pour le web vivant existe déjà. La recherche profonde, quant à elle, permet d’interroger finement de gros ensembles de données. La prolifération des informations postées (puis archivées) exigerait ainsi de nouveaux moyens d’accès à de très gros volumes d’informations. Les outils d’analyse des réseaux sociaux (SNA) n’ont pas été adaptés aux archives. Ceux-ci pourraient permettre aux archivistes du web l’analyse des liens hypertextes comme révélateur de la structure des interactions des différents sites web composant leurs collections. Les liens et leur analyse expriment quelque chose de la nature du réseau, de ses jeux d’interactions. Enfin, cette analyse pourrait être complétée par l’archivage des liens et autres annotations qui pointent vers les sites archivés afin d’observer leurs évolutions dans le temps.

D’autres pistes d’innovation sont énoncées au sein de l’étude de Meyer, Thomas et Schroeder (2011) : la première est celle dite du « web cumulatif » : il s’agit de considérer le web archivé littéralement en parallèle du web vivant. Cette organisation en filigrane de couches d’archives viendrait combler la fragmentation et les trous du web (comme les liens morts qui désormais pointeraient vers la ressource archivée). Cette piste, relativement utopique, supposerait un changement structurel et profond du web.

S’il est aujourd’hui possible de comprendre l’organisation et les usages des sites présents sur le web et de consulter certains d’entre eux qui n’existent plus, il demeure impossible encore de comprendre l’usage passé des archives du web. Afin d’y parvenir, les chercheurs proposent d’archiver également les journaux des serveurs (« servers logs ») des sites d’archivage du web. De cette façon, il deviendrait possible de comprendre et d’étudier comment les archives du web ont été ou sont utilisées. En conservant le web d’hier, mais également les usages associés à ce web disparu, il serait possible de combler l’une des attentes exprimées par les chercheurs sur la nécessité d’interroger les pratiques scientifiques qui entourent ces nouvelles archives.

Un autre usage possible des archives du web est celui de ses images et de son fort potentiel visuel. Il s’agirait de saisir certains changements du monde au travers des images circulant sur la toile. En extrayant sur une certaine durée des images d’archives d’un même objet, cela permettrait de superposer les clichés et de proposer un rendu visuel de l’évolution de l’objet.

L’exploitation statistique des archives constitue également une opportunité majeure. Quels sont les outils d’analyse à mettre en place pour faire parler de très importantes collections d’archives du web ? Comment ces outils statistiques permettraient de mieux comprendre la structure des collections et conséquemment celle du web en général ? En s’intéressant, par exemple, aux langues des sites web ou à leur date de création, il serait possible de dégager de grandes tendances structurelles du web. Les travaux d’analyse menés par l’ « Observatoire du dépôt légal » de la BnF[8] sur ses collectes larges s’inscrivent dans cette logique statistique.

En lien avec une analyse structurelle du web, il serait possible de rendre compte de la prolifération d’une idée sur le web, de sa viralité et de ses déplacements. Pour repérer et comprendre où les idées surgissent et comment elles se propagent sur le web, il faut pouvoir remonter à l’origine de l’idée. Cette archéologie suppose une profondeur et une granularité des archives très importantes. Dans cette perspective, la temporalité du web, c’est à dire le tempo des publications et les hyperliens qui les relient, doit être archivée. Sans une profondeur suffisante de l’archivage, cette dimension est impossible à extraire des archives.

Enfin, la question du web illicite interroge les chercheurs sur la meilleure façon de rendre compte de ces matériaux circulant sur le web. Les contenus sexuels illicites, sur les drogues, sur les groupes prônant la haine raciale, le terrorisme, etc. sont nombreux. Quelle entité serait habilitée à prendre en charge leur archivage et dans quel cadre juridique ? Ce genre d’archive pourrait autant intéresser des chercheurs que certaines autorités, la justice ou encore les professionnels de la santé, par exemple. L’enjeu réside ici dans la mise en place d’un mécanisme juridique pour protéger et légitimer l’institution garante de ces documents au contenu illégal, et qui saurait mettre en valeur leur intérêt scientifique. (Meyer, Thomas, Schroeder, 2011)

Interfaces, accessibilité et contextualisation

Malgré de nouvelles perspectives pour l’exploitation de la mémoire du web, les chercheurs constatent une absence globale d’interfaces stables et conviviales pour construire et accéder à de solides archives du web[9]. Dans ces conditions, le déploiement des différentes initiatives demeure compliqué. Plusieurs études (Bonnel, Oury 2014 ; Leetaru, 2012) insistent sur l’opportunité de mettre en place des interfaces d’accès aux archives les plus efficaces possibles, qui sachent explorer de très gros volumes de données. Selon Leetaru (2012), l’interface de Twitter constituerait un modèle standardisé très simple d’utilisation. Ces interfaces doivent également être spécifiquement pensées pour les chercheurs qui formeront sans doute une communauté importante se saisissant de ces archives. Toujours dans la volonté d’offrir une voie d’accès améliorée aux archives, c’est bien une description fine des collections au travers de métadonnées variées qui constituera une mise en valeur des fonds. Cette pratique suppose que les administrateurs des programmes connaissent précisément le contenu de leurs archives, ce qui n’est pas toujours le cas, surtout dans le cadre d’approches exhaustives ou intégrales.

Si les chercheurs se saisissent petit à petit de ces nouveaux contenus et citent désormais des sources provenant de celles-ci, il s’agit donc de penser également à la normalisation de ces citations. Cette préoccupation participe au travail de leur légitimation, qui ne doit pas échapper aux usages actuels de référencement des sources traditionnelles. La mise en place d’un identifiant unique et permanent de chaque page web archivée participerait à un système de citation efficace dans les publications scientifiques. Comme pour la citation des pages du web vivant, certaines métadonnées comme la date de capture de la page sont essentielles pour la constitution de notices complètes. Certaines tentatives basées sur les standards MLA et impulsées par Internet Archive vont dans ce sens aujourd’hui[10].  

Si les choix documentaires d’acquisition des bibliothécaires sont longtemps restés opaques pour le grand public, il serait envisageable de renverser cette tendance en documentant les biais, souvent algorithmiques, des crawlers et autres robots qui moissonnent le web pour l’archiver. De la même façon qu’une transparence des politiques documentaires, la mise en lumière de certains détails techniques propres à un programme peuvent contextualiser telle ou telle collection. (Leetaru 2016) Parfois, la date d’archivage d’un site peut ne pas correspondre à la date de capture du même site. Cette réalité peut constituer un biais majeur pour l’étude d’une chronologie exacte de l’évolution d’un site. Si l’on cherche à comparer, par exemple, le nombre de pages traitant de la candidature d’un politicien à une élection avec celui d’un concurrent, les résultats obtenus peuvent ne pas correspondre avec la réalité du web d’alors. Le nombre d’occurrences peut être influencé par certaines politiques d’archivage, par l’algorithme selon lequel le robot moissonne le web, etc. La documentation des archives du web doit éclairer ces potentiels biais techniques. Si on donne à un chercheur la possibilité d’accéder au «journal» du crawler, il pourrait connaître les lieux où le robot a peut-être buté contre tel ou tel contenu : les zones blanches des archives peuvent recéler un sens précieux pour ceux qui les étudient. Par ailleurs, si beaucoup de sites dits « dynamiques » adaptent leurs contenus en fonction de l’emplacement physique de l’internaute, la géographie du robot doit également être un élément de contexte documenté pour les utilisateurs des archives du web ; elle influe directement sur les contenus affichés (et donc collectés), l’ordre des pages, etc. En d’autres termes, un crawler installé en Russie ne collectera pas les mêmes contenus qu’un autre localisé en France.

En définitive, l’ensemble de ces préoccupations techniques renvoie à la question de l’archivage du contexte de l’archive. Les liens sortants d’un site archivés donnent à voir un écosystème global dans lequel le site en question se déploie. Les métadonnées associées ou la localisation du crawler s’inscrivent dans cette même  logique. A titre d’exemple, l’archivage des documents audiovisuels du web pratiqué par l’INA suppose l’intégration de paratextes qui vont définir et aider à interpréter et s’approprier les documents d’archive. (Carou, 2007) C’est également une attente spécifique des chercheurs, qui souhaitent pouvoir accéder à toute une série de données contextuelles comme l’URL, la date de capture, la place de la page capturée dans le site, l’arborescence ou encore des statistiques de vue. (Chevallier, Illien, 2011) En conservant le contexte, l’archive fait sens et peut faire rayonner tout son pouvoir mémoriel et remplir sa fonction cardinale de témoignage.  

Archives sociales, fonction d’authentification et pédagogie

Suite à l’avènement d’un web ultra collaboratif où les échanges et les commentaires constituent le régime privilégié des internautes, la dimension sociale représente aujourd’hui une part substantielle de l’écosystème global d’un site. Les interactions sociales qui entrent en résonnance avec les documents présents sur le site doivent également être archivées, en mesurant, bien entendu, le perpétuel enrichissement de ses espaces d’interaction. (Meyer, Thomas, Schroeder, 2011)

Les archives du web pourraient également constituer, à terme, un potentiel agent d’authentification. En effet, elles pourraient pointer, par exemple, les changements intervenus sur une page dans un jeu de comparaison entre une page « primaire » (archivée à un moment t) et une page consultée sur le web vivant. Ce travail comparatif prendrait tout son sens dans le contexte mouvant du web. Les pages des sites gouvernementaux ou médicaux et leurs évolutions pourraient ainsi être authentifiées par les archives qui, une fois de plus, rempliraient leur objectif de garantie d’authenticité du document. (Meyer, Thomas, Schroeder, 2011)

Enfin, afin de sensibiliser les plus jeunes aux enjeux de l’archivage du web, des programmes impliquant des élèves dans l’élaboration de collections d’archive du web ont été mis en place.[11] (Reynolds, 2013) Il s’agit de rendre attentives les futures générations à l’importance de ce patrimoine nouveau. Les « digital natives » doivent prendre conscience que les contenus produits sur le web ne sont pas éternels et qu’une importante partie de notre mémoire collective se crée, circule et meurt parfois sur la toile. Gageons que cette génération, si active sur le web et coutumière de la richesse de ses contenus, mesurera plus facilement les enjeux d’une sauvegarde de la mémoire numérique que ses aînés.

Conclusion

A ce jour, quatre grandes approches de l’archivage du web peuvent être identifiées : intégrale, exhaustive, sélective et thématique. Chacune d’entre-elles peut parfois être accompagnée d’une stratégie de collecte particulière : automatisée, semi-automatisée ou manuelle. Ces différentes approches constituent des cadres théoriques qui se combinent parfois sur le terrain et qui doivent se renouveler et s’adapter notamment à de nouvelles réalités de l’archivage des documents nés numériques.

Les chercheurs ont tout à la fois des attentes et des résistances : quoiqu’issus d’horizons disciplinaires différents, ils s’accordent sur la nécessité de conserver une mémoire du web, alors même que la disparition des documents nés numériques inquiète certains d’entre eux. C’est autour d’une politique documentaire pensée pour former des collections qui n’apparaissent pas toujours comme légitimes ou fiables aux yeux des chercheurs que la sélection des contenus doit s’articuler. La difficile prise en main des interfaces d’accès à ces archives doit être résolue pour faire rayonner toute la richesse de ses contenus. Un échange des usages et des compétences à l’international peut y répondre, comme on le constate au sein de l’IIPC.

Des outils d’analyse du web vivant comme la visualisation des contenus, la recherche au sein de gros ensembles de données ou l’analyse des réseaux sociaux, sont autant de leviers à activer et transposer pour exploiter et mettre en valeur les collections des archives du web. D’autres pistes d’innovations, comme l’archivage des journaux des serveurs pour comprendre l’usage passé des archives, l’exploitation statistique des archives ou encore l’observation de la prolifération d’une idée sur le web forment un avenir prometteur des archives du web. Les interfaces d’accès constituent à la fois les vitrines des collections et les portes d’accès principales aux contenus ; exploratrices de gros volumes de données, elles doivent être sans cesse repensées pour garantir un accès toujours plus facilité. Le travail de description des archives et des robots-crawler et l’inscription systématique de métadonnées sont des recommandations centrales et récurrentes dans les études. L’archivage du contexte de ces archives répond aux attentes des chercheurs et tend à inscrire ces nouveaux corpus dans une tradition théorique archivistique, notamment concernant leur fiabilité.

L’établissement d’une mémoire numérique apparaît sinon urgent, du moins légitime. Il demeure plus que jamais nécessaire de poursuivre les efforts de recherche autour des nombreuses questions posées par les programmes d’archivage du web : la complexité des processus à mettre en œuvre, les innovations technologiques associées, les politiques et les choix documentaires, mais également la place des professionnels de l’information dans les mécaniques d’archivage sont des enjeux majeurs.

En concentrant un maximum les actions du quotidien d’une société sur son réseau, Internet tend à devenir un lieu de notre histoire mondiale. La trace, le signe ou l’indice numérique nous invitent plus que jamais à considérer le web et son archivage comme une véritable archéologie des pratiques humaines.

Notes

[1] Pour davantage d’informations sur le projet et pour notamment accéder à la « Wayback machine », consulter : https://archive.org/index.php

[2] D’autres chercheurs présentent des chiffres moins alarmistes mais néanmoins préoccupants : 80% des pages sont mises à jour ou disparaissent après un an. (Gomes, Miranda, Costa, 2011)

[3] Pour davantage d’informations sur cet organisme international, consulter : http://netpreserve.org/about-us

[4] Il constitue une synthèse du travail de bachelor intitulé « L’archivage du web : stratégies, études de cas et recommandations », disponible dans son intégralité à l’adresse : https://doc.rero.ch/record/257793?ln=fr

[5] A noter que cette interface d’accès permet d’accéder uniquement à un nombre restreint de ressources. En effet, une grande partie des contenus reçus ou collectés par la fondation ne sont que partiellement accessibles en raison d’embargos, contrats de licence et autres politiques d’accès. (Leetaru, 2016)

[6] L’ensemble de ces grands principes de sélection et d’exclusion est disponible au sein du document consultable ici : https://www.nb.admin.ch/nb_professionnel/01693/01699/01873/01895/index.h...

[7] Pour davantage d’informations sur cet institut, consulter : http://www.oii.ox.ac.uk/

[8] Pour davantage d’information sur cet observatoire, notamment les rapports produits, consulter : http://www.bnf.fr/fr/professionnels/depot_legal_definition/s.depot_legal_observatoire.html?first_Art=non

[9] Il est à noter néanmoins que les interfaces ne cessent de s’améliorer pour mieux s’adapter à leurs utilisateurs, comme en témoigne la récente mise à jour de celle de la BnF en octobre 2016.

[10] Consulter à ce propos : http://www.writediteach.com/images/Citing%20from%20a%20Digital%20Archive%20like%20the%20Internet%20Archive.pdf

[11] C’est le cas, par exemple, de l’initiative « K-12 Web Archiving » : https://archive-it.org/k12/

Bibliographie

AUBRY, Sara et al., 2008. Méthodes techniques et outils. Documentaliste-Sciences de l’Information [en ligne]. Avril 2008. Vol. 45. p.12-20. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.cairn.info/revue-documentaliste-sciences-de-linformation-2008-4-p-12.htm

BNF, 2015. Collectes ciblées de l’internet français. Bnf.fr [en ligne]. 26 mars 2015. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.bnf.fr/fr/collections_et_services/anx_pres/a.collectes_ciblee.... Html

BONNEL, Sylvie, OURY, Clément, 2014. La sélection de sites web dans une bibliothèque nationale encyclopédique : une politique documentaire partagée pour le dépôt légal de l’internet à la BnF. IFLA World Library and Information Congress 80th IFLA General Conference and Assembly, Lyon, 16-22 August 2014 [en ligne]. [Consulté le 01.11.2016]. Disponible à l’adresse : http://library.ifla.org/998/1/107-bonnel-fr.pdf

CAROU, Alain, 2007. Archiver la vidéo sur le web : des documents ? Quels documents ?. Bulletin des bibliothèques de France [en ligne]. 2007. N°2. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2007-02-0056- 012  

CHAIMBAULT, Thomas, 2008. L’archivage du web [en ligne]. Dossier documentaire. Villeurbanne : enssib. 2008. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.enssib.fr/bibliotheque-numerique/documents/1730-l-archivage-du-web.pdf

CHEVALLIER, Philippe, ILLIEN, Gildas, 2011. Les Archives de l’Internet : une étude prospective sur les représentations et les attentes des utilisateurs potentiels [en ligne]. Bibliothèque nationale de France. 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.bnf.fr/documents/enquete_archives_web.pdf

GOMES, Daniel, MIRANDA, Joao, COSTA, Miguel, 2011. A survey on web archiving initiatives. In: International Conference on Theory and Practice of Digital Libraries [livre électronique]. Berlin, Springer, pp. 408-420. Lecture Notes in Computer Science, 6966. [Consulté le 01.11.2016]. Disponible à l’adresse: http://sobre.arquivo.pt/about-the-archive/publications-1/documents/a-survey-on-web-archiving-initiatives

GREFFET, Fabienne, 2012. Le web dans la recherche en science politique [en ligne]. Revue de la Bibliothèque nationale de France [en ligne], n°40. 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : www.cairn.info/load_pdf.php?ID_ARTICLE=RBNF_040_0078

ILLIEN, Gildas, 2011. Une histoire politique de l’archivage du web. Bulletin des bibliothèques de France [en ligne], n°2, 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2011-02-0060-012

ILLIEN, Gildas, 2008. Le dépôt légal de l'internet en pratique. Bulletin des bibliothèques de France [en ligne], n° 6, 2008. [Consulté le 01.11.2016]. Disponible à l’adresse : http://bbf.enssib.fr/consulter/bbf-2008-06-0020-004

INTERNET ARCHIVE, 2016. Archive.org [en ligne]. [Consulté le 01.11.2016]. Disponible à l’adresse : https://archive.org/web/

JOUTARD, Philippe, 2013. Révolution numérique et rapport au passé. Le Débat [en ligne], n°177, 2013. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.cairn.info/revue-le-debat-2013-5-page-145.htm

LAPORTE, Xavier, KAHLE, Brewster, 2011. Brewster Kahle, Internet Archive: “Le meilleur du web est déjà perdu”. Internet Actu [en ligne]. Mars 2011. [Consulté le 01.11.2016]. Disponible à l’adresse: http://www.internetactu.net/2011/06/28/brewster-kahle-internet-archive-le-meilleur-du-web-est-deja-perdu/

LEETARU, Kalev H., 2012. A vision of the role and future of web archives. IIPC 2012 General Assembly, [en ligne], 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/VisionRoles.pdf

LEETARU, Kalev H., 2016. The Internet Archive Turns 20 : A Behind The Scences Look At Archiving The Web. Forbes [en ligne]. 18 janvier 2016. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.forbes.com/sites/kalevleetaru/2016/01/18/the-internet-archive-turns-20-a-behind-the-scenes-look-at-archiving-the-web/#172e34fb7800

MERZEAU, Louise, 2003. Web en stock. Cahier de médiologie [en ligne]. 2003. P. 158-167. [Consulté le 01.11.2016]. Disponible à l’adresse : https://halshs.archives-ouvertes.fr/halshs-00487319

MEYER, Eric T., THOMAS, Arthur, SCHROEDER, Ralph, 2011. Web Archives : The Future(s). IIPC netpreserve.org [en ligne]. 2011. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/2011_06_IIPC_WebArchivesTheFutures.pdf

MUSSOU, Claude. Et le web devint archive : enjeux et défis. Ina-expert.com [en ligne]. Juin 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://www.inaexpert.com/e-dossier-de-l-audiovisuel-sciences-humaines-et-sociales-et-patrimoinenumerique/et-le-web-devint-archive-enjeux-et-defis.html

PEYSSARD, Jean-Christophe, GINOUVES, Véronique, 2012. Internet Archive. Aldebaran.revues.org [en ligne]. 2 septembre 2012. [Consulté le 01.11.2016]. Disponible à l’adresse : http://aldebaran.revues.org/6339

REYNOLDS, Emily, 2013. Web Archiving Use Cases. Library of Congress, UMSI, ASB13 [en ligne]. Mars 2013. [Consulté le 01.11.2016]. Disponible à l’adresse : http://netpreserve.org/sites/default/files/resources/UseCases_Final_1.pdf

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires

iPRES 2016 - International conference on digital preservation, Berne, Bibliothèque nationale suisse, 3-6 octobre 2016

Ressi — 31 décembre 2016

Hansueli Locher, Bibliothèque nationale suisse

iPRES 2016 - International conference on digital preservation

Berne, Bibliothèque nationale suisse, 3-6 octobre 2016

Toute personne active dans le domaine de la conservation d’informations numériques est amenée à s’intéresser à la conférence internationale annuelle iPRES. L’édition 2016 de cette conférence a été organisée par la Bibliothèque nationale suisse et s’est tenue à Berne. Du 3 au 6 octobre elle a proposé à plus de 300 participants un programme riche et varié, avec des présentations, des tables rondes, des ateliers de travail et des posters.

L’origine de iPRES

iPRES résulte d’une invitation en 2003 de l’Académie chinoise des sciences (ACS) et de l‘Electronic Information for Libraries (eIFL) pour une première conférence qui s’est tenue à Pékin en 2004 et à laquelle des experts européens de la conservation numérique participèrent. Après la clôture de ce colloque riche en échanges et enseignements, la Deutsche Forschungsgemeinschaft (DFG, Conseil allemand de la recherche) proposa de renouveler l’expérience. Ainsi vit le jour cette manifestation, qui se tient chaque année sur un continent différent.

Une large palette de thèmes

Les thèmes qui se rapportent à la conservation numérique sont le cœur de iPRES et chaque conférence, dans son programme, met l’accent sur un aspect particulier. Le spectre est donc large. La présentation de solutions concrètes, locales, régionales ou internationales, y trouve sa place, aussi bien que les discussions autour des stratégies à mettre en œuvre.

Les stratégies et les processus de conservation, ainsi que leurs répercussions sur les systèmes d’archivage à long terme, étaient au premier plan de la conférence de Berne. Les orateurs ont abordé des thèmes qui tournaient autour de l’infrastructure, des systèmes (en particulier des systèmes de stockage de données), des outils en relation avec l’archivage numérique. Les défis posés par la conservation dans différentes disciplines, en particulier pour les institutions chargées de transmettre le patrimoine culturel, ont été largement évoqués. Les études de cas, les échanges d’expériences et de « bonnes recettes » trouvées par les uns ou les autres étaient également présents dans ces journées. Une question très actuelle a retenu l’attention : de quelles compétences aura-t-on besoin pour assurer les différentes tâches dans le domaine de la conservation numérique ? Et par conséquent, quelles formations faut-il mettre sur pied et encourager pour avoir la garantie de disposer de personnel qualifié dans ces domaines ?

Je renonce dans cet article à présenter dans le détail les nombreuses contributions : ce serait difficile de le faire de façon à les refléter correctement. Je renvoie le lecteur intéressé à la page web de la conférence, www.ipres2016.ch ; sous le lien « Programme » il trouvera les actes de la conférence (Proceedings) sous forme de documents PDF. Je préfère me concentrer sur quelques points que j’ai trouvés particulièrement forts lors de ces journées.

J’ai observé avec intérêt la façon dont se sont reflétées les approches diverses entre la recherche et la pratique, ou comment les différences entre la théorie et la pratique ont été discutées. Presque à chaque fois elles s’enrichissent l’une l’autre et permettent à chacune de progresser.

Temps forts des discours d’orientation

Les discours d’orientation de la conférence sont restés dans ma mémoire comme des temps particulièrement forts et de haute qualité.

Robert Kahn, directeur général de la Corporation for National Research Initiatives in Reston (USA) nous a parlé le premier jour des défis et des possibilités de l’archivage numérique. Il a entre autre présenté aux participants l’idée d’un registre global d’identificateurs (Global Handle Registry). Il s’agit d’un système mondial de résolution d’identificateurs univoques d’objets numériques, basé sur l’attribution aux organisations d’un préfixe. Celles-ci définissent ensuite des préfixes subordonnés et enfin attribuent pour leur domaine de compétence des suffixes ou indicateurs uniques. Ce système hiérarchique de recensement aurait à son sommet le registre global qui permettrait une identification univoque et assurerait ainsi le référencement des objets numériques.

Le deuxième jour, Sabine Himmelsbach, directrice de la Maison des arts électroniques de Bâle nous présenta les problèmes liés à l’archivage de l’art numérique. Nous apprîmes que la durée de vie de ces œuvres est très dépendante des versions du hardware et du logiciel sur lesquelles elles ont été créées. Dans certains cas, des stratégies telles que des émulations peuvent être appliquées. Mais dès qu’une œuvre tire certains inputs directement de l’internet, il devient difficile de les perpétuer car les technologies du web changent constamment. Dans le meilleur des cas, l’artiste intervient lui-même, comme dans l’exemple que l’oratrice nous a présenté, où des flux provenant de différentes chaînes d’information en continu sont fusionnés et réarrangés pour créer une nouvelle présentation des contenus. Cela signifie aussi que l’artiste modifie son œuvre, qui ne se présente plus telle qu’elle était dans sa version précédente.

David Bosshard, directeur général du Gottlieb Duttweiler Institut für Wirtschaft und Gesellschaft (Institut Gottlieb Duttweiler pour l’économie et la société) examina la question du changement social par les technologies numériques et les potentialités qu’elles offrent. Les frontières de plus en plus floues entre la sphère privée et la sphère publique, ainsi que les attentes toujours plus hautes envers les technologies étaient au centre de son discours. Quels risques et quelles chances présentent les stocks toujours plus grands de données ? Comment se développe la relation entre l’homme et la machine ? Comment seront prises les décisions dans le futur ? Ces questions sont trois exemples parmi celles que l’orateur a discutées avec nous.

Des ateliers de travail intéressants

Des ateliers de travail qui pouvaient répondre à toutes les exigences ont été proposés aux participants. Les identifiants durables pour les objets numériques, des introductions à l’utilisation d’outils ou la discussion sur les stratégies de sorties des services basés sur le « cloud » en sont quelques exemples.

Faire un choix parmi cette offre si variée fut difficile : dans de tels moments, il faudrait pouvoir se cloner ! Comme j’ai plutôt une formation technique, je me suis finalement décidé pour une introduction à "Fedora Repository", logiciel développé par Duraspace pour gérer des collections d’objets numériques. J’ai reçu les instructions d’installation des logiciels nécessaires pour le workshop avant la conférence déjà, ainsi nous avons pu traiter des objets concrets dès le début de l’atelier. Quelques exemples pratiques ont permis de comprendre rapidement le fonctionnement du logiciel. J’ai ainsi découvert avec surprise qu’en plus d’un outil de gestion, je disposais de SOLR, un puissant outil de recherche qui me permettait de formuler des requêtes et d’avoir accès à des ensembles d’objets numériques.

Un deuxième atelier de très haute qualité, consacré aux exigences auxquelles doit répondre un système de stockage à long terme de données, m’a beaucoup intéressé. Dans ce cas aussi, une préparation de l’atelier a été faite avant la conférence, au moyen d’un questionnaire. Il s’agissait de définir, sur la base de nos propres expériences, quelles fonctions et quelles propriétés sont pour nous importantes pour un tel système. Les résultats de l’enquête ont servi de point de départ d’une discussion approfondie. Il était très intéressant de voir pour quelles raisons quelles institutions ont défini des priorités différentes des nôtres ou dans quels domaines nous nous écartons de la norme.

Cet atelier ne s’est pas terminé avec la conférence : ses responsables ont pris l’engagement de traiter et de synthétiser les contributions des participants afin de consolider une liste pondérée d’exigences et de fonctionnalités. Cette liste sera une excellente base pour les institutions qui doivent acquérir un système d’archivage à long terme de leurs données.

Plusieurs niveaux

L’expérience m’a montré que les conférences se déroulent toujours sur plusieurs niveaux. Il y a bien sûr le programme officiel qui sert d’accroche. Mais il y a aussi pour moi – et certainement pour la plupart des participants – un agenda caché. Une conférence est une occasion idéale de mener des discussions informelles, de partager avec les collègues d’autres institutions les questions que l’on se pose et les problèmes auxquels nous sommes confrontés. Les pauses, les repas de midi et les évènements sociaux sont des temps idéaux pour répondre à ce besoin.

La conférence de cette année proposait en plus un « networking wall », sur lequel les congressistes pouvaient faire connaître leurs domaines d’expertise ou les questions pour lesquelles ils cherchaient de l’aide. Un très bon moyen pour trouver un interlocuteur !

Twitter a joué, comme toujours dans les conférences internationales, un rôle important. Je dois avouer que je ne l’ai pas utilisé de façon active. Mais j’ai apprécié de pouvoir connaître par ce biais les impressions sur les présentations auxquelles je n’ai pas pu participer ou de revoir, une fois ces journées terminées, certaines informations qui m’intéressaient et que je n’avais pas eu le temps de creuser sur le moment.

iPRES 2017

La lecture de ce papier vous a-t-elle donné l’envie de participer à la prochaine conférence ?

iPRES 2017 se tiendra en 2017 à Kyoto (Japon), du 25 au 27 novembre.

Pour plus d‘informations:

Twitter: #ipres2016

Page web: www.ipres2016.ch

  • Publié par Ressi
  • Vous devez vous connecter pour poster des commentaires
  • « premier
  • ‹ précédent
  • …
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • …
  • suivant ›
  • dernier »
Syndiquer le contenu

La revue Ressi

  • N° Spécial DLCM
  • N°21 décembre 2020
  • N°20 décembre 2019
  • N°Spécial 100ans ID
  • N°19 décembre 2018
  • N°18 décembre 2017
  • N°17 décembre 2016
  • N°16 décembre 2015
  • N°15 décembre 2014
  • N°14 décembre 2013
  • N°13 décembre 2012
  • N°12 décembre 2011
  • N°11 décembre 2010
  • N°10 décembre 2009
  • N°9 juillet 2009
  • N°8 décembre 2008
  • N°7 mai 2008
  • N°6 octobre 2007
  • N°5 mars 2007
  • N°4 octobre 2006
  • N°3 mars 2006
  • N°2 juillet 2005
  • N°1 janvier 2005

Recherche

  • n°21 décembre 2020

©2013 Ressi - ISSN 1661-1802